Antinomie entre dynamique des capteurs et restitution en sRVB ?

Démarré par chelmimage, Février 13, 2019, 20:40:27

« précédent - suivant »

jenga

Citation de: seba le Mars 02, 2019, 19:05:39
A la limite ce ne serait pas la peine de dématricer (je ne sais pas si le terme est correct dans ce cas), on aurait une juxtaposition de points RVB comme dans l'Autochrome ou nos écrans, à l'oeil de faire le mélange.
Cela ne serait pas correct, car l'image finale serait trop dépendante de la position exacte de chaque photosite par rapport aux motifs de l'image de départ: en effet un petit décalage du capteur par rapport aux traits de l'image de départ changer les valeurs de tous les photosites.

C'est justement le rôle de l'interpolateur de retrouver l'image de départ indépendamment de ce décalage des photosites: pour cela, le filtre interpolateur idéal devrait calculer chaque pixel de l'image finale à partir de chaque photosite (je vais détailler dans un autre post).

En pratique, la puissance de calcul disponible limite l'horizon pris en compte à quelques groupes de photosites, mais le limiter à 1 (en théorie du signal, ce filtre s'appelle le "bloqueur d'ordre 0") serait vraiment très mauvais.

Cela dit, l'exemple de Verso montre justement une dépendance des l'image finale par rapport à la position des photosites: l'interpolateur n'est donc pas correct; il ne prend probablement pas suffisamment de photosites en compte pour éliminer l'effet de décalage sur des détails aussi fins, et d'autre part il privilégie le "crisp" au détriment de l'exactitude.


jenga

Citation de: seba le Mars 01, 2019, 16:41:10
Je crois que c'est beaucoup plus subtil que ça.
Le calcul prend en compte un grand nombre de photosites autour du photosite en question pour retrouver la couleur correcte de chaque pixel.
Plusieurs intervenants ont mentionné ce point, parfaitement exact mais mal interprété.
En fait, si la puissance de traitement le permettait, le dématriçage devrait calculer chaque pixel en tenant compte de tous les photosites de l'image.

La théorie du signal nous dit que l'interpolateur permettant de retrouver exactement le signal de départ à partir du signal échantillonné (s'il a été échantillonné correctement, bien sûr) est un filtre passe-bas idéal de fréquence de coupure f/2 (f étant la fréquence d'échantillonnage).

Ce filtre interpolateur étant de largeur finie (0..f/2) dans le domaine fréquentiel, il a une largeur infinie dans le domaine spatial; le calcul de chaque point de l'image reconstituée nécessite donc une pondération de tous les points de l'image échantillonnée.

C'est impossible pour des raisons de temps de calcul, les dématriceurs se limitent donc à des horizons spatiaux plus limités, ce qui pénalise un peu la précision (on arrive à une précision de l'ordre du % en considérant un voisinage de 4x4 autour de chaque point recalculé).

En résumé: le capteur fournit X triplets RVB (et des verts en excès pour améliorer la précision dans la région concernée). Ces X triplets (RVB) sont mathématiquement équivalents à X pixels indépendants, ni plus ni moins, mais le calcul correct de chaque pixel nécessite la prise en compte d'un nombre aussi grand que possible de triplets.

jenga

Citation de: Verso92 le Février 28, 2019, 20:39:44
Le but était donc de voir si un APN "Bayer" (en l'occurrence, le D810) était capable de restituer un détail faisant 1 pixel de large.

Bien sûr, comme on est en numérique, on ne se débarrasse pas de Shannon comme ça : il faut donc trouver un barreau du balcon qui soit parfaitement en phase avec le motif du capteur (j'estime que c'est plus ou moins le cas avec celui qui est le plus sombre sur la photo). Sinon, les barreaux occuperont souvent, statistiquement, deux pixels de large (mais là, ce n'est pas la faute à la matrice de Bayer...).

Ton exemple montre justement que l'interpolation (le dématriçage) est incorrecte au sens de Shannon. Lorsqu'un signal est échantillonné et restitué correctement, la sortie est exactement identique au signal de départ. Or, dans ton image, les barreaux restitués n'ont pas tous  le même contraste ni la même largeur.

Imagine la même chose avec un enregistreur audio, qui selon la position exacte des instants d'échantillonnage (que tu ne connais pas) par rapport à ta voix, te restituerait une voix montant dans les aigus puis descendant dans les graves en permanence, avec une amplitude fluctuante:  poubelle direct!

C'est le cas des barreaux de ta photo : leur amplitude et leur largeur ne sont pas correctement restituées, sinon ils devraient être tous identiques, peu importe le "calage" des photosites par rapport à l'image.
Pourquoi les barreaux ne sont-ils pas identiques sur l'image interpolée ? Parce que l'interpolateur va au-delà des limites de l'interpolation correcte pour créer des détails d'un photosite de large. Cela se fait très simplement en choisissant les coefficients de pondération des photosites dans le calcul des pixels.

Le plus souvent, ça passe parce que rares sont les conditions de prise de vue dans lesquelles le signal est proche de la limite de Shannon: on obtient une image plausible et des transitions raides, rien de visuellement choquant, les cropeurs à 100% sont contents!

Mais si l'on regarde de près, comme dans le cas de ton balcon, on se rend compte que l'image est "plaisante" mais fausse.

Ton image, fort intéressante, montre juste que les pixels de l'image dématricée ne sont pas la réalité; et c'est normal, avec 9 millions de photosites rouges, 9 millions de bleus et 18 millions de verts on ne peut faire que 9 millions de pixels indépendants.
(On peut évidemment interpoler à autant qu'on veut en élargissant les traits). Mais si on voit des traits plus fins que l'équivalent de 9 MPx, cela ne peut pas être exact.


Verso92

Citation de: jenga le Mars 02, 2019, 21:51:29
Ton exemple montre justement que l'interpolation (le dématriçage) est incorrecte au sens de Shannon. Lorsqu'un signal est échantillonné et restitué correctement, la sortie est exactement identique au signal de départ.

Là, je ne peux pas te laisser dire ça...

Le motif résultant, lors d'un échantillonnage spatial, va forcément dépendre de sa position par rapport à la grille constituée par l'échantillonneur (le capteur).


Il y a quelques années, j'avais fait quelques schémas pour illustrer le principe dans un discussion sur le forum (dans le cas simplifié d'un capteur "parfait", en monochrome) :

Verso92

Citation de: jenga le Mars 02, 2019, 21:51:29
Mais si l'on regarde de près, comme dans le cas de ton balcon, on se rend compte que l'image est "plaisante" mais fausse.

Ton image, fort intéressante, montre juste que les pixels de l'image dématricée ne sont pas la réalité; et c'est normal, avec 9 millions de photosites rouges, 9 millions de bleus et 18 millions de verts on ne peut faire que 9 millions de pixels indépendants.
(On peut évidemment interpoler à autant qu'on veut en élargissant les traits). Mais si on voit des traits plus fins que l'équivalent de 9 MPx, cela ne peut pas être exact.

Je remets les deux parties d'images (visu 1 600%) déjà postées, réalisées :

1 - avec le D810 (36 MPixels "Bayer"),

2 - avec le Sigma DP2m (15 MPixels, mais cette fois-ci, avec un capteur Foveon : trois photosites par pixel, pas de dématriçage, donc).


C'est assez explicite, je pense...

Verso92

Pour illustration, la photo au DP2m en pleine def' :

[prodibi]{"id":"7km06kmz0om4x4","width":4704,"height":3136,"widthMode":"aspectRatio","heightMode":"90vh","account":"verso"}[/prodibi]

seba

Citation de: jenga le Mars 02, 2019, 21:36:56
Cela ne serait pas correct, car l'image finale serait trop dépendante de la position exacte de chaque photosite par rapport aux motifs de l'image de départ: en effet un petit décalage du capteur par rapport aux traits de l'image de départ changer les valeurs de tous les photosites.

Peut-être et pourtant c'est ce que faisaient tous les procédés additifs par juxtaposition (Autochrome, Dufaycolor, et autres...il y en a eu de nombreux).
Et les couleurs sont correctes.

seba

Citation de: jenga le Mars 02, 2019, 21:38:31
Plusieurs intervenants ont mentionné ce point, parfaitement exact mais mal interprété.
En fait, si la puissance de traitement le permettait, le dématriçage devrait calculer chaque pixel en tenant compte de tous les photosites de l'image.

La théorie du signal nous dit que l'interpolateur permettant de retrouver exactement le signal de départ à partir du signal échantillonné (s'il a été échantillonné correctement, bien sûr) est un filtre passe-bas idéal de fréquence de coupure f/2 (f étant la fréquence d'échantillonnage).

Peut-être, je n'en sais rien, mais tel que c'est fait, le résultat est satisfaisant, non ?

chelmimage

Grâce à prodibi: pour le DP2m
Un autre détail qui perturbe la lecture de l'image, c'est qu'il y a superposition des fers forgés de la balustrade et de la projection de leur ombre sur le mur. Le soleil est rasant..

Nikojorj

Citation de: Franciscus Corvinus le Mars 02, 2019, 20:54:14
Autre facon de voir: la luminance est établie par calcul a partir de trois valeurs R, V et B. Comme un photosite ne fournit qu'une des trois, du point de vue de l'information c'est différent d'une facteur de trois. Pas négligeable. Et pour moi "fondamentalement" différent.
Justement pas d'un facteur 3, parce que l'information de chrominance est moins dense, elle... C'est là où on retrouve le 30% de perte cité par exemple dans l'article de Reichmann sur le P45 Achromatic.

Verso92

Citation de: Nikojorj le Mars 03, 2019, 00:01:19
Justement pas d'un facteur 3, parce que l'information de chrominance est moins dense, elle... C'est là où on retrouve le 30% de perte cité par exemple dans l'article de Reichmann sur le P45 Achromatic.

~30% était aussi le chiffre qui avait été avancé par Ronan pour la perte d'un Bayer versus un Foveon, à définition égale...

Franciscus Corvinus

Citation de: Nikojorj le Mars 03, 2019, 00:01:19
Justement pas d'un facteur 3, parce que l'information de chrominance est moins dense, elle... C'est là où on retrouve le 30% de perte cité par exemple dans l'article de Reichmann sur le P45 Achromatic.
Reichmann attribue la perte majoritairement au filtre passe-bas.

Mais pour revenir a ce que tu as dit, fais tres attention a un autre argument fallacieux, qui sera tres familier aux matheux. Tu pars du résultat (l'info de chorminance sur une photo dématricée est moins dense que l'info de luminance) pour démontrer la conclusion (donc elle n'utiilise pas toute l'linfo RGB). C'est une erreur. L'info de chrominance ressort moins dense par ce que les dématriceurs font cette hypothese! La compression JPG fait la meme, d'ailleurs.

Pour s'en convaincre, il faudrait faire un test encore plus complqué que celui que proposait astrophoto (un point lumineux d'un pixel de diametre). Il faudrait une mire de luminosité constante sur laquelle des points d'un pixel de diametre ont une couleur aléatoire. Bref, rien que du bruit de chrominance. Je suis pret a parier tres gros qu'aucun capteur a matrice de Bayer ne peut te sortir une image apres dématricage qui ressemble a la source, meme avec beaucoup de tolérance.

Je suis en train de voir si je peux faire ce test un utilisant l'écran de mon laptop (qui ne remplira pas tout le capteur évidemment, mais ca n'est pas le but).

La raison pour laquelle je suis sur que la teinte et la saturation sont interpolées aux 2/3 est toute bete: comme la luminance, les formules pour les calculer requierent la connaissance des trois canaux R, G et B. Moins, c'est pas possible. On fait correspondre de maniere bijective un espace en trois dimensions avec un autre. Il est nécessaire (et suffisant) que chaque dimension de l'espace d'arrivée ait besoin de trois dimensions de l'espace de départ. Dura mathematicarum lex sed lex.

Encore une fois, j'insiste sur le fait qu'il faut ignorer les techniques de dématriacge. C'est un faux probleme.

FredEspagne

Et la question incommode pour Verso: pourquoi les dématriceurs donnent des images différentes à partir d'un même raw? Et je précise, les résultats sont différents, au niveau de la chromie, au niveau de la luminance et du piqué de l'image avec, en prime, des résultats très différents au niveau du traitement du bruit dans les hauts ISOs. Il y a quelques années, ici même, JMS l'avait bien montré en comparantles principaux dématriceurs sur le marché.
35 ans de film et labo argentique , 21 de numérique

chelmimage

Citation de: Franciscus Corvinus le Mars 03, 2019, 00:53:04

Je suis en train de voir si je peux faire ce test un utilisant l'écran de mon laptop (qui ne remplira pas tout le capteur évidemment, mais ca n'est pas le but).

Encore une fois, j'insiste sur le fait qu'il faut ignorer les techniques de dématriacge. C'est un faux probleme.
Si ça peut t'aider voici une mire que je m'étais fabriquée..

chelmimage


Verso92

#215
Citation de: FredEspagne le Mars 03, 2019, 05:28:22
Et la question incommode pour Verso: pourquoi les dématriceurs donnent des images différentes à partir d'un même raw? Et je précise, les résultats sont différents, au niveau de la chromie, au niveau de la luminance et du piqué de l'image avec, en prime, des résultats très différents au niveau du traitement du bruit dans les hauts ISOs. Il y a quelques années, ici même, JMS l'avait bien montré en comparantles principaux dématriceurs sur le marché.

Je ne comprends pas trop le sens de ta question... il est tout a fait normal que les images développées par des logiciels différents ne soient pas identiques (algos différents, paramètres différents, profils différents, courbes différentes, etc).

Rien que dans Capture One, par exemple, les résultats varient de façon prononcée suivant que j'utilise les profils génériques livrés par l'éditeur ou mes propres profils réalisés sur mesure...


En ce qui concerne les comparaisons entre différents logiciels de développement, je me suis livré à plusieurs reprises à ce petit jeu, dont ici, par exemple :
https://www.chassimages.com/forum/index.php/topic,263958.msg6217287.html#msg6217287

(dommage, les images ont sauté, suite au bug du forum)


Pour le traitement du bruit en hauts ISO, tout le monde sait que DxO propose des logiciels supérieurs à la concurrence, grâce à Prime (et le temps de développement s'en ressent très lourdement).

Ci-dessous, développement par défaut Capture One vs DxO PhotoLab (crops 100%) :

chelmimage

Citation de: chelmimage le Mars 03, 2019, 08:11:37
Si ça peut t'aider voici une mire que je m'étais fabriquée..
Une précision me revient, c'est que pour utiliser cette mire sur un écran, il faut l'afficher en zoom 300% sinon la photo vient échantillonner les photosites de l'écran plutôt que les pixels de l'image.
L'inconvénient est qu'il faut 3 fois plus de recul par rapport à l'écran..!
En grand angle peut être que ça passe?

Verso92

Citation de: chelmimage le Mars 03, 2019, 10:05:37
Une précision me revient, c'est que pour utiliser cette mire sur un écran, il faut l'afficher en zoom 300% sinon la photo vient échantillonner les photosites de l'écran plutôt que les pixels de l'image.
L'inconvénient est qu'il faut 3 fois plus de recul par rapport à l'écran..!
En grand angle peut être que ça passe?

Ah, les mires de l'ami Chelm... si on ne les avait pas, il faudrait les inventer !

;-)

Franciscus Corvinus

Citation de: chelmimage le Mars 03, 2019, 08:11:37
Si ça peut t'aider voici une mire que je m'étais fabriquée..
Ca fait acceptablement mal aux yeux! ;D

Je vais plutot prendre un pixel coloré entouré d'une vingtaine (au moins) de pixels completement noirs. Ainsi je réduis les possibilités de pollution des résultats par des interpolations inconnues.

chelmimage

Citation de: Franciscus Corvinus le Mars 03, 2019, 10:15:28
Ca fait acceptablement mal aux yeux! ;D

Je vais plutot prendre un pixel coloré entouré d'une vingtaine (au moins) de pixels completement noirs. Ainsi je réduis les possibilités de pollution des résultats par des interpolations inconnues.
Il faut que ce pixel soit gros, au moins 3 ou 4 pixels en dimension linéaire c'est à 9 ou 16 pixels en surface Sinon pb de lecture des photosites, de moiré, etc.......

jenga

Citation de: jenga le Mars 02, 2019, 21:51:29
Ton exemple montre justement que l'interpolation (le dématriçage) est incorrecte au sens de Shannon. Lorsqu'un signal est échantillonné et restitué correctement, la sortie est exactement identique au signal de départ. Or, dans ton image, les barreaux restitués n'ont pas tous  le même contraste ni la même largeur.
Citation de: Verso92 le Mars 02, 2019, 22:35:00
Là, je ne peux pas te laisser dire ça...

Le motif résultant, lors d'un échantillonnage spatial, va forcément dépendre de sa position par rapport à la grille constituée par l'échantillonneur (le capteur).
Ce n'est pas moi qui le dit, mais la théorie de l'échantillonnage.

Tu confonds deux choses:
-le résultat brut d'échantillonnage.
-le signal reconstitué correctement à partir des échantillons.

Le résultat brut d'échantillonnage dépend bien sûr de la position de la grille d'analyse par rapport au signal.
Mais, si le signal a été échantillonné correctement, (i.e. largeur de bande < fréquence d'échantillonnage / 2), les échantillons contiennent la totalité de l'information et il est donc possible de restituer exactement le signal de départ.

cf, pour une présentation simplifiée mais accessible, la page wikipedia:
https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d%27%C3%A9chantillonnage

Le paragraphe "reconstitution" montre comment un filtre passe-bas à f/2 permet de reconstituer exactement le signal de départ:
"On a ainsi obtenu le signal initial s ( t ) en filtrant l'échantillonnage de ce signal par un filtre parfait, passe tout de 0 à la moitié de la fréquence d'échantillonnage, et coupe tout ailleurs. "

La "restitution" intuitive qui consiste à tirer des traits droits entre les échantillons est bien sûr incorrecte.

jenga

Citation de: seba le Mars 02, 2019, 23:17:42
Peut-être et pourtant c'est ce que faisaient tous les procédés additifs par juxtaposition (Autochrome, Dufaycolor, et autres...il y en a eu de nombreux).
Et les couleurs sont correctes.
Je ne parle pas de la synthèse additive, mais de la reconstitution des pixels de l'image.

A partir des photosites numérisés par le capteur, il y 2 étapes:
-la reconstitution correcte des pixels; comme indiqué plus haut, la reconstitution correcte nécessite de prendre en compte un grand nombre de photosites; il ne s'agit pas de créer de l'information (on n'aura jamais plus de vrais pixels que de triplets de photosites), uniquement d'exploiter correctement l'information échantillonnée

-la création d'une image physique à partir des pixels, sur un écran ou sur une feuille de papier par exemple ; cette partie fonctionne très bien en synthèse, additive par exemple.

seba

Citation de: jenga le Mars 03, 2019, 10:40:12
Je ne parle pas de la synthèse additive, mais de la reconstitution des pixels de l'image.

A partir des photosites numérisés par le capteur, il y 2 étapes:
-la reconstitution correcte des pixels; comme indiqué plus haut, la reconstitution correcte nécessite de prendre en compte un grand nombre de photosites; il ne s'agit pas de créer de l'information (on n'aura jamais plus de vrais pixels que de triplets de photosites), uniquement d'exploiter correctement l'information échantillonnée

-la création d'une image physique à partir des pixels, sur un écran ou sur une feuille de papier par exemple ; cette partie fonctionne très bien en synthèse, additive par exemple.

Si on ne dématriçait pas l'image du capteur, la synthèse additive se ferait par l'oeil (comme quand on regarde un écran).
Le dématriçage fait cette synthèse pour chaque photosite, ce qui augmente la résolution.
Et comme dit, la reconstruction des pixels n'utilise pas des triplets de photosites, qui n'apporterait rien, mais c'est beaucoup plus astucieux.

jenga

Citation de: seba le Mars 03, 2019, 10:52:26
Si on ne dématriçait pas l'image du capteur, la synthèse additive se ferait par l'oeil (comme quand on regarde un écran).
Le dématriçage fait cette synthèse pour chaque photosite, ce qui augmente la résolution.
Et comme dit, la reconstruction des pixels n'utilise pas des triplets de photosites, qui n'apporterait rien, mais c'est beaucoup plus astucieux.
Non, tu ne lis pas ce que j'ai écrit, ni les liens qui présentent les bases de la question.
https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d%27%C3%A9chantillonnage

Le dématriçage utilise plusieurs photosites pour reconstituer chaque pixel, mais cela n'augmente en aucun cas la résolution.

Comme discuté avec Verso, l'échantillonnage produit des valeurs qui dépendent du calage précis des motifs de l'image par rapport à la grille; pour retrouver l'image de départ, indépendamment de ce calage, il ne suffit pas de lire naïvement les échantillons: une opération de déconvolution doit être effectuée et cette opération nécessite, idéalement, de calculer chaque pixel de l'image à partir de tous les échantillons (en pratique on se limite à moins que cela, bien sûr).
https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d%27%C3%A9chantillonnage

Il ne s'agit en aucun cas "d'augmenter la résolution" mais uniquement d'exploiter correctement l'information présente dans les échantillons. L'information ne se crée pas à partir de rien. On n'obtiendra jamais davantage de vrais pixels que le capteur ne comporte de triplets RVB.

La reconstitution la plus simple qu'on puisse imaginer ("Si on ne dématriçait pas l'image du capteur, la synthèse additive se ferait par l'oeil") donnerait aussi les résultats les plus éloignés de la réalité.

seba

Citation de: jenga le Mars 03, 2019, 11:05:46
Il ne s'agit en aucun cas "d'augmenterl arésolution", ça n'aurait aucun sens. L'information ne se crée pas à partir de rien.

La résolution est supérieure à ce qu'on obtiendrait si on ne faisait que fusionner des triplets de photosites.
L'info ne se crée bien sûr pas à partir de rien, mais on peut la déduire d'un certain nombre de photosites voisins (c'est ce que fait le dématriçage).

Citation de: jenga le Mars 03, 2019, 11:05:46
La reconstitution la plus simple qu'on puisse imaginer ("Si on ne dématriçait pas l'image du capteur, la synthèse additive se ferait par l'oeil") donnerait aussi les résultats les plus éloignés de la réalité.

C'est pourtant ce qui se passe chaque fois qu'on regarde la télé, un écran LCD ou LED, etc...et il me semble bien qu'une fois bien calibré, les couleurs sont fidèles.