Antinomie entre dynamique des capteurs et restitution en sRVB ?

Démarré par chelmimage, Février 13, 2019, 20:40:27

« précédent - suivant »

Verso92

Citation de: Franciscus Corvinus le Mars 01, 2019, 09:57:39
Oui, c'est aussi ce que j'ai dit. On est d'accord la-dessus. Mais ca n'a rien a voir avec le fait que trois valeurs, R, V et B sont nécessaires et suffisantes pour calculer la luminance. Un algo sophistiqué va en considérer plus, c'est une question de qualité. Et c'est ainsi qu'il peut reconsitituer des détails que les données brutes ne permettent pas d'appréhender.

Ca ne change pas le fait que 2/3 de l'information est crée; ca change le fait que ce qui est créé a tendance a etre plus conforme a ce qu'on a vu.

En fait, vous êtes plusieurs à considérer l'APN sous l'angle métrologie... intéressant, certes, mais un peu hors de propos dans le cadre photographique, quand même.

Dans l'exemple du balcon du post #142, l'information n'est pas créée : elle est tout simplement restituée par l'appareil. Il n'y a pas d'algorithme "prédictif" qui tourne derrière avec reconnaissance de formes, etc. Juste que l'info de luminance du barreau, à savoir la colonne "B" (si on nomme les trois colonnes du tableau "ABC") se suffit à elle-même, puisque le contraste (la différence de luminance avec les colonnes "A" et "C") est élevé.

seba

Un exemple de calcul d'un pixel.

astrophoto

intéressant débat (mais va-t-on arriver à mettre tout le monde d'accord ?)

Je me permets de reposter l'expérience sur le mode "pixel shift" sur Sony 7RIII, puisque la seconde image est obtenue sans dématriçage/interpolations. Ca permet de voir la perte réelle due à la matrice de Bayer : pas catastrophique, mais pas négligeable non plus  :)

Citation de: astrophoto le Février 21, 2019, 09:13:39
pour continuer sur la question des interpolations, il est intéressant de regarder ce que fait le Sony 7RIII en mode "pixel shift" : https://petapixel.com/2017/11/18/testing-sonys-new-pixel-shift-feature-a7r-iii/

Il prend en rafale 4 photos en décalant à chaque fois d'un pixel le capteur (ou vertical ou horizontal), pour faire coïncider chaque point de la scène successivement avec les 4 photosites d'un bloc de matrice de Bayer (ça ne marche que sur pied, et pour une scène parfaitement statique). Puis au traitement il y a recombinaison des 4 images par décalages inverses d'un pixel. On arrive donc à un résultat sans interpolations, plus ou moins type Foveon, comme le montre la petite vidéo Sony. On voit bien le gain en piqué, ce qui donne une idée de la perte induite par les interpolations.




Thierry Legault
astrophoto.fr

Dub

Citation de: astrophoto le Mars 01, 2019, 14:21:48
intéressant débat (mais va-t-on arriver à mettre tout le monde d'accord ?)

Je me permets de reposter l'expérience sur le mode "pixel shift" sur Sony 7RIII, puisque la seconde image est obtenue sans dématriçage/interpolations. Ca permet de voir la perte réelle due à la matrice de Bayer : pas catastrophique, mais pas négligeable non plus  :)

On passe du flou au net... rien que ça... oui, "ce n'est pas négligeable", comme tu dis... >:D

Franciscus Corvinus

Citation de: Verso92 le Mars 01, 2019, 10:08:08
En fait, vous êtes plusieurs à considérer l'APN sous l'angle métrologie... intéressant, certes, mais un peu hors de propos dans le cadre photographique, quand même.

Dans l'exemple du balcon du post #142, l'information n'est pas créée : elle est tout simplement restituée par l'appareil. Il n'y a pas d'algorithme "prédictif" qui tourne derrière avec reconnaissance de formes, etc. Juste que l'info de luminance du barreau, à savoir la colonne "B" (si on nomme les trois colonnes du tableau "ABC") se suffit à elle-même, puisque le contraste (la différence de luminance avec les colonnes "A" et "C") est élevé.
Il faut bien que, la ou il n'existe qu'un signal, soit R, soit V, soit B, l'appareil ou le dématriceur restitue trois signaux R, et V et B. C'est seulement quand on a les trois canaux qu'on peut avoir la luminance. Pour avoir restitué le barreau, l'appareil a du créer de toute piece 2/3 de l'information.

Je ne sais pas pourquoi vous vous laissez attirer dans des discussions sur les méthodes de dématricages. Elles sont completement hors sujet.

Le sujet c'est qu'on part de 45 millions de photosites a 16 bits (mettons). Et on arrive avec 135 millions de valeurs sur 16 bits. Il n'y a pas a tergiverser ou se poser de question métaphysique: la différence a été crée de toute piece. Et c'est ce gonflement de l'info qui rend les pubs de capteurs a matrice de Bayer toutes aussi mensongeres que celles du DP2 Merrill.

seba

Je crois que c'est beaucoup plus subtil que ça.
Le calcul prend en compte un grand nombre de photosites autour du photosite en question pour retrouver la couleur correcte de chaque pixel.

Verso92

#156
Citation de: Franciscus Corvinus le Mars 01, 2019, 16:36:46
Il faut bien que, la ou il n'existe qu'un signal, soit R, soit V, soit B, l'appareil ou le dématriceur restitue trois signaux R, et V et B. C'est seulement quand on a les trois canaux qu'on peut avoir la luminance. Pour avoir restitué le barreau, l'appareil a du créer de toute piece 2/3 de l'information.

En fait, non : si l'appareil avait dû créer les 2/3 de l'information, le barreau ne pourrait plus être vu*.

Ton raisonnement n'est valable, comme souligné précédemment par egtegt², que dans le cas de filtres CFA parfaits qui verraient des couleurs monochromatiques. Or, ce n'est pas le cas...


*en prenant pour hypothèse que le barreau choisi a une largeur de 1 pixel et qu'il est en phase avec la capteur spatialement (on ne doit pas en être loin...), il est forcément constitué uniquement de photosites verts et rouges, ou vert et bleu (soit l'un, soit l'autre). En prenant le second cas, ça donnerait le cas de figure illustré ci-dessous (pas de photosites rouges pour le barreau (colonne B), donc).

Dans ce cas, étant donnée la luminance élevée des photosites rouges au voisinage immédiat du barreau, cela viendrait sérieusement moyenner (et éclaircir) le barreau, tout en moyennant (vers le foncé) le voisinage immédiat constitué par le crépis lumineux... or, ce n'est visiblement pas le cas.

Verso92

Citation de: Franciscus Corvinus le Mars 01, 2019, 16:36:46
Le sujet c'est qu'on part de 45 millions de photosites a 16 bits (mettons). Et on arrive avec 135 millions de valeurs sur 16 bits. Il n'y a pas a tergiverser ou se poser de question métaphysique: la différence a été crée de toute piece. Et c'est ce gonflement de l'info qui rend les pubs de capteurs a matrice de Bayer toutes aussi mensongeres que celles du DP2 Merrill.

Comme déjà écrit, Nikon vend le D850 comme étant doté d'un capteur ~45 MPixels.

Mes images ouvertes dans Photoshop (par exemple) font 8 256 x 5 504 pixels...

astrophoto

#158
Citation de: Verso92 le Mars 01, 2019, 20:07:22
Comme déjà écrit, Nikon vend le D850 comme étant doté d'un capteur ~45 MPixels.

45 millions de photosites, qui donnent chacun une information (rouge, verte ou bleue)

Comme tu le sais sûrement, le pixel, contraction de picture element, est un élément d'image comportant trois informations (rouge, verte et bleue)

Les constructeurs (d'appareils à matrice de Bayer) entretiennent bien la confusion entre les deux termes, à leur bénéfice. Et Sigma, par là-dessus, essaie de se dépatouiller de cette mélasse, en rajoutant j'en ai peur de la confusion à la confusion  :D
Thierry Legault
astrophoto.fr

Verso92

#159
Citation de: astrophoto le Mars 01, 2019, 22:05:06
45 millions de photosites, qui donnent chacun une information (rouge, verte ou bleue)

Plus exactement, dans le cas du D850, 45 millions de photosites qui délivreront une information de luminance récoltée derrière des filtres R, V ou B...  ;-)

Citation de: astrophoto le Mars 01, 2019, 22:05:06
Comme tu le sais sûrement, le pixel, contraction de picture element, est un élément d'image comportant trois informations (rouge, verte et bleue)

Le pixel (picture element) est la "brique élémentaire" d'une image numérique. C'est une entité abstraite.

En terme d'implémentation, ce pourra être un photosite qui récolte une information de luminance (cas d'un capteur monochrome), une photosite qui récolte une information de luminance derrière un CFA (cas d'un capteur de type Bayer), un assemblage de trois photosites RVB disposés dans la profondeur du silicium dans le cas du Foveon*, un assemblage de trois (RVB) ou quatre (RVBW) photophores dans le cadre d'un écran cathodique ou LCD, etc.


*dans le cas du Quattro, c'est encore différent : il y aura quatre photosites bleus pour un photosite rouge et un photosite vert.

Citation de: astrophoto le Mars 01, 2019, 22:05:06
Les constructeurs (d'appareils à matrice de Bayer) entretiennent bien la confusion entre les deux termes, à leur bénéfice.

Il n'y a pas de "confusion" (les photosites n'existent que dans l'implémentation physique). Au final, il n'y a que des pixels...

Verso92

Citation de: astrophoto le Mars 01, 2019, 22:05:06
Et Sigma, par là-dessus, essaie de se dépatouiller de cette mélasse, en rajoutant j'en ai peur de la confusion à la confusion  :D

Sigma, en parlant de "pixels" à la place de "photosites", entretient (ou, du moins, entretenait : ils ne le font plus trop aujourd'hui) la confusion...  ;-)


Les mots ont un sens, connu par tous (et, en particulier, par les fabricants, bien sûr : quand ils emploient un terme à la place d'un autre, c'est délibéré...).

astrophoto

Citation de: Verso92 le Mars 01, 2019, 22:58:04
Plus exactement, dans le cas du D850, 45 millions de photosites qui délivreront une information de luminance récoltée derrière des filtres R, V ou B...  ;-)

non, non, non : ta luminance est fabriquée (interprétée, si on veut) à partir des couches RVB, après dématriçage. Avant, elle n'existe pas. Et même, dans un fichier TIFF, il y a les 3 infos RVB par pixel, il n'y a rien qui s'appelle luminance là-dedans.
En plus, comme ça a été démontré plus haut, un photosite ne peut pas donner une information de luminance à lui tout seul, ils le font par groupes.
:)
Thierry Legault
astrophoto.fr

Verso92

Citation de: astrophoto le Mars 01, 2019, 23:15:21
non, non, non : ta luminance est fabriquée (interprétée, si on veut) à partir des couches RVB, après dématriçage. Avant, elle n'existe pas. Et même, dans un fichier TIFF, il y a les 3 infos RVB par pixel, il n'y a rien qui s'appelle luminance là-dedans.
En plus, comme ça a été démontré plus haut, un photosite ne peut pas donner une information de luminance à lui tout seul, ils le font par groupes.
:)

Tu fais la même erreur de raisonnement que plusieurs ici, à savoir partir du postulat que les CFA sont parfaits et que les couleurs capturées sont monochromatiques.


Si c'était le cas, tu ne pourrais pas obtenir avec un Bayer des détails d'un pixel de large...

astrophoto

Citation de: Verso92 le Mars 01, 2019, 23:19:00
Tu fais la même erreur de raisonnement que plusieurs ici, à savoir partir du postulat que les CFA sont parfaits et que les couleurs capturées sont monochromatiques.

je n'ai jamais dit ça, j'ai juste dit que la luminance ne venait pas d'un seul photosite mais de groupes de photosites, et donc que tu ne peux pas dire que ton capteur à 45 millions de photosites délivre 45 millions d'infos de luminance.
Thierry Legault
astrophoto.fr

Verso92

Citation de: astrophoto le Mars 01, 2019, 23:21:37
je n'ai jamais dit ça, j'ai juste dit que la luminance ne venait pas d'un seul photosite mais de groupes de photosites, et donc que tu ne peux pas dire que ton capteur à 45 millions de photosites délivre 45 millions d'infos de luminance.

Pourtant, quand tu regardes le bout d'image dont j'ai relevé le L (post #156), tu constates d'emblée que c'est la luminance du photosite qui prévaut : suivant l'hypothèse retenue, le luminance des photosites filtrés en rouge (et ceux filtrés en vert des colonnes A et C) n'ont aucune influence sur la valeur de luminance des pixels de la colonne B...

astrophoto

Citation de: Verso92 le Mars 01, 2019, 23:19:00
Si c'était le cas, tu ne pourrais pas obtenir avec un Bayer des détails d'un pixel de large...

tu n'obtiens pas de détails d'un pixel de large, je n'y crois pas une seconde. Pour s'en rendre compte, pas la peine de photographier des rembardes, il y a un truc qui fait une taille angulaire infinitésimale (aussi bien en largeur qu'en hauteur), que tout le monde peut photographier gratuitement parce qu'il en a des milliers au-dessus de la tête : ça s'appelle des étoiles  :D

Pour avoir photographié des millions d'étoiles, à la fois avec des capteurs monochromes et couleur, je peux t'affirmer que oui, sur un capteur monochrome, une étoile peut occuper un seul pixel (avec un bon suivi, une optique super piquée, et pas trop de focale sinon la turbulence atmosphérique étale l'image). Mais je te mets au défi de me montrer une étoile prise avec un capteur Bayer et qui occupe un seul pixel après dématriçage (c'est comme les photosites chauds ou morts d'ailleurs : après dématriçage eux aussi occupent plusieurs pixels). Alors oui, si l'optique est très bonne on arrive à avoir des étoiles qui tombent sur un seul photosite d'un capteur couleur, et là horreur après dématriçage l'étoile prend la couleur du photosite en question (elle peut donc être verte, alors que les étoiles vertes ça n'existe pas !). Preuve de plus qu'un photosite ne suffit pas à établir une information de luminance : la vraie luminance de cette étoile mono-photosite verte, rouge ou bleue ne peut pas être retrouvée.

:)
Thierry Legault
astrophoto.fr

Verso92

#166
Citation de: astrophoto le Mars 01, 2019, 23:32:51
tu n'obtiens pas de détails d'un pixel de large, je n'y crois pas une seconde.:)

Je ne te demande pas de "croire"...  ;-)

Citation de: astrophoto le Mars 01, 2019, 23:32:51
Pour s'en rendre compte, pas la peine de photographier des rembardes, il y a un truc qui fait une taille angulaire infinitésimale (aussi bien en largeur qu'en hauteur), que tout le monde peut photographier gratuitement parce qu'il en a des milliers au-dessus de la tête : ça s'appelle des étoiles  :D

Pour avoir photographié des millions d'étoiles, à la fois avec des capteurs monochromes et couleur, je peux t'affirmer que oui, sur un capteur monochrome, une étoile peut occuper un seul pixel (avec un bon suivi, une optique super piquée, et pas trop de focale sinon la turbulence atmosphérique étale l'image). Mais je te mets au défi de me montrer une étoile prise avec un capteur Bayer et qui occupe un seul pixel après dématriçage (c'est comme les pixels chauds ou morts d'ailleurs : après dématriçage eux aussi occupent plusieurs pixels). Alors oui, si l'optique est très bonne on arrive à avoir des étoiles qui tombent sur un seul photosite d'un capteur couleur, et là horreur après dématriçage l'étoile prend la couleur du photosite en question (elle peut donc être verte, alors que les étoiles vertes ça n'existe pas !). Preuve de plus qu'un photosite ne suffit pas à établir une information de luminance : la vraie luminance de cette étoile mono-photosite verte, rouge ou bleue ne peut pas être retrouvée.

:)

Déjà que la manip est compliquée et sujette à interprétation avec un signal "corrélé" sur une certaine longueur (je ne fais que supposer que la rambarde fait un pixel de large et qu'elle est en phase spatialement avec le capteur, mais rien ne le prouve formellement), avec avec un pixel seul...  ;-)


Je ne fais que constater une chose (et pas plus) : des détails de 1 pixel de large peuvent, si les circonstances s'y prêtent, être reproduits par le capteur (D810 pour l'exemple posté).

astrophoto

Citation de: Verso92 le Mars 01, 2019, 23:34:00
Je ne te demande pas de "croire"...  ;-)

oui enfin ton barreau noir, il n'y a pas besoin de microscope pour voir qu'il s'étale sur les colonnes voisines !  :D

En plus, dans ton post 156 il y a beaucoup trop de conditionnel et d'hypothèses à mon goût : la "crovance" n'est peut-être pas du côté qu'on imagine  :D
Thierry Legault
astrophoto.fr

Verso92

Citation de: astrophoto le Mars 01, 2019, 23:39:11
oui enfin ton barreau noir, il n'y a pas besoin de microscope pour voir qu'il s'étale sur les colonnes voisines !  :D

Chacun peut se faire sa propre opinion (voire lire les valeurs relevées à la pipette)...  ;-)


(d'ailleurs, le bout de barreau à gauche de celui mesuré (plus clair) est encore plus parlant)

Verso92

Bon, ces visus d'écran à 1 600% me donnent un peu le tournis, à vrai dire...  ;-)


Le "classique" crop 100%, pour situer :

chelmimage

Citation de: astrophoto le Mars 01, 2019, 23:39:11
oui enfin ton barreau noir, il n'y a pas besoin de microscope pour voir qu'il s'étale sur les colonnes voisines !  :D
En plus, dans ton post 156 il y a beaucoup trop de conditionnel et d'hypothèses à mon goût : la "crovance" n'est peut-être pas du côté qu'on imagine  :D
Une observation sans prendre partie..
C'est que l'immeuble photographié par Verso92 n'est pas vu de face mais de biais.
Et pour chaque barreau, on en voit la face avant mais aussi la joue droite (l'épaisseur, moins contrastée peut être?).
ça se perçoit facilement sur les sculptures qui portent le balcon.

Verso92

Citation de: chelmimage le Mars 02, 2019, 10:06:36
Une observation sans prendre partie..
C'est que l'immeuble photographié par Verso92 n'est pas vu de face mais de biais.
Et pour chaque barreau, on en voit la face avant mais aussi la joue droite (l'épaisseur, moins contrastée peut être?).
ça se perçoit facilement sur les sculptures qui portent le balcon.

La question n'est même pas là : c'est une photo, pas une image de synthèse...


Autre façon de formuler la question : distingue-t-on, oui ou non, une ligne verticale sombre de 1 pixel de large sur fond clair sur l'extrait ci-dessous ?

chelmimage

Citation de: Verso92 le Mars 02, 2019, 10:25:13
La question n'est même pas là : c'est une photo, pas une image de synthèse...
Autre façon de formuler la question : distingue-t-on, oui ou non, une ligne verticale sombre de 1 pixel de large sur fond clair sur l'extrait ci-dessous ?
Oui bien sur. mais imagine que le barreau fasse 1,5 pixel de large..
1 pixel est complètement noir l'autre ne l'est qu'à 50%

Verso92

Citation de: chelmimage le Mars 02, 2019, 11:25:59
Oui bien sur. mais imagine que le barreau fasse 1,5 pixel de large..
1 pixel est complètement noir l'autre ne l'est qu'à 50%

Si le barreau n'est pas parfaitement en phase avec le motif du capteur (ou s'il est plus large qu'un pixel), il y aura ce genre de conséquence, effectivement.

Mais ce sera vrai avec un Foveon, aussi...

Franciscus Corvinus

Citation de: Verso92 le Mars 01, 2019, 23:14:19
Sigma, en parlant de "pixels" à la place de "photosites", entretient (ou, du moins, entretenait : ils ne le font plus trop aujourd'hui) la confusion...  ;-)
C'est exactement le meme abus de langage que "le capteur du D850 a 45 millioins de pixels". Je ne vois pas pourquoi l'un est inacceptable et l'autre est acceptable.

Le fait que tu te retrouves avec 45 millions de pixels a la fin est simplement le résultat de la création de 30 millions de données manquantes. Tu prends photoshop, une image de Sigma, zoom 300%, et tu obtient que ce que Sigma a dans sa prochure. Conceptuellement, ca n'est pas différent de prendre un raw et de le dématricer.