Antinomie entre dynamique des capteurs et restitution en sRVB ?

Démarré par chelmimage, Février 13, 2019, 20:40:27

« précédent - suivant »

chelmimage

Citation de: astrophoto le Mars 06, 2019, 13:04:33
...et c'est là qu'on voit que tout le monde n'a pas la même définition de la luminance  ;)
Ce n'est pas ma définition mais ma compréhension du phénomène.
Et, malheureusement,  ma compréhension est limitée à la formule:
Luminance=0,3 R+ 0,59 V+ 0,11 B
AU fond d'un puits R les composantes V et B sont nulles.
Donc L= 0,3 R
Conclusion; Au fond d'un puits rouge on a la luminance d'un puits rouge. Pondéré peut être par un coefficient d'efficacité du filtre rouge?
Maintenant, je suis prêt à envisager une autre façon de considérer les choses..

chelmimage

Une autre observation que je tire de mes photos de mire.
Sur la mire, il y a des gros carrés et des petits carrés. Les gros sont le double des petits.
Sur l'extrait de photo qui suit tous les motifs devraient être rouges de la même teinte.
On voit que les gros carrés sont vus par l'appareil et sont restitués par un carré de 8X8  pixels de photo, soit 16 matrices de base Bayer, la couleur existe, les contours sont plus ou moins bons selon les couleurs du fond.
Cf exemple entouré de pointillés.
Par contre, les petits carrés (toujours rouges sur la mire) 2 fois plus petits, donc échantillonnés par un carré de 4X4 pixels de photo,( soit 4 matrices de base Bayer), sont très mal restitués et apparaissent presque noirs. Autant dire qu'ils ne sont pas représentatifs de la mire.

chelmimage

J'ai augmenté l'échantillonnage qui passe de 8 à 12 par gros carré..
Cette fois ci la couleur des petits carrés commence à être visible et, bien sur les contours, en général, sont mieux définis..

Verso92

Citation de: chelmimage le Mars 06, 2019, 18:43:09
J'ai augmenté l'échantillonnage qui passe de 8 à 12 par gros carré..
Cette fois ci la couleur des petits carrés commence à être visible et, bien sur les contours, en général, sont mieux définis..

Les résultats que tu observes sont logiques (et attendus) : avec un motif en couleur dont la taille et la répétition se rapprochent de l'aire de dématriçage, ça ne peut que partir plus ou moins en sucette...

chelmimage

Citation de: Verso92 le Mars 06, 2019, 19:41:22
Les résultats que tu observes sont logiques (et attendus)
Peut être, mais je vais te poser une colle:
Quelle logique explique la différence de rendu entre les zones à la verticale de 640 et à la verticale de 660 ?

jenga

Citation de: chelmimage le Mars 06, 2019, 14:10:32
Luminance=0,3 R+ 0,59 V+ 0,11 B
AU fond d'un puits R les composantes V et B sont nulles.
Donc L= 0,3 R
Conclusion; Au fond d'un puits rouge on a la luminance d'un puits rouge. Pondéré peut être par un coefficient d'efficacité du filtre rouge?

La formule que tu cites (en ramenant les composantes RVB de 0..255 à 0..100%) est le cas particulier de l'espace couleur TSL, cf. https://en.wikipedia.org/wiki/TSL_color_space

Mais attention, cet espace couleur est peu utilisé, en particulier l'espace "TSL" de Photoshop n'est pas du tout un vrai TSL mais un TSV, dans lequel la luminance est :
L = max (R, V, B) en %.


La copie d'écran suivante (merci Verso!) le montre clairement:



La formule que tu indiques donnerait pour les valeurs RVB affichées, L=46% dans la partie "TSL".

Or, Photoshop affiche L=59%, qui est bien le max des 3 composantes dans l'échelle  0..100% (le max est 150 sur une échelle de 255, soit 58,8%)

Donc, dans un logiciel aussi courant que Photoshop, la luminance est le max des 3 composantes RVB. Par conséquent, quand tu lis uniquement un ou deux photosites tu ne connais rien sur la luminance (sauf si l'un d'eux est déjà au max).

Dans l'espace Lab, c'est une autre formule, qui ne donne ni 59% ni 46%, mais là encore tu ne peux pas calculer L si tu n'as pas les 3 valeurs RVB.

chelmimage

Citation de: jenga le Mars 06, 2019, 22:07:24
La formule que tu cites (en ramenant les composantes RVB de 0..255 à 0..100%) est le cas particulier de l'espace couleur TSL, cf. https://en.wikipedia.org/wiki/TSL_color_space
.................................................
Dans l'espace Lab, c'est une autre formule, qui ne donne ni 59% ni 46%, mais là encore tu ne peux pas calculer L si tu n'as pas les 3 valeurs RVB.
Très bien, merci.
Mon intervention tentait de répondre à la question:
Que mesure t'on en sortie d'un photosite rouge?
Et bien pour le moment j'en suis à : une information* (proportionnelle?) à (la quantité de (lumière?) reçue pendant la durée de l'exposition?) des raies rouges filtrées .. (sans rapport avec L!)
* une quantité d'électricité.
Idem pour les autres couleurs.
Donc ma définition est encore imparfaite!

Verso92

Citation de: chelmimage le Mars 07, 2019, 07:35:25
Très bien, merci.
Mon intervention tentait de répondre à la question:
Que mesure t'on en sortie d'un photosite rouge?
Et bien pour le moment j'en suis à : une information* (proportionnelle?) à (la quantité de (lumière?) reçue pendant la durée de l'exposition?) des raies rouges filtrées .. (sans rapport avec L!)
* une quantité d'électricité.
Idem pour les autres couleurs.
Donc ma définition est encore imparfaite!

Si tu as fait du N&B en argentique, pose toi la question de savoir ce que mesurait la cellule et ce qu'enregistrait le film lorsqu'un filtre rouge était monté sur l'objectif...

chelmimage

Citation de: Verso92 le Mars 07, 2019, 08:20:41
Si tu as fait du N&B en argentique, pose toi la question de savoir ce que mesurait la cellule et ce qu'enregistrait le film lorsqu'un filtre rouge était monté sur l'objectif...
Je n'ai jamais fait d'argentique..je n'ai pas de cellule..

Verso92


chelmimage

Citation de: Verso92 le Mars 07, 2019, 08:48:24
Ah...

Je parlais de celle qui est dans l'appareil...
J'ai fait des photos depuis 1959 mais pas de la photographie...(60 ans déjà!)
Par contre, je n'ai jamais utilisé de filtres rouges....
Si l'exposition n'était pas optimale, le développement et le tirage, compensaient.. ;D
Et finalement, j'attends que tu me donnes la réponse à ta question. ;)

Verso92

#311
Citation de: chelmimage le Mars 07, 2019, 09:51:57
J'ai fait des photos depuis 1959 mais pas de la photographie...(60 ans déjà!)
Par contre, je n'ai jamais utilisé de filtres rouges....
Si l'exposition n'était pas optimale, le développement et le tirage, compensaient.. ;D
Et finalement, j'attends que tu me donnes la réponse à ta question. ;)

Ben... regarde les exemples que j'ai postés avec IRIS (post #278, par exemple), c'est très parlant.

En fonction de la couleur du filtre du photosite, la luminosité (je n'ose plus employer luminance...  ;-) sur une zone homogène n'est pas constante : on voit bien le damier du CFA.

Par contre, quelle que soit la couleur de filtrage du photosite, on distingue bien quand même les tendances "lourdes", genre sombre ou clair (par exemple). C'est la raison pour laquelle des motifs de 1 pixel de large peuvent être reproduits.

chelmimage

Citation de: Verso92 le Mars 07, 2019, 10:07:21
Ben... regarde les exemples que j'ai postés avec IRIS (post #278, par exemple), c'est très parlant.

En fonction de la couleur du filtre du photosite, la luminosité (je n'ose plus employer luminance...  ;-) sur une zone homogène n'est pas constante : on voit bien le damier du CFA.

Par contre, quelle que soit la couleur de filtrage du photosite, on distingue bien quand même les tendances "lourdes", genre sombre ou clair (par exemple). C'est la raison pour laquelle des motifs de 1 pixel de large peuvent être reproduits.
ça je l'ai vu..
Mais la question suivante est:
Est ce que ce damier,  est directement "mixable" pour faire une image couleur ou est ce qu'il faut encore appliquer des coefficients à chaque couleur.. qui par ex.. dépendraient de chaque appareil?

Verso92

#313
Citation de: chelmimage le Mars 07, 2019, 10:36:02
Mais la question suivante est:
Est ce que ce damier,  est directement "mixable" pour faire une image couleur ou est ce qu'il faut encore appliquer des coefficients à chaque couleur.. qui par ex.. dépendraient de chaque appareil?

Pour moi, les algorithmes de dématriçage sont communs aux différents appareils (avec, peut-être, quelques variantes en fonction du type d'APN, haute def', etc ?).

Ce qui explique, par exemple, que DxO ne veut pas faire l'effort de s'intéresser au X-Trans, qui implique un dématriçage spécifique.

Pour moi, les différences en terme de comportement (couleur, etc) sont traitées via le profil d'entrée dédié à l'appareil : c'est là que sont caractérisées les spécificités.



Sinon, toi qui maitrises bien Excel, pourquoi ne te fais-tu pas un dématriçage pour voir comment tout ça se comporte ?

remico

Citation de: astrophoto le Mars 03, 2019, 18:15:42
je ne comprends toujours pas ce que viennent faire la luminance et la chrominance dans la discussion  ???

1. le capteur a une matrice de Bayer avec des filtres RVB sur ses photosites, le convertisseur A/N sort une valeur par photosite, représentative de l'intensité lumineuse ayant atteint le photosite (et traversé le filtre) : à ce niveau, pas de luminance ni chrominance

2. l'information est stockée telle quelle (ou quasiment) dans le fichier raw, avec les valeurs de tous les photosites R ou V ou B bien rangées à la queue leu leu : à ce niveau, pas de luminance ni chrominance

3. le fichier raw est développé (disons dans PS vis Camera Raw), et stocké en tiff 16 bits (standard, non compressé), avec les valeurs RVB de tous les pixels bien rangées à la queue leu leu : à ce niveau, pas de luminance ni chrominance

4. j'ouvre ce fichier et je le regarde sur mon écran, qui lui-même comporte des "pixels" RVB : à ce niveau, pas de luminance ni chrominance

Je veux bien parler de luminance et de chrominance si j'enregistre l'image en jpeg, mais avant quel sens ça a ?  ???

1/ L'intensité lumineuse est bien la luminance, quand à la teinte elle est induite par la couleur du pixel.
2/ Idem
3/ le raw est développé, et bien justement Dcraw utilise pour ces calculs le mode Lab en 16bits, je ne sais pour quelle raison ni à quel moment intervient la transformation, cela ne m'étonnerait aucunement que les autres logiciels procèdent de la même manière voire même le firmware du boitier.  Pour chaque appareil pris en charge Dcraw a les informations concernant le point noir qui n'est pas obligatoirement à zéro dans le raw, idem pour la valeur maximum de chaque canal indiqué comme saturation ce qui peut porter à confusion, et un profil colorimétrique basique.  En plus de l'interpolation il y a aussi la balance des blancs et l'équilibrage du contraste puis conversion dans l'espace couleur voulu ( sRGB, Adobe RGB ou Prpohoto) en format Tiff rgb 8 ou 16bits.

remico

Citation de: egtegt² le Mars 01, 2019, 00:24:48
Tu pars du principe que la matrice de bayer est parfaite, ce qui est non seulement faux mais en plus ne pourrait pas fonctionner. Un pixel est une combinaison de trois couleurs, mais dans la réalité, il en est tout autrement, il y a une infinité de couleurs définies par leur longueur d'onde, et ça se complique car certaines couleurs sont monochromatique, c'est à dire composées d'une seule longueur d'onde, d'autres sont polychromatiques, donc un mélange de longueurs d'onde différentes. Si cette approximation fonctionne, c'est parce que notre œil fonctionne également avec 3 couleurs.

Donc dans les faits, si je regarde les courbes de filtrage des trois couleurs, il y a un chevauchement. Voici un exemple (au delà de 700 nm environ, on est dans l'infrarouge donc c'est de peu d'utilité en photo généraliste) :


Si je prends l'exemple d'un filtre coloré ne laissant passer qu'une longueur d'onde, dans les faits, elle donnera une valeur non nulle sur tous les photosites. Et heureusement car si ça n'était pas le cas, une photo numérique ne serait pas capable de reproduire toutes les couleurs.

La raison est simple : supposons que j'aie une matrice de Bayer "parfaite", c'est à dire avec des courbes de transmissions de la lumière parfaitement carrées. Ca signifie que deux couleurs de longueur d'onde situées dans la plage du filtre disons rouge et de même intensité seraient captées de façon totalement identique, et donc seraient représentées de façon parfaitement identiques sur la photo résultante. J'aurais un capteur capable de restituer 3 couleurs pures seulement.

Sur la courbe présentée plus haut, on voit bien que la transmission n'est jamais nulle pour aucune fréquence, donc quel que soit la couleur, dès qu'il y a transmission de lumière, elle sera captée par tous les photosites, et pas par un tiers des photosites.

Ces courbes sont connues des fabricants (heureusement, ce sont eux qui les fabriquent :) ), il est donc assez facile de créer des algorithmes qui combinent ces courbes avec les valeurs mesurées pour donner des résultats fiables.

Supposons que j'éclaire mon capteur avec une lumière à 550 nm, donc en plein dans le vert. Mes photosites vont mesurer une valeur égale à un peu moins de 70% de l'intensité émise, mais le rouge et le bleu vont eux aussi mesurer une valeur égale à 6 ou 7 % de l'intensité émise. Si la fréquence était de 500 nm, je capterais une valeur de 60% pour le vert et de 35% pour le bleu, et 5% sur le rouge. C'est la combinaison de ces 3 valeurs qui va me permettre de savoir que je suis à 500 nm et pas à 400 nm qui donnerait le même résultat sur le photosite bleu.

Ce que j'explique est très sommaire car je ne travaille pas dans le domaine et je ne connais pas les algorithmes par coeur, mais il faut bien comprendre qu'on ne peut par résumer ça à une simple combinaison de trois couleurs avec une intensité pour chaque couleur, ça c'est le résultat, pas ce qui est capté.

Dans les faits, comme la transmission est plus faible en dehors de la couleur de filtrage de chaque photosite, la précision est nécessairement moins bonne, ceci combiné au fait qu'il y a bien une part d'incertitude vu que les photosites sont distincts fait qu'on a une perte d'information d'environ 30%. Mais cette perte n'est certainement pas de 2/3 et l'information n'est pas inventée, elle est calculée avec une incertitude. Il suffit de comparer avec le résultat d'une véritable interpolation pour voir que ça n'est pas la même chose.

Les matrices de bayer ne sont pas toutes parfaites et sont même variables d'un appareil à un autre, autrement dit la réponse aux différentes couleurs sera variable d'un appareil à l'autre, compensé en partie par l'application d'un profil.

Comparaison de la réponse du Canon 500D et Nikon D5000 par Dxo :


Et quand bien même les matrice de bayer seraient parfaites je cite : http://www.photo-lovers.org/color.shtml.fr
Nous remarquons à nouveau que dans l'espace RGB-1931, un certain nombre de couleurs ne sont représentables qu'en utilisant des composantes négatives pour certaines des primaires, en particulier dans la zone 420-550nm.



FredEspagne

Citation de: Verso92 le Mars 07, 2019, 11:23:02
Pour moi, les algorithmes de dématriçage sont communs aux différents appareils (avec, peut-être, quelques variantes en fonction du type d'APN, haute def', etc ?).

Ce qui explique, par exemple, que DxO ne veut pas faire l'effort de s'intéresser au X-Trans, qui implique un dématriçage spécifique.

Pour moi, les différences en terme de comportement (couleur, etc) sont traitées via le profil d'entrée dédié à l'appareil : c'est là que sont caractérisées les spécificités.
Sinon, toi qui maitrises bien Excel, pourquoi ne te fais-tu pas un dématriçage pour voir comment tout ça se comporte ?

Non. Les marques ont leurs spécicités. Les photographes louent les tons chairs de Canon, par exemple. Quand on regarde les dérives colorimétriques des APN de différentes marques, on voit qu'aucune n'est neutre et qu'elles privilégient une identité de marque dans toiutes leur gamme d'APN. Ces dérives volontaires plaisent ou déplaisent et sont bien connues. Rappelle toi les discussion de SCSI sur les mauvaise reproductions du rouge de la bannière helvétique, le "marronasse" de Nikon.... Seul Minolta trouvait grace à ses yeux.
35 ans de film et labo argentique , 21 de numérique

Verso92

Citation de: FredEspagne le Mars 07, 2019, 12:22:42
Non. Les marques ont leurs spécicités. Les photographes louent les tons chairs de Canon, par exemple. Quand on regarde les dérives colorimétriques des APN de différentes marques, on voit qu'aucune n'est neutre et qu'elles privilégient une identité de marque dans toiutes leur gamme d'APN. Ces dérives volontaires plaisent ou déplaisent et sont bien connues. Rappelle toi les discussion de SCSI sur les mauvaise reproductions du rouge de la bannière helvétique, le "marronasse" de Nikon.... Seul Minolta trouvait grace à ses yeux.

Quand je parlais des algorithmes communs, j'évoquais les logiciels des éditeurs multi-marques (Adobe, DxO, Phase One, etc).

Jean-Claude

Quand même parlantes les différences de filtrations de la matrice de Bayer chez P1 entre un dos standard et un trichro destiné à la reproduction

https://www.phaseone.com/fr-FR/Photography/Camera-Technology/Trichromatic-Technology

chelmimage

Citation de: Verso92 le Mars 07, 2019, 11:23:02
Sinon, toi qui maitrises bien Excel, pourquoi ne te fais-tu pas un dématriçage pour voir comment tout ça se comporte ?
Tu as toujours le mot pour rire.......... ;D ;D

chelmimage


Verso92

Citation de: chelmimage le Mars 07, 2019, 18:02:28
Tu as toujours le mot pour rire.......... ;D ;D

Pourquoi ça ?


(je m'en suis fait un petit, sur Excel (10 x 10), en bilinéaire, pour voir...)

chelmimage

Citation de: Verso92 le Mars 07, 2019, 18:27:01
Pourquoi ça ?
(je m'en suis fait un petit, sur Excel (10 x 10), en bilinéaire, pour voir...)
Je n'ai jamais réfléchi à ce problème..
J'aime autant mes manips concrètes.
Mais si tu veux faire une démo sur un petit morceau de ma mire pourquoi pas.! ça peut être intéressant..

Franciscus Corvinus

Je reviens un peu tard sur ce fil. Comme l'a dit astrophoto, il n'est pas possible d'évaluer, encore moins de calculer, la luminosité a partir d'un photosite. Le probleme de tous les exemples présentés, c'est que les photosites ne sont pas isolés. Il faut une image de test ou la luminance d'un photosite n'a rien a voir avec celle de ceux qui les entourent. C'est ce que j'ai fait, et le résultat est que la luminosité de l'image dématricée est completement incohérente.

Je passe sous silence le premier essai ou j'ai essayé de photographier des points lumineux bien plus petits qu'un pixel. Mes optiques n'ont pas la qualité nécessaire pour arriver au résultat qu'il fallait. J'ai donc pris une photo completement noire. Puis je suis allé trifouiller dans le NEF pour mettre 4 photosites a la meme valeur (0xABC; je suis sur 12 bits). Les 4 photosites font un carré de 51 photosite de coté, comme ca chacun est sur un filtre différent de la matrice de Bayer, et il ne peut y avoir aucune influence entre eux. J'ai dématricé ce NEF avec Capture NX2 (premiere image) et avec Capture One (deuxieme image), en enlevant toutes les corrections possibles (C1 est en linéaire). J'ai croppé autour du carré et mesuré la luminance du pixel central en Lab, que j'ai notée dans l'image (max=100).

Comme vous pouvez le voir, pour un dématriceur donné, on a des valeurs de luminosité considérablement différentes suivant que j'ai allumé un photosite bleu, rouge ou vert. Mais la comparaison entre deux dématriceurs montre bien que le calcul exact de la luminosité est impossible: ils sont obligé de faire des hypotheses, différentes d'un dématriceur a l'autre. C'est pour cela que les résultats sont différents entre les deux images.

Cela s'explique par le fait que, dans le calcul de la luminosité en Lab donné par Verso92 (qui me convient parfaitement comme définition), la base de la luminosité est calculé avec cette formule:
double Y =  r*0.2126729 + g*0.7151522 + b*0.0721750
Or un photosite ne fournit qu'un des trois valeurs nécessaires. Le dématriceur doit "inventer" les deux autres pour pouvoir faire son calcul. C'est pour cette raison que le canal L n'est pas plus ni moins interpolé que les autres: il est interpolé aux 2/3.

Bien entendu je suis ouvert a toute critique constructive sur le mode opératoire et les conclusions.

Verso92

#324
Citation de: Jean-Claude le Mars 07, 2019, 13:59:39
Quand même parlantes les différences de filtrations de la matrice de Bayer chez P1 entre un dos standard et un trichro destiné à la reproduction

https://www.phaseone.com/fr-FR/Photography/Camera-Technology/Trichromatic-Technology

Ne pas perdre de vue que c'est de la pub, aussi...

Citation de: chelmimage le Mars 07, 2019, 19:55:28
Je n'ai jamais réfléchi à ce problème..
J'aime autant mes manips concrètes.
Mais si tu veux faire une démo sur un petit morceau de ma mire pourquoi pas.! ça peut être intéressant..

C'est très long... et pas forcément très intéressant*, AMHA.

Mais si tu veux faire l'essai, tu me contactes par mel (voir la page d'accueil de ma galerie Piwigo, le globe sous mon avatar) et je t'envoie le fichier Excel...  ;-)


*l'interpolation bilinéaire est trop frustre, je pense (d'après les premiers essais que j'ai pu faire).