Antinomie entre dynamique des capteurs et restitution en sRVB ?

Démarré par chelmimage, Février 13, 2019, 20:40:27

« précédent - suivant »

Nikojorj

Oui c'est carrément lourd, mais c'est justement un nouvel algo de dématriçage avec de l'IA (machine learning) derrière, qui est justement là pour ce genre de cas tordu... et il parait même que ça marche bien sur les étoiles de Siemens. ;D

ChatOuille

Citation de: chelmimage le Mars 05, 2019, 16:35:32
pourquoi faire simple quand on peut faire compliqué!!

Pour moi deux choses sont claires :
1) L'œil est plus sensible à la luminance qu'à la chrominance. Il percevra plus facilement une légère différence de luminosité plutôt qu'une légère variation de tonalité.
2) Le canal Luminance n'existe pas à la source, mais il est extrait des canaux R, V et B, pondérés évidemment selon l'espace utilisé.

Verso92

Ce midi, pendant la pause déjeuner, au club, j'ai fait joujou avec IRIS.

Je n'avais sous la main que des NEF de D800E, mais ça fonctionne !

Voici donc, pour illustration, la photo entière réduite :

Verso92

#278
Ensuite, j'ai converti l'image en N&B pour pouvoir la comparer plus facilement avec celle qui sort de IRIS.

J'ai juste "égalisé" luminosité/contraste pour rendre la comparaison plus facile.


A gauche, IRIS, à droite la photo développée.

J'ai choisi une visualisation à 300% pour qu'on puisse continuer à voir l'image d'un point de vue photographique, tout en distinguant les pixels (et la matrice de Bayer à gauche).

chelmimage

De mon côté, j'ai fini ma manip.
J'ai affiché ma mire dans des tailles croissantes Pour chaque taille, j'ai fait une photo.
J'ai isolé une petite partie de chaque photo. Là où on peut visualiser assez facilement des différences de couleur.
Et j'ai mis en copie d'écran  les 4 tailles côte à côte
Bien qu'en jpg et loin de la qualité max, ça rend assez fidèlement les résultats! ::)
Si, par  exemple, on observe le motif bleu sur le fond orange. Au départ, à gauche, il est plutôt lilas et au fur et à mesure que la mire augmente de dimension le motif se rapproche progressivement du bleu d'origine.
Sur une grande partie de la mire, il se passe ce phénomène. Dans les détails fins, les couleurs ne sont pas immédiatement restituées.(dématriçage!!)
Le orange déteint beaucoup.... :D

jenga

Citation de: Verso92 le Mars 03, 2019, 20:11:02

Et puis, de toute façon, Photoshop (par exemple) donne les valeurs dans les différents référentiels :


Ta copie d'écran montre les espaces RVB, Lab et TSL, mais pas LCH. Photoshop ne propose pas cet espace?

Verso92

#281
Citation de: jenga le Mars 05, 2019, 21:37:51
Ta copie d'écran montre les espaces RVB, Lab et TSL, mais pas LCH. Photoshop ne propose pas cet espace?

Il ne s'agit pas d'espace à proprement parler, mais de codage (système de coordonnées).


Là, il s'agit d'une copie d'écran de l'antique CS2, que j'utilise sur mon boot "internet". Côté "privé" (déconnecté d'internet, donc), j'utilise CS6.

Je ne sais pas si CS6 propose ce genre de coordonnées*, que je ne connaissais pas (j'utilise uniquement RVB et Lab, pour ma part)...


*je peux faire une copie d'écran avec CS6, si ça t'intéresse.

Jean-Claude

Citation de: jenga le Mars 05, 2019, 21:37:51
Ta copie d'écran montre les espaces RVB, Lab et TSL, mais pas LCH. Photoshop ne propose pas cet espace?
Ceci n'a Strictement rien à voir avec un espace couleur, il s'agit des composantes pour caractériser un pixel.

Un espace couleur est l'ensemble normalisé de couleurs que l'on s'autorise dans un fichier

Un gamut est l'ensemble des couleurs vues ou reproduites par un "équipement"

Un profil couleur est la relation entre un gamut et un espace ou inversement, (le profil d'un espace étant la relation entre le gamut de l'oeil normalisé par ex. CIE 1931 et un espace normalisé)

Verso92

Pour compléter la manip du post #278, voici les quatre couches de l'image IRIS "splittées".

On a donc quatre images de 9 MPixels (matrice Bayer 2x2) désentrelacées.


(comme précédemment, luminosité & contraste égalisés pour une lecture plus facile)

chelmimage

Et juste pour vérifier que la teinte lilas correspond bien au mélange du orange et du bleu, mais on s'en serait peut être douté..! :D

jenga

Citation de: Jean-Claude le Mars 06, 2019, 06:53:26
Ceci n'a Strictement rien à voir avec un espace couleur, il s'agit des composantes pour caractériser un pixel.
C'est le terme couramment utilisé.
https://en.wikipedia.org/wiki/TSL_color_space
https://en.wikipedia.org/wiki/HCL_color_space

jenga

Citation de: Verso92 le Mars 05, 2019, 21:56:03
Là, il s'agit d'une copie d'écran de l'antique CS2, que j'utilise sur mon boot "internet". Côté "privé" (déconnecté d'internet, donc), j'utilise CS6.

Je ne sais pas si CS6 propose ce genre de coordonnées*, que je ne connaissais pas (j'utilise uniquement RVB et Lab, pour ma part)...
D'accord, merci.
J'en étais également resté à une antique version de Photoshop, qui ne propose pas non plus l'espace couleur (  :) ) HCL. Je me demandais juste si les versions actuelles l'intègrent.

C'est de très loin celui que je préfère pour travailler sur les couleurs, parce que ses trois composantes (luminance, teinte, chroma) correspondent bien à la perception visuelle. On peut ainsi, par exemple, modifier la luminance sans altérer la couleur perçue (teinte et surtout chroma), ce qui est à peu près impossible en TSL.
Ça se paye par des calculs beaucoup plus lourds, mais ça en vaut la peine.

chelmimage

Citation de: Verso92 le Mars 06, 2019, 07:36:11
Pour compléter la manip du post #278, voici les quatre couches de l'image IRIS "splittées".

On a donc quatre images de 9 MPixels (matrice Bayer 2x2) désentrelacées.
Si on revient à l'origine de ta manip, que peut on, ou doit on, faire avec ces 4 fichiers?

Verso92

Citation de: chelmimage le Mars 06, 2019, 08:39:03
Si on revient à l'origine de ta manip, que peut on, ou doit on, faire avec ces 4 fichiers?

Rien de particulier (IRIS est un logiciel dédié à l'astrophotographie, et c'est de ce côté là qu'il faut chercher, j'imagine, l'intérêt de la manip).


Sur l'axe qui nous intéresse, ces quatre fichiers, si on les compare deux à deux, sont décalés spatialement d'un pixel par rapport à l'autre, soit verticalement, soit horizontalement.

On voit dans certain cas que des détails proches d'un pixel de large (les lignes sombres du bâtiment) apparaissent nettement sur une couche et disparaissent quasiment sur d'autres.


astrophoto

#289
Citation de: Verso92 le Mars 06, 2019, 08:48:21
Rien de particulier (IRIS est un logiciel dédié à l'astrophotographie, et c'est de ce côté là qu'il faut chercher, j'imagine, l'intérêt de la manip).

il nous arrive d'utiliser des filtres monochromatiques (une seule longueur d'onde), pour isoler la lumière venant de nébuleuses émettant elles-mêmes de la lumière sous forme de raies. La raie la plus courante est Ha (ou hydrogène alpha), dans le rouge profond, qu'émettent plein de nébuleuses (par exemple la célèbre nébuleuse d'Orion). Pour cette raie on apprécie soit les capteurs monochromes, soit les APN dont le filtre anti-infrarouge a été retiré ou modifié (cas des Canon 60Da et Nikon D810A) car les filtres anti-infrarouge déposés sur les capteurs d'APN ont la fâcheuse propriété d'absorber énormément cette raie.

Bref, quand on met un filtre Halpha devant un APN, ça ne laisse passer que cette raie. Ca rejette toutes les autres longueurs d'onde, ce qui éteint la pollution lumineuse, on peut donc faire ce genre d'image en ville ou en présence de Lune (c'est tout l'intérêt de ces filtres). Mais au final, seuls les photosites rouges ont reçu de la lumière, les verts et les bleus sont complètement noirs. D'où l'intérêt de ne retenir que la composante rouge (donc 1/4 des photosites).

Citation de: Verso92 le Mars 06, 2019, 08:48:21
On voit dans certain cas que des détails proches d'un pixel de large (les lignes sombres du bâtiment) apparaissent nettement sur une couche et disparaissent quasiment sur d'autres.

ce qui me semble logique : un détail qui tombe sur 1 photosite (quelle que soit sa couleur) va se retrouver sur 1 pixel d'une des 4 composantes. Par contre je ne vois pas bien ce qu'on peut en déduire  ???
Thierry Legault
astrophoto.fr

Verso92

Citation de: astrophoto le Mars 06, 2019, 09:19:42
ce qui me semble logique : un détail qui tombe sur 1 photosite (quelle que soit sa couleur) va se retrouver sur 1 pixel d'une des 4 composantes. Par contre je ne vois pas bien ce qu'on peut en déduire  ???

C'était la question : un D8x0 (par exemple) délivre-t-il 36 MPixels (à la louche) en luminance ?

astrophoto

Citation de: Verso92 le Mars 06, 2019, 10:16:49
C'était la question : un D8x0 (par exemple) délivre-t-il 36 MPixels (à la louche) en luminance ?

ça y est, la luminance qui était sortie par la porte revient par la fenêtre !  :D

Un APN ne délivre aucune information de luminance, il ne délivre que des informations RVB. Après, tu peux fabriquer une luminance à partir de ces informations RVB, avec les algos de calcul (y compris dématriçage) que tu veux. De toute façon, une luminance ne peut pas être déduite d'un seul photosite.

Pour moi c'est comme demander "combien d'omelettes délivre une poule ?". Aucune : une poule ne délivre que des oeufs, après tu fais ton omelette avec la recette que tu veux et le nombre d'oeufs que tu veux  :D (bon, j'en connais que vont dire qu'ils connaissent des "poules" qui font des omelettes, mais c'est un autre sujet !  ::))
Thierry Legault
astrophoto.fr

Verso92

Citation de: astrophoto le Mars 06, 2019, 10:26:52
ça y est, la luminance qui était sortie par la porte revient par la fenêtre !  :D

Un APN ne délivre aucune information de luminance, il ne délivre que des informations RVB. Après, tu peux fabriquer une luminance à partir de ces informations RVB, avec les algos de calcul (y compris dématriçage) que tu veux. De toute façon, une luminance ne peut pas être déduite d'un seul photosite.

Pour moi c'est comme demander "combien d'omelettes délivre une poule ?". Aucune : une poule ne délivre que des oeufs, après tu fais ton omelette avec la recette que tu veux et le nombre d'oeufs que tu veux  :D

Tu confonds format de stockage et information.

astrophoto

Citation de: Verso92 le Mars 06, 2019, 10:31:21
Tu confonds format de stockage et information.

Une "information" qui n'est pas stockée est purement virtuelle, quelque chose qui existera peut-être un jour et dont on saura à ce moment à quoi elle ressemble. Je croyais qu'on parlait d'images faites dans le monde réel  :D

Commençons par être clair : définis-moi précisément ta notion de "luminance" et comment tu la déduis des information RVB  :D
Thierry Legault
astrophoto.fr

egtegt²

En fait, c'est un peu l'inverse me semble-t-il : un capteur ne délivre que des informations de luminance. La matrice de bayer permet d'en déduire des composantes RVB.

Verso92

Citation de: astrophoto le Mars 06, 2019, 10:36:36
Une "information" qui n'est pas stockée est purement virtuelle, quelque chose qui existera peut-être un jour et dont on saura à ce moment à quoi elle ressemble. Je croyais qu'on parlait d'images faites dans le monde réel  :D

Commençons par être clair : définis-moi précisément ta notion de "luminance" et comment tu la déduis des information RVB  :D

En Java ?

;-)   

// convert sRGB (R,G,B) to linear-rgb (r,g,b)
double r = (R <= 0.04045) ? R/12.92 : Math.pow((R+0.055)/1.055,2.4);
double g = (G <= 0.04045) ? G/12.92 : Math.pow((G+0.055)/1.055,2.4);
double b = (B <= 0.04045) ? B/12.92 : Math.pow((B+0.055)/1.055,2.4);

// convert to XYZ (assuming sRGB was D65)
double X =  r*0.4124564 + g*0.3575761 + b*0.1804375;
double Y =  r*0.2126729 + g*0.7151522 + b*0.0721750;
double Z =  r*0.0193339 + g*0.1191920 + b*0.9503041;

// Rescale X/Y/Z relative to white point D65
double Xr = 0.95047, Yr = 1.0, Zr = 1.08883;
double xr = X/Xr;
double yr = Y/Yr;
double zr = Z/Zr;

// tristimulus function
double eps = 216/24389.0, k = 24389/27.0;
double fx = (xr <= eps) ? (k * xr + 16.0)/ 116.0 : Math.pow(xr, 1/3.0);
double fy = (yr <= eps) ? (k * yr + 16.0)/ 116.0 : Math.pow(yr, 1/3.0);
double fz = (zr <= eps) ? (k * zr + 16.0)/ 116.0 : Math.pow(zr, 1/3.0);

// tranform to LAB 
double LAB_L = ( 116 * fy ) - 16;
double LAB_a = 500*(fx-fy);
double LAB_b = 200*(fy-fz);


https://www.developpez.net/forums/d1193521/general-developpement/algorithme-mathematiques/traitement-d-images/conversion-rgb-vers-cie-lab-couleurs/

chelmimage

Citation de: egtegt² le Mars 06, 2019, 11:13:45
un capteur ne délivre que des informations de luminance..
Oui mais, au fond de chaque puits,  la luminance d'un pixel filtré, ou rouge, ou vert, ou bleu..

Verso92

Citation de: chelmimage le Mars 06, 2019, 12:46:24
Oui mais, au fond de chaque puits,  la luminance d'un pixel filtré, ou rouge, ou vert, ou bleu..

Toutafé.

astrophoto

Citation de: chelmimage le Mars 06, 2019, 12:46:24
Oui mais, au fond de chaque puits,  la luminance d'un pixel filtré, ou rouge, ou vert, ou bleu..

...et c'est là qu'on voit que tout le monde n'a pas la même définition de la luminance  ;)
Thierry Legault
astrophoto.fr

astrophoto

Citation de: Verso92 le Mars 06, 2019, 11:20:34
En Java ?

je préférerais une formule intelligible, plutôt que de devoir faire du retro-enginnering  :D
Thierry Legault
astrophoto.fr