Calibrage multi écran avec Spyder

Démarré par elpabar, Février 08, 2016, 11:12:22

« précédent - suivant »

elpabar

J'ai le plaisir d'utiliser un Nec 2190UXi (IPS qui coûtait une fortune) depuis 8 ans (oui je sais c'est beaucoup :D) calibré avec spyder pro 3.
Je suis satisfait de l'ensemble.

Je souhaite m'équiper d'un second écran en complément. Pouvoir avoir plus de confort d'utilisation.

Déjà j'hésite à prendre un deuxième écran de 21/24" maxi en complément, ou virer l'ancien et prendre quelque chose de plus grand.

Mon écran actuel est de format 4/3, que j'affectionne. Mais dans tous les cas, un nouveau grand ou un nouveau + l'ancien, je passe en 16/9 voire plus large, utile maintenant pour les palettes ou tout simplement avoir deux appli simultanément à l'écran. Et 1200 pixels en verticale, c'est encore marginal dans les écrans. Ca dans tous les cas c'est non négociable.

Est-ce qu'en achetant un nouvel écran en conservant l'ancien je pourrais avoir deux étalonnages différents, chaque écran le sien?
Je suis preneur de conseils aussi. Si certains pensent que vu l'âge de mon écran, et donc une ancienne techno qui a forcément énormément évoluée, mieux vaut tout changer? Après reste la question du prix. Un 16/9 ou 21/9 de 27 ou 30" IPS, j'ai pas regardé, mais ça doit chiffrer...

restoc

Tout dépend de ton niveau d'exigences.

Avec une sonde S3 -- tu ne pourras pas calibrer de façon exacte de toute façon deux écrans de technos différentes ( dalles, électronique etc).

Donc déjà ne pas se prendre la tête avec çà . De plus il faut vouloir mettre les mains dans le camboui des profils dans l'OS( lequel au fait ?).

La bonne solution simple et peinarde , un seul bon 24 ou 27 pouces récent ( pas forcément à leds), effectivement IPS. Inutile de viser les écrans à Luts 3D HW si tu n'a pas d'autres exigences que le sRGB et le web.  Eviter les formats 16/9, préférer un 16/10 pour avoir plus de définition sur les photos cadrées verticales.
Faire simple , peinard , efficace.

Les Luts 3D ne se justifient qu'avec des sondes de haut niveau et de mettre toute la chaine en concordance : par ex tout en Adobe98 de l'appareil photo à l'imprimante, en passant par une sonde plus performante .  Et là le curseur à Euros grimpe, grimpe ...

tenmangu81

Citation de: restoc le Février 09, 2016, 11:19:21

Les Luts 3D ne se justifient qu'avec des sondes de haut niveau et de mettre toute la chaine en concordance : par ex tout en Adobe98 de l'appareil photo à l'imprimante, en passant par une sonde plus performante .  Et là le curseur à Euros grimpe, grimpe ...

La pratique recommandée est de ne jamais se limiter par le bas dès le début. Donc photographier en RAW (espace non défini par définition  ;D), travailler ses photos dans l'espace le plus large possible (les espaces de travail des logiciels habituels dépassent très largement l'Adobe RGB 98), et, soit sortir ses photos en jpeg sRGB pour présentation sur une galerie web, soit imprimer avec son profil d'imprimante (qui peut, par endroit, déborder de l'Adobe RGB 98). Qui peut le plus peut le moins !!

olivier1010

Citation de: tenmangu81 le Février 09, 2016, 13:01:35
La pratique recommandée est de ne jamais se limiter par le bas dès le début. Donc photographier en RAW (espace non défini par définition  ;D), travailler ses photos dans l'espace le plus large possible (les espaces de travail des logiciels habituels dépassent très largement l'Adobe RGB 98), et, soit sortir ses photos en jpeg sRGB pour présentation sur une galerie web, soit imprimer avec son profil d'imprimante (qui peut, par endroit, déborder de l'Adobe RGB 98). Qui peut le plus peut le moins !!

Une petite aparté concernant le format RAW.

Je pense qu'il n'est pas exacte de dire que c'est un format dont l'espace couleur n'est pas défini. Certe il n'est pas défini explicitement, mais les caractéristiques du capteur et les conditions de prise de vue définissent un espace couleur implicite, de type tristimuli, qu'on peut d'ailleurs caractériser avec  plus ou moins de bonheur grâce à un profil DNG ou ICC pour chaque condition de prise de vue (sensibilité ISO, type d'éclairage...).
Le seul format de fichier qui permettrait d'avoir un espace couleur non défini est un format spectral, ou chaque pixel serait caractérisé par la définition de son spectre.

C'est difficilement envisageable pour la photo instantanée, mais pourquoi pas à titre expérimental en utilisant un spectro couplé à un appareil de prise de vue de type scanner.

En pratique on utilise un format de fichier de type spectral lorsqu'on réalise des mesures avec un spectrophotomètre. La couleur est alors pratiquement entièrement caractérisée. Pratiquement car il subsiste des paramètres qui ne sont pas pris en compte dans une mesure courante, comme la goniochromie de l'échantillon mesuré, ou ses réactions à un illuminant fortement UV voir fortement infrarouge, ou à la température ambiante (et la direction du vent :) )

Les dernières générations de spectrophotomètres, ou des appareils spécialisés, proposent d'ailleurs de mesurer certains de ces paramètres, car ils peuvent avoir une importance non négligeable, voir capitale, dans la reproduction des couleurs qu'on trouve dans la nature.


restoc

A mon avis notre ami n'en n'est pas à ce niveau de détail, d'autant plus qu'il n'y a aujourd'hui aucune chaîne capable de travailler en spectral d'un bout à l'autre ... et ce  dés le départ avec la matrice de Bayer du capteur! Et pour un bénéfice final probablement assez faible in fine en dehors d'éclairages d'exception capable d'adresser toutes les raies du visible.

Quant à caractériser un capteur moderne avec les mires Gretag ou tartempion très réductrices par rapport à l'extension de l'espace couleur du capteur - en gros on ne profile qu'une petite partie inférieure à srgb - est il encore vraiment pertinent dés qu'on sort de l'espace réduit de la mire ?

D'autant plus qu'à l'heure actuelle aucun logiciel usuel à ma connaissance ne manipule de façon strictement indépendante toutes les composantes: séparation contraste/saturation, luminosité/contraste , exposition / chroma etc.  On sait le faire ... oui mais avec Mathlab !


elpabar

Merci pour ces interventions.

Je travaille uniquement en RAW, et ce quelque soit la finalité de la photo, pour des clients, des expo, mon site ou mon plaisir. Mes boitiers sont toujours par défaut paramétrés en Adobe RGB.
Je n'imprime jamais de photo moi-même. Sans passer par des profils pour autant, je passe par un imprimeur habituel qui me donne une assez bonne satisfaction. Ce n'est certes pas à 100% ce que j'ai moi sur mon écran calibré. Mais même pour mes expo, je suis satisfait du résultat (certes en N&B ça limite l'impact colorimétrique). Quant aux commandes que je peux avoir, je livre très majoritairement des fichiers (DNG, jpeg ou Tiff).

Je suis actuellement sous win 8.1. Je n'ai d'ailleurs pas encore migré sous win 10 pour la bonne est simple raison que mon calibrage disparaît. J'ai fait une fois la migration et plus de calibrage d'écran. J'ai fait un restauration de 8.1, possibilité généreusement offerte par microsoft.
Dans tous les cas je pense que je vais être obligé de prendre la Spyder 5.

Est-ce que celle-ci gère plusieurs profils pour plusieurs écrans?

J'ai vu le Nec multisync EA244WMI. Il semble très honorable, avec un bon rapport qualité prix. Et dans ce cas en complément de mon 21" actuel.
Passer à du 27 ou 30" vise plutôt dans les 800€, au minimum.

elpabar

J'avais regardé rapidement le Nec multisync EA244WMI. Bien. Mais pas topissime pour la photo semble-t-il... J'ai l'avantage de ne pas être pressé. Mais je ne veux pas mettre non plus 3 mois à me décider...

tenmangu81

Citation de: elpabar le Février 09, 2016, 20:27:38

Je travaille uniquement en RAW, et ce quelque soit la finalité de la photo, pour des clients, des expo, mon site ou mon plaisir. Mes boitiers sont toujours par défaut paramétrés en Adobe RGB.


??? Ces deux phrases (en gras) me semblent antinomiques. Pour moi, et avec tous les boitiers que j'ai eus, lorsqu'on shoote en RAW, on ne peut paramétrer en Adobe RGB.

tenmangu81

Citation de: elpabar le Février 09, 2016, 20:27:38

Dans tous les cas je pense que je vais être obligé de prendre la Spyder 5.

Est-ce que celle-ci gère plusieurs profils pour plusieurs écrans?


Une sonde ne gère pas les profils d'écran. Elle permet juste de les créer, et à ce titre on peut faire avec elle autant de profils sur autant d'écrans que l'on veut. C'est juste un appareil de mesure. Après, il y a le logiciel et l'OS derrière.....

MBe

Citation de: tenmangu81 le Février 09, 2016, 21:13:08
??? Ces deux phrases (en gras) me semblent antinomiques. Pour moi, et avec tous les boitiers que j'ai eus, lorsqu'on shoote en RAW, on ne peut paramétrer en Adobe RGB.

Tenmangu81 a tout à fait raison, l'espace couleurs sélectionné dans le menu de l'APN (sRGB ou Adobe RGB) concerne uniquement la production de jpeg, jamais les raws qui sont définis dans l'espace couleurs du capteur de l'APN, cet espace couleurs du capteur (de l' APN) dépasse bien souvent l'espace Prophoto.

olivier1010

Citation de: restoc le Février 09, 2016, 19:53:17
A mon avis notre ami n'en n'est pas à ce niveau de détail, d'autant plus qu'il n'y a aujourd'hui aucune chaîne capable de travailler en spectral d'un bout à l'autre ... et ce  dés le départ avec la matrice de Bayer du capteur! Et pour un bénéfice final probablement assez faible in fine en dehors d'éclairages d'exception capable d'adresser toutes les raies du visible.


Oui on est encore bien loin du spectral, et de toutes façons une matrice de bayer n'est pas suffisante pour faire cela, il faudrait un prisme par photosite, et une rangée de pixels derrière chaque prisme pour obtenir la décomposition spectrale.

La reproduction en spectral n'est pas simple non plus :)

CitationQuant à caractériser un capteur moderne avec les mires Gretag ou tartempion très réductrices par rapport à l'extension de l'espace couleur du capteur - en gros on ne profile qu'une petite partie inférieure à srgb - est il encore vraiment pertinent dés qu'on sort de l'espace réduit de la mire ?


Évidement la caractérisation de la source raw peut être réductrice, mais c'est pourtant ce que fait par exemple Lightroom pour normaliser les raw avec en plus un système de filtrage de la saturation et de la chrominance qui n'est pas forcément transparent en terme de qualité de traitement. D'autres logiciels sont plus performants à ce niveau en permettant un chemin plus direct. Mais on rentre là dans un domaine pointu techniquement qui sort un peu de la photo classique, il peut être intéressant de l'aborder néanmoins lorsque l'on recherche un maximum de qualité et de gamut. Avec comme inconvénient de se retrouver avec des logiciels parfois beaucoup plus complexes à utiliser.

Un tas d'informations ici à ce sujet :

http://ninedegreesbelow.com/photography/articles.html#interpolate-camera-raw-files
Il est vrai que le gamut des mires est assez faible en comparaison du gamut des capteurs, mais il est possible de créer des profiles en matrice qui ne réduisent pas le gamut, même si la mire a un gamut plus petit que celui du capteur. La précision colorimétrique est alors moindre mais en général suffisante pour la photographie courante, et surtout le gamut du capteur ne se trouve pas affecté.

Une remarque également : en ce qui concerne la caractérisation des couleurs très saturées, on  peut se demander si c'est réellement utile de les caractériser avec précision en photographie courante. Les couleurs qui doivent être reproduites fidèlement sont surtout les couleurs de la peau et du ciel, car l'œil est très critique sur ces couleurs étant habitué à les analyser chaque jour. Elles rentrent pour la plupart dans sRGB.

Voir ici pour le gamut des mires :

https://stephenstuff.wordpress.com/2011/09/30/targets-for-camera-profiling/

CitationD'autant plus qu'à l'heure actuelle aucun logiciel usuel à ma connaissance ne manipule de façon strictement indépendante toutes les composantes: séparation contraste/saturation, luminosité/contraste , exposition / chroma etc.  On sait le faire ... oui mais avec Mathlab !

On peut faire des manipulations relativement indépendantes avec les profils d'abstraction ICC. Mais est ce vraiment utile pour la photographie courante ?


MBe

Olivier,

Des calibrations à partir du relevé des données spectrales des capteurs d'APN qui permettent de s'affranchir des mires, de leur gamut et de leur sensibilité spectrale à un illuminant :

https://spectralestimation.wordpress.com/data/

http://www.cvl.iis.u-tokyo.ac.jp/~rei/research/cs/zhao/database.html

ce fil, assez long ( ;)) aborde ce sujet sur Luminous Landscape : http://forum.luminous-landscape.com/index.php?topic=100015.1160
(le site de ninedegreesbelow est vraiment excellent)

elpabar

Citation de: tenmangu81 le Février 09, 2016, 21:13:08
??? Ces deux phrases (en gras) me semblent antinomiques. Pour moi, et avec tous les boitiers que j'ai eus, lorsqu'on shoote en RAW, on ne peut paramétrer en Adobe RGB.
Je précise alors que le RAW chez moi s'entend toujours par RAW+Jpeg. Le jpeg ne servant qu'à prévisualiser. Jamais la base pour traiter un fichier.

elpabar

Citation de: tenmangu81 le Février 09, 2016, 21:16:00
Une sonde ne gère pas les profils d'écran. Elle permet juste de les créer, et à ce titre on peut faire avec elle autant de profils sur autant d'écrans que l'on veut. C'est juste un appareil de mesure. Après, il y a le logiciel et l'OS derrière.....
Moaui j'emploie pas les bons termes. Mais le fonds reste là. Est-ce que je peux calibrer deux écrans différents.
Est-ce que ça dépend de la carte graphique? D'autre chose?

olivier1010

Citation de: elpabar le Février 09, 2016, 23:35:02
Moaui j'emploie pas les bons termes. Mais le fonds reste là. Est-ce que je peux calibrer deux écrans différents.
Est-ce que ça dépend de la carte graphique? D'autre chose?

Dans la pratique la calibration de deux écrans différents ne pose généralement plus de problème avec les systèmes d'exploitation, les logiciels et les cartes vidéo récentes qui savent attribuer un profil et une calibration par écran.

De mémoire a l'époque de Windows XP il y avait encore quelques problèmes, mais globalement à partir de Windows 7 ça marche correctement.

Cela dit il ne faut pas s'attendre à des miracles. Si les écrans sont de technologie différentes, et surtout s'ils sont à calibration software (pas de LUT interne programmable) ou si les dalles sont de technologie différente, il y a aura toujours des différences en terme de colorimétrie entre les deux écrans, par exemple au niveau du point blanc, même si le logiciel de calibration affirme que les points blancs sont proches de la cible, il y a souvent des différences de plusieurs centaines de degrés K visuellement dans la pratique.

Donc tout dépend de votre configuration matérielle, qu'il faudra éventuellement mettre à jour si vous utilisez un système ou une carte vidéo non compatible avec la calibration multi écrans.

Verso92

Citation de: tenmangu81 le Février 09, 2016, 21:13:08
??? Ces deux phrases (en gras) me semblent antinomiques. Pour moi, et avec tous les boitiers que j'ai eus, lorsqu'on shoote en RAW, on ne peut paramétrer en Adobe RGB.

Pas compris... on peut tout à fait paramétrer son boitier en Adobe RVB (espace de développement du Jpeg "boitier", donc), ce qui forcera par défaut le développement du RAW dans ce même espace (cas, par exemple, de Nikon Capture Nx2).
(ce n'est pas forcément le meilleur choix possible, mais c'est une possibilité qui existe)

olivier1010

Citation de: MBe le Février 09, 2016, 23:20:16
Olivier,

Des calibrations à partir du relevé des données spectrales des capteurs d'APN qui permettent de s'affranchir des mires, de leur gamut et de leur sensibilité spectrale à un illuminant :

https://spectralestimation.wordpress.com/data/

http://www.cvl.iis.u-tokyo.ac.jp/~rei/research/cs/zhao/database.html

ce fil, assez long ( ;)) aborde ce sujet sur Luminous Landscape : http://forum.luminous-landscape.com/index.php?topic=100015.1160
(le site de ninedegreesbelow est vraiment excellent)

Ce qui serait un premier pas en avant au niveau colorimétrie, c'est d'avoir un petit spectrophotomètre intégré sur les boitiers photo, qui permettrait de caractériser correctement les conditions d'éclairage, afin d'appliquer la bonne correction pour les JPG, et ce qui permettrait d'inclure les données spectrales des conditions d'éclairage dans le fichier raw.

On obtiendrait alors une colorimétrie correcte quelque soit les conditions d'éclairage, en clair la balance auto fonctionnerait non pas sur des estimations mais grâce à la mesure spectrale de l'éclairage.

Pour l'instant, sans un tel système, on doit photographier une mire pendant la séance de prise de vue pour ajuster ou vérifier la colorimétrie, si l'on a besoin d'une précision importante. Ce qui est assez laborieux.

L'EOS 1 Ds avait un capteur externe pour la balance des blancs, mais c'était un simple colorimètre.

tenmangu81

Citation de: Verso92 le Février 10, 2016, 09:57:47
Pas compris... on peut tout à fait paramétrer son boitier en Adobe RVB (espace de développement du Jpeg "boitier", donc), ce qui forcera par défaut le développement du RAW dans ce même espace (cas, par exemple, de Nikon Capture Nx2).
(ce n'est pas forcément le meilleur choix possible, mais c'est une possibilité qui existe)

Tu veux dire que tu peux choisir, avec Nikon, de paramétrer en Adobe RGB, et de photographier en RAW, et qu'ensuite Nikon Capture Nx2 développe de force le RAW en Adobe RGB ? Hoouuh, le méchant !! Ni chez Canon, ni chez Leica, je n'ai vu ça. J'ai bien fait de ne pas acheter de Nikon  :D (numérique, j'entends, car des boitiers Nikon à pelloche, j'en ai eu des tas).

olivier1010

Citation de: MBe le Février 09, 2016, 23:20:16
Olivier,

Des calibrations à partir du relevé des données spectrales des capteurs d'APN qui permettent de s'affranchir des mires, de leur gamut et de leur sensibilité spectrale à un illuminant :

https://spectralestimation.wordpress.com/data/

http://www.cvl.iis.u-tokyo.ac.jp/~rei/research/cs/zhao/database.html

ce fil, assez long ( ;)) aborde ce sujet sur Luminous Landscape : http://forum.luminous-landscape.com/index.php?topic=100015.1160
(le site de ninedegreesbelow est vraiment excellent)
Cela permet de réaliser des profils d'APN mais pas de caractériser entièrement les couleurs de la scène photographiée. Pour cela il faut absolument connaître le contenu spectral de l'illuminant, qui va influencer le contenu spectral des couleurs de la scène, et aussi connaître le contenu spectral de chaque pixel, ce qui n'est pas possible avec une approximation tristimuli telle que celle réalisée par un capteur RGB.

Il faut bien garder à l'esprit que la capture et la restitution en tristimuli d'une image telle qu'on le fait habituellement avec un APN et une imprimante CMJN, n'est qu'une approximation, plus ou moins joyeuse selon la difficulté de la scène et la performance des périphériques.

On pourra améliorer certainement encore un peu la précision de restitution en tristimuli (gamut plus large, meilleur rapport signal sur bruit, prise en compte du spectre réel de l'illuminant), mais la vrai révolution viendrait d'une chaine capable de capturer et restituer en spectral. Ce serait alors la seconde révolution numérique, la première n'étant qu'une copie quelque peu améliorée de ce qu'on savait déjà faire en argentique.

Verso92

Citation de: tenmangu81 le Février 10, 2016, 11:50:06
Tu veux dire que tu peux choisir, avec Nikon, de paramétrer en Adobe RGB, et de photographier en RAW, et qu'ensuite Nikon Capture Nx2 développe de force le RAW en Adobe RGB ?

Oui, bien sûr.
Mais c'est une conf parmi d'autres : tu peux forcer comme espace couleur celui du boitier, lui donner la priorité par rapport à celui défini dans le logiciel, ou l'inverse. Tu peux choisir comme espace par défaut et obligé ProPhoto, etc...
Citation de: tenmangu81 le Février 10, 2016, 11:50:06
Hoouuh, le méchant !! Ni chez Canon, ni chez Leica, je n'ai vu ça.

Regarde mieux...

elpabar


Samoreen

Citation de: tenmangu81 le Février 10, 2016, 11:50:06
Hoouuh, le méchant !! Ni chez Canon, ni chez Leica, je n'ai vu ça.

Chez Canon, DPP prend en compte dans le développement du RAW les options définies sur l'appareil qui n'affectent normalement que les JPEG. Par exemple, si j'ai réglé l'APN en n&b, le RAW apparaîtra en n&b dans DPP. Mais c'est juste le choix par défaut. Cela a toujours fonctionné comme ça.
Patrick

tenmangu81

Citation de: Verso92 le Février 10, 2016, 18:14:56
Regarde mieux...

Et bien, diable, tu as raison, chez Canon, c'est comme ça aussi : le logiciel fourni avec (DPP) travaille le RAW dans l'espace choisi par défaut à la prise de vue. Je ne l'ai jamais utilisé, et c'est maintenant que je m'en aperçois !! Leica est plus sérieux : si tu choisis RAW, les espaces colorimétriques sRGB ou Adobe sont grisés et ne peuvent être sélectionnés : la seule issue est de les ouvrir avec un logiciel de traitement tiers (Lightroom est fourni avec).

MBe

Citation de: tenmangu81 le Février 10, 2016, 11:50:06
Tu veux dire que tu peux choisir, avec Nikon, de paramétrer en Adobe RGB, et de photographier en RAW, et qu'ensuite Nikon Capture Nx2 développe de force le RAW en Adobe RGB ? Hoouuh, le méchant !! Ni chez Canon, ni chez Leica, je n'ai vu ça. J'ai bien fait de ne pas acheter de Nikon  :D (numérique, j'entends, car des boitiers Nikon à pelloche, j'en ai eu des tas).

Oui par défaut, mais un paramétrage ad hoc par l'utilisateur permet de choisir son espace colorimètrique  ;)


MBe

Citation de: olivier1010 le Février 10, 2016, 12:51:47

Cela permet de réaliser des profils d'APN mais pas de caractériser entièrement les couleurs de la scène photographiée. Pour cela il faut absolument connaître le contenu spectral de l'illuminant, qui va influencer le contenu spectral des couleurs de la scène, et aussi connaître le contenu spectral de chaque pixel, ce qui n'est pas possible avec une approximation tristimuli telle que celle réalisée par un capteur RGB.

Cela permet de réaliser des profils en s'affranchissant, en partie seulement, de la mire et de ses patchs, de l'illuminant et de la prise de vue. Les constructeurs (d'APN et/ou de logiciel de développement) communiquent peu sur le sujet, mais je soupçonne qu'ils utilisent cette technique.
Après en effet pour chaque photo, une analyse de l'illuminant et de la réflectance spectrale de la scène serait une information qui permettrait une amélioration qualitative. Néanmoins, comme la vision humaine n'est pas un spectromètre, le système actuel donne une perception visuelle qui s'accorde bien avec notre vision.

Citation de: olivier1010 le Février 10, 2016, 12:51:47
Il faut bien garder à l'esprit que la capture et la restitution en tristimuli d'une image telle qu'on le fait habituellement avec un APN et une imprimante CMJN, n'est qu'une approximation, plus ou moins joyeuse selon la difficulté de la scène et la performance des périphériques.

On pourra améliorer certainement encore un peu la précision de restitution en tristimuli (gamut plus large, meilleur rapport signal sur bruit, prise en compte du spectre réel de l'illuminant), mais la vrai révolution viendrait d'une chaine capable de capturer et restituer en spectral. Ce serait alors la seconde révolution numérique, la première n'étant qu'une copie quelque peu améliorée de ce qu'on savait déjà faire en argentique.


Pour moi, le vrai progrès serait dans un premier temps de s'affranchir de la matrice de Bayer.

Verso92

Citation de: MBe le Février 10, 2016, 19:27:02
Pour moi, le vrai progrès serait dans un premier temps de s'affranchir de la matrice de Bayer.

Certains APN s'en affranchissent...

restoc

Citation de: MBe le Février 10, 2016, 19:27:02
Cela permet de réaliser des profils en s'affranchissant, en partie seulement, de la mire et de ses patchs, de l'illuminant et de la prise de vue. Les constructeurs (d'APN et/ou de logiciel de développement) communiquent peu sur le sujet, mais je soupçonne qu'ils utilisent cette technique.
Après en effet pour chaque photo, une analyse de l'illuminant et de la réflectance spectrale de la scène serait une information qui permettrait une amélioration qualitative. Néanmoins, comme la vision humaine n'est pas un spectromètre, le système actuel donne une perception visuelle qui s'accorde bien avec notre vision.

Pour moi, le vrai progrès serait dans un premier temps de s'affranchir de la matrice de Bayer.

Le mieux est parfois l'ennemi du bien :
64 puis
dans les années 80 nous avions testé des scanner multispectraux à 256 bandes (!) pour embarquer dans les satellites: résultat outre les paquets de bandes CCT que même le plus gros ordinateur d'Europe n'arrivait pas à ingérer en moins d'une semaine , on a pu démontrer par des analyses statistiques lourdes que finalement toute l'information ( en terme de paysages à la surface de la terre ( pôles, désert, tropiques, océeans) était contenue à 97 % avec 5 ou 6 bandes spectrales seulement. Le reste étant bp de redondance ou de bruit.

Bon il est vrai qu'il y a un filtre (atmosphère) qui annule pratiquement certaines bandes vu d'en haut.

Le pb du spectral c'est qu'il faut une puissance de calcul énorme : on ne voit pas bien exporter des raws à 12 bandes de 14 bits. Les constructeurs choisiraient probablement de réduire à bord de l'appareil le volume de data, par des analyses en composantes principales par ex, pour n'exporter dans le raw que l'info utile et pas le bruit de certaines bandes. ... Et on voit mal un Lightroom ou autre avec 6 fois plus de curseurs , sans parler de rawtherappe !

A mon avis Bayer et ses variantes a encore de beaux jours, çà ne marche pas si mal.

olivier1010

Citation de: MBe le Février 10, 2016, 19:27:02
Cela permet de réaliser des profils en s'affranchissant, en partie seulement, de la mire et de ses patchs, de l'illuminant et de la prise de vue. Les constructeurs (d'APN et/ou de logiciel de développement) communiquent peu sur le sujet, mais je soupçonne qu'ils utilisent cette technique.
Après en effet pour chaque photo, une analyse de l'illuminant et de la réflectance spectrale de la scène serait une information qui permettrait une amélioration qualitative. Néanmoins, comme la vision humaine n'est pas un spectromètre, le système actuel donne une perception visuelle qui s'accorde bien avec notre vision.

Pour moi, le vrai progrès serait dans un premier temps de s'affranchir de la matrice de Bayer.


Il est très vrai que la vision humaine repose sur un système d'analyse tristimuli, mais la capture et la reproduction en trois canaux a le fâcheux défaut de ne pas reproduire les caractéristiques spectrales des couleurs, mais simplement une approximation qui n'est valable que pour un illuminant donné, et un observateur standard.

Ce qui veut dire que si l'illuminant change à la reproduction, la couleur pourra apparaître différemment.

Dans le sens contraire, deux couleurs qui paraissent identiques à la prise de vue pourront être différente à la reproduction ou vice versa, selon les conditions d'éclairage. C'est le métamérisme, dont la cause s'explique par la nature spectrale de la couleur, et non pas tristimuli.

Certains logiciels d'analyse de la couleur, comme CT&A de Babelcolor, permettent d'ailleurs d'analyser le comportement des couleurs en fonction du changement d'illuminant. Certaines couleurs sont plus sensibles que d'autres selon leur composition spectrale. On peut même obtenir un indice de métamérisme, qui pourra être utile dans le choix d'une couleur par exemple dans le domaine du textile ou de la décoration.

Ne parlons pas non plus de la fluorescence, qui n'est absolument pas prise en charge par un système tristimuli. Même si évidemment il est possible d'imprimer à postériori avec une encre fluo en ton direct, cela reste une intervention totalement manuelle dans le traitement d'une image.

Donc même si le spectral est loin d'être implémenté en prise de vue, et même s'il n'est absolument pas nécessaire pour la photographie courante, il y a des domaines dans la mesure des couleurs et la fabrication des encres ou on l'utilise depuis longtemps et ou le tristimuli ne serait pas un outil satisfaisant.

En conclusion, même si l'œil fonctionne en tristimuli, la chaine des couleurs est spectrale, même si on la réduit à trois canaux pour sa capture, son traitement et sa reproduction. Ce qui induit des approximations colorimétriques, plus ou moins gênantes selon les illuminants source et destination, selon les scènes, selon les observateurs et selon les performances des périphériques qui entrent en jeux dans la reproduction des couleurs.

Le spectral permet de s'affranchir d'une grande partie de ces approximations, et de simplifier même au final la reproduction colorimétrique dans l'absolu, en supprimant la complexité mathématique induite par le tristimuli. Je veux dire par là qu'une couleur capturée en spectral, qui pourrait être reproduite en spectral, n'a besoin d'aucun traitement, contrairement à une couleur capturée et reproduite en tristimuli, qui nécessite un traitement complexe tout au long de la chaine avec la prise en charge par un système de gestion des couleurs en tristimuli comme ICC.

En spectral, une simple calibration de la sensibilité des bandes, à la capture et à la reproduction, suffit pour reproduire les couleurs avec exactitude quelque soient les illuminants source et destination.


tenmangu81

Citation de: MBe le Février 10, 2016, 19:11:54
Oui par défaut, mais un paramétrage ad hoc par l'utilisateur permet de choisir son espace colorimètrique  ;)

Avec le logiciel DPP de Canon (celui que j'ai encore, et qui date de quelques années maintenant), Prophoto n'est même pas accessible : l'espace le plus large est "Gamme de couleurs RVB" (?) qui est sensiblement plus large qu'Adobe RGB 98, mais plus petit que Prophoto....

olivier1010

Citation de: tenmangu81 le Février 10, 2016, 23:53:43
Avec le logiciel DPP de Canon (celui que j'ai encore, et qui date de quelques années maintenant), Prophoto n'est même pas accessible : l'espace le plus large est "Gamme de couleurs RVB" (?) qui est sensiblement plus large qu'Adobe RGB 98, mais plus petit que Prophoto....

Une remarque : même lorsque des espaces plus grands que Prophoto sont accessibles, cela ne veut pas dire que cela sera utile. Par exemple les profils d'APN DCP utilisent en interne un espace Prophoto, ce qui limite donc à Prophoto le gamut des fichiers qui passent à travers cette moulinette. Pour Lightroom ce n'est pas gênant puisqu'il utilise aussi en interne Prophoto et ne pourra donc jamais le dépasser, mais pour tirer tout le gamut d'un capteur, pour des travaux de reproduction par exemple, il peut être nécessaire d'utiliser un profil source ICC, plutôt qu'un DCP. Ce qui d'office empêche l'utilisation de Lightroom pour le développement.

Les profils DCP Adobe offrent certains avantages (comme le 32 bits float qui n'était pas disponible à l'époque en ICC v2), mais rien de vraiment révolutionnaire par rapport à ICC v4, qui est plus souple, mais malheureusement manque de standardisation en ce qui concerne les profils source. Il eut été certainement préférable qu'Adobe dépense l'énergie nécessaire à la création de DCP pour la standardisation des profils sources ICC.

tenmangu81

Merci Olivier pour ces précisions, qui me renforcent dans l'idée qu'il est préférable d'utiliser des profils ICC en entrée (comme le fait Capture One) plutôt que des dcp.