La gestion des couleurs: quel choix sRGB, Adobe Prophoto ?

Démarré par Pat20d, Mars 03, 2015, 11:17:32

« précédent - suivant »

Pat20d

Quelques questions à ce sujet:
Quel périphérique "image" est capable d'afficher complètement l'ensemble des couleurs contenues dans les espaces de travail usuels.

A ce que j'ai pu lire et en résumant
sRGB quasiment tous les écrans et quelques imprimantes
Adobe: Les écrans typés retouche photo couvrent 99% de l'espace Adobe, je ne connais pas d'écran qui dépasse cet espace couleur, et vous ?
            Les imprimantes jet d'encre les plus performantes peinent à couvrir l'ensemble des couleurs de Adobe. Les bleus et vert dépasse légèrement mais les violets / verts ne sont pas reproduits

Prophoto: je ne connais aucun écran ni aucune imprimante jet d'encre capable d'afficher / d'imprimer l'ensemble des couleurs de cet espace.

D'où ma question: Utiliser l'espace Prophoto est un pari sur l'avenir en espérant qu'un jour les écrans et imprimante pourront afficher les couleurs invisibles aujourd'hui ou bien est ce une "satisfaction intellectuelle" ?

Autrement dit: quel est l'intérêt, en tout cas aujourd'hui, d'utiliser cet espace si aucun périphérique n'est capable d'afficher les quelques couleurs captées en dehors du gammut Adobe ?
Sachant de plus que si les périphériques progressent, à partir du RAW on pourra alors dématricer une image dans l'espace souhaité.

Merci pour vos avis  :)
Patrick

P!erre

C'est aussi fonction de la finalité des photos. Pour le net, affichage sur écran dans une boîte de nuit ou pour des défilés de mode, tirage papier sans grande ambition, livre, livre d'art, etc. ne demandent pas la même réflexion sur les couleurs. C'est aussi fonction des sujets, certaines fleurs posent plus de complications que des portraits, les couleurs fluo sont impossibles à reproduire en offset quadri, etc. Le calibrage aux petits oignons haut de gamme prend du temps... est-il nécessaire ?

En audio, les ingénieurs se sont pris la tête avec des définitions monumentales pour avoir un son de très haute qualité; au final on en fait si souvent du mp3 dégradé...

Stocke tes raws....  :D
Au bon endroit, au bon moment.

Samoreen

Bonjour,

Citation de: Pat20d le Mars 03, 2015, 11:17:32
Prophoto: je ne connais aucun écran ni aucune imprimante jet d'encre capable d'afficher / d'imprimer l'ensemble des couleurs de cet espace.

C'est exact mais ce n'est pas une bonne raison :) pour ne pas l'utiliser. C'est le même raisonnement qu'entre 8-bit et 16-bit. Même si l'image est au final sortie sur une imprimante personnelle qui ne comprend que le 8-bit en sRGB, il faut bien intégrer l'idée que pendant toute la durée de son post-traitement, cette image est l'objet d'un grand nombre de calculs. Plus on réduit la précision des calculs en se limitant au 8-bit et en limitant l'espace couleur utilisé, plus on favorise l'apparition de défauts et d'artefacts dus aux "arrondis". Il faut donc travailler avec la plus grande précision possible le plus longtemps possible. C'est de la pure logique mathématique. Même si au moment de l'impression on procède à une conversion dans un espace numérique moins précis, ce ne sera pas la même chose que de travailler dès le début dans cet espace réduit.

Par ailleurs, si on fait réaliser le tirage par un service professionnel, les possibilités des machines utilisées dépasseront souvent très largement celles d'une imprimante personnelle. On sera alors bien content de disposer d'un fichier image qui pourra être exploité au maximum de ses capacités.

Travailler en 16-bit / Prophoto n'engage à rien. Qui peut le plus, peut le moins mais le contraire n'est pas vrai.
Patrick

P!erre

Citation de: Samoreen le Mars 03, 2015, 12:10:38
Travailler en 16-bit / Prophoto n'engage à rien. Qui peut le plus, peut le moins mais le contraire n'est pas vrai.

Dis moi, traites-tu toutes tes photos en 16-bit / Prophoto ?
Au bon endroit, au bon moment.

Pat20d

Stocker mes RAW, je fais ça depuis très longtemps.

Travailler en 16 bits et choisir un espace ou un autre n' ont pour moi pas de relation directe.
Oui je traite mes photos destinées à l'impression actuellement en Adobe et 16 bits (imprimées sur EPSON 3880)

Mais je ne comprend toujours pas l'intérêt de choisir Prophoto puisque je ne verrai pas (tant que ne change pas d'écran / d'imprimante) les couleurs au dela du gammut Adobe. Ce qui ne m' empêchera pas de les dématricer dans cet espace si un jour je peux les visualiser.
Patrick

Samoreen

Patrick

Samoreen

Citation de: Pat20d le Mars 03, 2015, 12:20:22
Mais je ne comprend toujours pas l'intérêt de choisir Prophoto puisque je ne verrai pas (tant que ne change pas d'écran / d'imprimante) les couleurs au dela du gammut Adobe.

C'est que vous n'avez pas bien lu mon post  ;D .

C'est purement une question mathématique. Supposons un ingénieur qui doit calculer un pont et à qui on indique qu'il ne peut utiliser que des valeurs arrondies au centimètre. Une fois les calculs terminés, même si l'ajustement final se fait avec une marge d'erreur de l'ordre du centimètre ou plus, l'ensemble des arrondis successifs effectués pendant les calculs pourra aboutir à une approximation finale supérieure à la marge d'erreur acceptable. Cet ingénieur va donc effectuer ses calculs avec un maximum de précision (disons au millimètre voire moins) et un seul arrondi final aura lieu au moment de la mise en place afin de limiter l'erreur globale. Dire que l'on n'a pas besoin d'une précision millimétrique dans les calculs serait une mauvaise idée (je dis ça, je n'ai jamais construit de pont, c'est un exemple). Même si la marge d'erreur consentie au final est de l'ordre du centimètre ou plus. Ce n'est pas le problème. Si on effectue la totalité des calculs avec une précision moindre, les erreurs et approximations s'accumulent. Il vaut mieux faire une seule approximation finale que cumuler des approximations à chacune des nombreuses étapes du processus.

Et quand vous dites que vous ne verrez pas la différence sur le résultat final affiché sur un écran ou sorti sur une imprimante personnelle, ce n'est pas nécessairement vrai. Le cumul des approximations sur les nuances de couleur peut aboutir à la génération d'artefacts comme des aplats qui seront visibles dans certains cas quel que soit le support de sortie choisi. On les verra ou non selon l'expérience de l'observateur.

Et je répète que travailler avec une précision moindre dès le départ peut provoquer des déceptions lors de la soumission de cette image à un dispositif de sortie plus évolué. Il est plus facile, plus sage et plus efficace de partir d'une image calculée avec le maximum de précision et de la dégrader dans la phase finale en la sortant sur un périphérique de moindres performances que de faire le contraire. C'est de la pure logique.
Patrick

Samoreen

Citation de: P!erre le Mars 03, 2015, 11:41:54
Stocke tes raws....  :D

Ce qui implique de reprendre le traitement à zéro quand on n'est pas satisfait de la qualité du fichier lors de la sortie sur un périphérique performant. Tous les traitements appliqués ne sont pas paramétriques comme dans Camera RAW ou Lightroom.
Patrick

P!erre


Ce sont toujours des choix. Tout est question de pourcentage d'images où le besoin de haute précision colorimétrique se fait sentir. Une image de 24 Mpix en 16 bit prend 69 Mo quand une image en 16 bit prend 137 Mo.

On peut encore limiter la marge d'erreur des calculs en optant pour du 32 bit : 275 Mo. Et même près de 600 Mo avec les nouveaux 50 Mpix. Un fichier aplati, s'entend... Avec 15 calques, heu...

Un jour peut-être, le fichier doit être converti en CMJN ! ....  :P

On en revient à ce que je disais tout à l'heure pour l'audio. Des studios amateur se prennent la tête pour enregistrer de la musique en 24 bits 192 kHz, ce qui entraîne un nombre de données considérables (en 24 pistes ou davantage), alors que la source n'est souvent pas de qualité (sur échantillonner un synthé 16 bits / 44 kHz en 24 bits / 192 kHz ne présente aucun intérêt).

Je n'exprime pas qu'une qualité plus élevée est toujours inutile, bien entendu. Je dis qu'il importe de savoir ce que l'on fait et pourquoi on le fait. Pendant que l'on consacre du temps à couper les pixels en quatre, on ne fait pas de photo.  :D

J'avais cherché vainement un programme qui permette de comparer les différences entre deux images. Ça m'intéresserait d'observer les différences entre un fichier traité en 8 bits et le même traité en 16 bits et de pouvoir visualiser concrètement les différences.
Au bon endroit, au bon moment.

P!erre

Citation de: Samoreen le Mars 03, 2015, 13:49:16
Ce qui implique de reprendre le traitement à zéro quand on n'est pas satisfait de la qualité du fichier lors de la sortie sur un périphérique performant. Tous les traitements appliqués ne sont pas paramétriques comme dans Camera RAW ou Lightroom.

En général, quand on a à faire avec des périph performants, on en a l'expérience et on sait ce qu'on doit faire pour avoir l'image qui convient.

Ensuite, la super-image bien calibrée est vue sous quel éclairage ? Deux ou trois spots halogènes ?  :D
Au bon endroit, au bon moment.

P!erre

Citation de: Samoreen le Mars 03, 2015, 13:43:07
Et quand vous dites que vous ne verrez pas la différence sur le résultat final affiché sur un écran ou sorti sur une imprimante personnelle, ce n'est pas nécessairement vrai. Le cumul des approximations sur les nuances de couleur peut aboutir à la génération d'artefacts comme des aplats qui seront visibles dans certains cas quel que soit le support de sortie choisi. On les verra ou non selon l'expérience de l'observateur.

Quel est le pourcentage d'observateurs capables de relever cette différence et d'apprécier un fichier correctement tiré, selon toi ?
Au bon endroit, au bon moment.

Pat20d

Citation de: Samoreen le Mars 03, 2015, 13:43:07
C'est que vous n'avez pas bien lu mon post  ;D .

C'est purement une question mathématique. [..]
Hum .... Effectivement on ne risque pas de se comprendre. Je pose la question du choix de l'espace de travail dans lequel un fichier RAW va être dématricé et tu me réponds sur le choix du codage en 8 ou 16 bits.
J'utilise le 16 bits avec Camera  et j'ai très bien compris quelle est l'utilité de travailler sur des mots de 16 bits plutôt que 8.

Citation de: Samoreen le Mars 03, 2015, 13:43:07
Et quand vous dites que vous ne verrez pas la différence sur le résultat final affiché sur un écran ou sorti sur une imprimante personnelle, ce n'est pas nécessairement vrai. Le cumul des approximations sur les nuances de couleur peut aboutir à la génération d'artefacts comme des aplats qui seront visibles dans certains cas quel que soit le support de sortie choisi. On les verra ou non selon l'expérience de l'observateur.

Et je répète que travailler avec une précision moindre [..]
Encore une fois ça n'est pas la question. Un écran ne peut pas afficher plus de couleurs que son gammut. Je ne parle pas des ruptures dans les nuances de couleurs dues à des arrondis sur 8 bits.

Donc ce n'est ni de la mauvaise volonté ni de la mauvaise foi, il est tout à fait possible de travailler en 16 bits en sRGB, Adobe ou Prophoto A moins que quelque chose de gros m'ait échappé ?
Patrick

Pat20d

Citation de: Samoreen le Mars 03, 2015, 13:49:16
Ce qui implique de reprendre le traitement à zéro quand on n'est pas satisfait de la qualité du fichier lors de la sortie sur un périphérique performant. Tous les traitements appliqués ne sont pas paramétriques comme dans Camera RAW ou Lightroom.
Il se trouve que j'utilise CR et que du coup il est très facile de reprendre un traitement puisque l'essentiel des corrections sont faites justement sous CR et que PS ne me sert qu'à des retouches (extrêmement rares) très localisées et à ajuster taille, netteté en fonction de la sortie (Web, imprimante)  :)
Patrick

Samoreen

Citation de: Pat20d le Mars 03, 2015, 16:01:35
A moins que quelque chose de gros m'ait échappé ?

J'ai dit que les problèmes du 8-bit/16-bit et le problème de l'espace couleur étaient de même nature. À partir du moment où on indique qu'une image doit entrer dans un espace couleur plus restreint, il faut bien que les couleurs qui n'en font pas partie soient converties en couleurs qui font partie de l'espace cible. On retrouve donc là le même phénomène d'approximation que pour d'autres calculs liés au 8-bit/16-bit.

Travailler dans un espace plus large évite donc ces conversions mal venues. On retarde ces approximations jusqu'au moment où le pilote de l'imprimante (ou le logiciel d'impression) doit effectivement les faire. Le même raisonnement que pour les autres calculs s'applique : on travaille avec le plus de nuances possibles (même si on ne le voit pas à l'écran la représentation en mémoire sera plus précise) et on recule la dégradation jusqu'au dernier moment. Il ne faut pas confondre ce qui est visible à l'écran avec la représentation des données en mémoire.
Patrick

Samoreen

Citation de: P!erre le Mars 03, 2015, 14:21:19
Quel est le pourcentage d'observateurs capables de relever cette différence et d'apprécier un fichier correctement tiré, selon toi ?

Comment le saurais-je mais quelle importance? C'est un problème de statistiques. Travailler en 16-bit avec un espace couleur très large diminue la probabilité d'apparition d'artefacts qui ne sont peut-être pas visibles immédiatement mais qui le seront quand les capacités des périphériques de sortie augmenteront (rappelons également que Lightroom est capable d'afficher le hors gamut écran). Je fais tirer régulièrement en grand format et je fais attention à ce que je fais.

Mais je constate effectivement très souvent, en observant certaines images, que beaucoup de gens ne se rendent pas bien compte des dégradations générées par manque de précision dans le post-traitement. Je crois qu'on pourrait avoir quelques valeurs statistiques en examinant un grand nombre de photos de coucher de soleil ou de spectacle incluant un projecteur de scène.

Et puis, question qui tue : en quoi est-ce gênant d'utiliser systématiquement du 16-bit et Prophoto ? Je peux exporter ensuite dans la qualité qui convient en fonction de la cible. Dans la mesure où le processus inverse n'est pas possible, je ne vois pas pourquoi je limiterais volontairement la qualité de mes fichiers.
Patrick

Pat20d

Citation de: Samoreen le Mars 03, 2015, 16:16:20
J'ai dit que les problèmes du 8-bit/16-bit et le problème de l'espace couleur étaient de même nature. À partir du moment où on indique qu'une image doit entrer dans un espace couleur plus restreint, il faut bien que les couleurs qui n'en font pas partie soient converties en couleurs qui font partie de l'espace cible. On retrouve donc là le même phénomène d'approximation que pour d'autres calculs liés au 8-bit/16-bit.

Travailler dans un espace plus large évite donc ces conversions mal venues. On retarde ces approximations jusqu'au moment où le pilote de l'imprimante (ou le logiciel d'impression) doit effectivement les faire. Le même raisonnement que pour les autres calculs s'applique : on travaille avec le plus de nuances possibles (même si on ne le voit pas à l'écran la représentation en mémoire sera plus précise) et on recule la dégradation jusqu'au dernier moment. Il ne faut pas confondre ce qui est visible à l'écran avec la représentation des données en mémoire.
Ah OK je vois maintenant ce que tu veux dire désolé j'ai été un peu long  :)
Mais là ou j'ai un doute c'est : il faut bien que les couleurs qui n'en font pas partie soient converties en couleurs qui font partie de l'espace cible
Dans le cas du dématriçage es tu certain que ça fonctionne comme ça ? On peut imaginer que ça fonctionne comme en conversion relative, c'est à dire que les couleurs hors gammut sont codées à la valeur la plus saturée possible (ce qui peut produire un aplat)
Ce que tu décris est proche du fonctionnement perceptif et dans ce cas plus l'espace cible est grand et plus l'ensemble des couleurs seront affadies puisqu'elles seront désaturées ?

Patrick

Pat20d

Je quitte ce fil - intéressant -  jusqu'à ce soir vers 20 h  ;)
Patrick

Samoreen

Citation de: Pat20d le Mars 03, 2015, 16:31:12
Mais là ou j'ai un doute c'est : il faut bien que les couleurs qui n'en font pas partie soient converties en couleurs qui font partie de l'espace cible
Dans le cas du dématriçage es tu certain que ça fonctionne comme ça ? On peut imaginer que ça fonctionne comme en conversion relative, c'est à dire que les couleurs hors gammut sont codées à la valeur la plus saturée possible (ce qui peut produire un aplat)

Pendant le dématriçage, l'image est créée dans l'espace couleur défini pour/par le logiciel. dans le cas de Lightroom, c'est forcément Melissa RGB (= Prophoto). On n'a pas le choix, il y a peut-être une raison? Tous les calculs dans Lightroom se feront en utilisant cet espace couleur. Ensuite, au moment de l'export, on pourra choisir l'espace couleur adapté à l'utilisation souhaitée.

Les méthodes relative et perceptive n'ont rien à voir dans le sujet. Dans les 2 cas, il s'agit de convertir une couleur hors gamut en une couleur appartenant à l'espace cible. La seule différence entre les 2 méthodes, c'est la manière dont on choisit la couleur de l'espace cible qui remplacera la couleur hors gamut. Avec chacune ses avantages et ses inconvénients.
Patrick

Pat20d

Citation de: Samoreen le Mars 03, 2015, 17:46:38
Pendant le dématriçage, l'image est créée dans l'espace couleur défini pour/par le logiciel. dans le cas de Lightroom, c'est forcément Melissa RGB (= Prophoto). On n'a pas le choix, il y a peut-être une raison? Tous les calculs dans Lightroom se feront en utilisant cet espace couleur. Ensuite, au moment de l'export, on pourra choisir l'espace couleur adapté à l'utilisation souhaitée.

Pourtant dans Camera RAW il y a bien la définition de l'espace cible (SRGB, Adobe et Prophoto) dans les options de production ? Le fichier produit transféré dans Photoshop s'affiche dans l'espace couleur défini dans l'option de production.

Citation de: Samoreen le Mars 03, 2015, 17:46:38
Les méthodes relative et perceptive n'ont rien à voir dans le sujet. Dans les 2 cas, il s'agit de convertir une couleur hors gamut en une couleur appartenant à l'espace cible. La seule différence entre les 2 méthodes, c'est la manière dont on choisit la couleur de l'espace cible qui remplacera la couleur hors gammut. Avec chacune ses avantages et ses inconvénients.
J'ai bien compris que la méthode perceptive / relative s'aplique aux conversions d'un espace vers un autre.

Ce que je voulais dire en essayant d'être clair:
Si une couleur captée par le capteur est située hors gammut de l'espace choisi pour le dématriceur dans les options du flux de production, il faut bien lui attribuer une valeur. Soit cette valeur sera la valeur la plus proche et dans le gammut, soit l'ensemble des valeurs sont compressées pour que l'ensemble des couleurs rentre dans le gammut. c'est l'analogie que je faisais avec perceptif / relatif.
Je ne sais pas comment se comporte le dématriceur dans ce cas.
Tu dis qu'il travaille dans un espace Prophoto qui donc est très grand et donc le problème ne se pose pas ....

Soit mais je ne comprend plus à quoi servent les options du flux de production .... voir plus haut.

Je vais relire la prose d'Arnaud Frich sur ce sujet précis  :)
Patrick

Samoreen

Citation de: Pat20d le Mars 03, 2015, 21:00:27
Pourtant dans Camera RAW il y a bien la définition de l'espace cible (SRGB, Adobe et Prophoto) dans les options de production ? Le fichier produit transféré dans Photoshop s'affiche dans l'espace couleur défini dans l'option de production.

C'est justement parce que dans Photoshop on peut choisir l'espace couleur de travail pour l'édition en mode bitmap que Camera RAW propose ce choix au moment de quitter Camera RAW (opération qui est comparable à un export dans Lightroom).

Pour le reste, on dit habituellement que les fichiers RAW n'ont pas d'espace couleur qui leur est affecté, ce qui n'est pas tout à fait vrai. Simplement, les informations couleur ne sont pas formalisées de la même manière puisque chaque pixel ne possède d'information que pour une seule couleur (R, V ou B) pour les capteurs à matrice de Bayer. C'est le calcul de dématriçage qui va permettre d'obtenir par interpolation les 3 composantes pour chaque pixel et produire une image utilisable dans un espace "standard". Mais en fait, le fichier RAW possède ce que certains appellent l'espace de couleur natif de l'APN qui est a priori beaucoup plus vaste que Prophoto. Il y a donc bien une conversion de cet espace natif vers Prophoto (Melissa) quand l'image est chargée dans Lightroom et Camera RAW (même combat). Il y a une conversion supplémentaire dans Photoshop (quand on quitte Camera RAW pour passer dans le mode d'édition de bitmap de Photoshop) ou dans Lightroom (quand on exporte).
Patrick

P!erre

Citation de: Samoreen le Mars 03, 2015, 16:27:18
Je crois qu'on pourrait avoir quelques valeurs statistiques en examinant un grand nombre de photos de coucher de soleil ou de spectacle incluant un projecteur de scène.

Et puis, question qui tue : en quoi est-ce gênant d'utiliser systématiquement du 16-bit et Prophoto ? Je peux exporter ensuite dans la qualité qui convient en fonction de la cible. Dans la mesure où le processus inverse n'est pas possible, je ne vois pas pourquoi je limiterais volontairement la qualité de mes fichiers.

Bien sûr, il y a des cas typiques, tels les couchers de soleil ou certaines fleurs qui mettent à mal les couleurs du sRGB 8 bits. Un traitement plus respectueux des teintes est souvent utile.

en quoi est-ce gênant d'utiliser systématiquement du 16-bit et Prophoto ?


1- On ne voit pas vraiment ce qu'on fait,
2- les fichiers sont beaucoup plus lourds et le temps de traitement également,
3- c'est d'office inutile selon plusieurs catégories d'utilisations finales,
4- peu de logiciels le gèrent (à ma connaissance, même DXO ne le supporte pas)

Si tu gardes 300 superbes photos par année pour des expos où les tirages sont hypersoignés, cela me paraît toute à fait louable d'être en 16 bit Prophoto. Je ne vois pas l'intérêt en revanche si tu gères 100'000 photos / an, puisque très peu d'entre elles seront visibles dans un contexte où cette approche technique les met effectivement en valeur. Cela reste une question d'avis personnel, je te le concède.
Au bon endroit, au bon moment.

dioptre

Je pense qu'il serait profitable de lire la Bible !
Je veux dire de Jean Delmas "La gestion des couleurs", Ed. Eyrolles, 2012
500 pages à lire et relire
Se lisent comme un roman.

Nikojorj

Citation de: Pat20d le Mars 03, 2015, 11:17:32
Quel périphérique "image" est capable d'afficher complètement l'ensemble des couleurs contenues dans les espaces de travail usuels.
La question se pose dans l'autre sens!
Il faut choisir un espace de travail dont on soit sûr qu'aucun des périphériques utilisés ne le dépasse.

Pour ça, ProPhoto est bien.

Citation de: P!erre le Mars 03, 2015, 14:21:19
Quel est le pourcentage d'observateurs capables de relever cette différence et d'apprécier un fichier correctement tiré, selon toi ?
Tu peux essayer de dégrader la qualité des test traitements jusqu'à ce que ça se voie ... ou partir sur des principes où tu es sûr que ça ne dégradera pas.
Comme ça ne coûte rien virgule zéro de prendre un espace large, c'est dommage de se priver de la 2e solution.

Citation de: P!erre le Mars 04, 2015, 10:21:15
1- On ne voit pas vraiment ce qu'on fait,
2- les fichiers sont beaucoup plus lourds et le temps de traitement également,
3- c'est d'office inutile selon plusieurs catégories d'utilisations finales,
4- peu de logiciels le gèrent (à ma connaissance, même DXO ne le supporte pas)
1 Non, là il va falloir réviser la gestion de la couleur!
2 Non (c'est le 16 bits qui alourdit pas l'espace)
3 cf. ci-dessus mais bon
4 Surprenant de la part de DxO, je ne serai pas étonné qu'ils utilisenbt ça ou ECIRGB ou autre en interne quand même, mais tant pis pour les mauvais logiciels! ;)

fabco

dxo utilise un espace de travail plus grand que adobe mais il ne dise pas lequel d'où un flou de ce côté là. ;D

Samoreen

Citation de: fabco le Mars 04, 2015, 21:47:43
dxo utilise un espace de travail plus grand que adobe mais il ne dise pas lequel d'où un flou de ce côté là. ;D

Il y a quelques infos qui traînent ici et là mais rien de cohérent. J'ai posé la question. Mais il est très probable que ça soit plus large que Adobe RGB, effectivement.
Patrick