8bits_10bits??? le logiciel en cause?

Démarré par fred94-, Septembre 26, 2015, 10:19:04

« précédent - suivant »

fred94-

bonjour,

Je vais faire très rapide car c'est juste une question sur le constat que je viens de faire en:
1-enregistrement à partir du fichier "10 bit test ramp.psd" d'un TIFF
2-visionnage de ce TIFF dans:photoshop CC; Affinity photo, Ligtroom CC et DXO 9 et Capture one pro 8

Et bien "mon constat" mais peut-être cela n'a aucune valeur, mais seul Capture one pro 8 affiche un dégradé "parfait"

C'est moi ou j'ai trop picolé?
pouvez-vous réaliser le même test et valider ce constat.

Alors je précise ma config:

MacBook Pro retira juin 2012 donc avec une CG nvidia GT 650M+une HD4000
DELL U2413 en display port en 8bits+FRC=10 bits mais pas de 30 bits direct
Dans tous les autres logiciels sur mon écran le dégradé de gris est vraiment pourri logiquement normal car sur mac pas de 30bits....

"capture d'écran depuis C1"
Késako

fred94-

#1
"capture photoshop CC"

Alors la capture d'écran n'est pas terrible mais sur mon écran la différence entre le TIFF visualisé sur C1 et nettement différent des autres logiciels.

Par contre les possesseurs d'écran haut de gamme bien sur le test n'est pas significatif car logiquement tout va bien.


Dub

Même constat en ouvrant le fichier avec Iridient Developer ...
Mac Book pro et Eizo CG223W

???

fred94-

Citation de: Dub le Septembre 26, 2015, 10:26:47
Même constat en ouvrant le fichier avec Iridient Developer ...

???

salut,

c'est à dire? le dégradé est mieux avec Iridient developper?  dsl mais je n'est pas ce logiciel


Dub

#4
Citation de: fred94- le Septembre 26, 2015, 10:30:45
salut,

c'est à dire? le dégradé est mieux avec Iridient developper?  dsl mais je n'est pas ce logiciel

Euh , oui , pardon ...  Nettement mieux voir parfait !!!  ;D

J'ai testé C1 pendant un temps et les similitudes de rendu avec Iridient sont assez "troublantes" ...  ???

Iridient au fond , la fenêtre de CS6 devant

fred94-

Citation de: Dub le Septembre 26, 2015, 10:36:52
Euh , oui , pardon ...  Nettement mieux voir parfait !!!

J'ai testé C1 pendant un temps et les similitudes de rendu avec Iridient sont assez "troublantes" ...  ???

;D

qu'elle config?
Je suis en train de me poser la question si ce fichier n'a pas été créé en connaissance de cause des limites de certains CMS "sans carte graphique 10bits"?

Par contre dans photoshop si je réalise un dégradé de gris et bien certes sur mon DELL U2413 il y a des cassures mais pas comme le fichier test "10 bits test ramp.psd"

Dub


fred94-

Citation de: Dub le Septembre 26, 2015, 10:36:52
Euh , oui , pardon ...  Nettement mieux voir parfait !!!  ;D

J'ai testé C1 pendant un temps et les similitudes de rendu avec Iridient sont assez "troublantes" ...  ???

Iridient au fond , la fenêtre de CS6 devant
il est ou le loup sur ce point car il y en a des articles sur l'utilité du 30bits "windows" mais en fait j'ai l'impression que ce n'est pas forcément le cas.
Qu'en pense-tu?

Dub

 ???

Malheureusement cela dépasse mes maigres compétences !!!

;D

Problème de logiciel  ??? Fichier "inventé" pour discréditer X ou Y  ???

???

Verso92

#9
Essais réalisés à l'instant chez moi...
Config : écran Nec PA241w (10 bits) + CG ATI FirePro V5800 (10 bits).
1/2 - Catalyst Pro (ATI) configuré en 3 x 10 bits :

Le dégradé est quasi-parfait, à la photo sous Photoshop CS6 (configuré pour afficher 3 x 10 bits) et sous Capture One (v8).
Par contre, la copie d'écran réalisé sous Photoshop ("Imp écran" + collage dans un nouveau fichier) montre des cassures n'existant pas sur l'original... le presse-papier de Windows est sans doute en cause ?

Verso92

2/2 - Catalyst Pro (ATI) configuré en 3 x 8 bits (redémarrage du PC) :

Photoshop CS6 montre cette fois (logiquement) des cassures dans le dégradé.
Par contre, à ma grande surprise, il semble que ce ne soit pas le cas sous Capture One...
Autre surprise, la copie d'écran réalisé sous Photoshop montre (logiquement) les cassures :

Verso92

Citation de: Verso92 le Septembre 26, 2015, 11:04:13
Autre surprise, la copie d'écran réalisé sous Photoshop montre (logiquement) les cassures :

Alors que ce n'est pas le cas avec celle réalisée sous Capture One :
(ou alors, de façon beaucoup moins visible...)

fred94-

Citation de: Verso92 le Septembre 26, 2015, 11:04:13
2/2 - Catalyst Pro (ATI) configuré en 3 x 8 bits (redémarrage du PC) :

Photoshop CS6 montre cette fois (logiquement) des cassures dans le dégradé.
Par contre, à ma grande surprise, il semble que ce ne soit pas le cas sous Capture One...

Autre surprise, la copie d'écran réalisé sous Photoshop montre (logiquement) les cassures :
merci à toi et je peux dire que j'ai de plus grosses cassures que toi sur photoshop mais c'est normal car il me semble que:

NEC PA241w est un vrai 10bits ou +

alors que le DELL U2413 est un 10bits "trafiqué"  8bits+FRC

mais pourquoi cette différence entre C1 et Iridient developper par rapport aux autres???  surtout dans une config non 30bits??


Verso92

Citation de: fred94- le Septembre 26, 2015, 11:19:10
merci à toi et je peux dire que j'ai de plus grosses cassures que toi sur photoshop mais c'est normal car il me semble que:

Je précise que je n'ai pas de cassures en 3 x 10 bits sous Photoshop CS6 (ou vraiment très minimes) : la copie d'écran montrée n'est représentative que de l'affichage 3 x 8 bits (voir explications au-dessus).

Pour bien faire, il faudrait photographier l'écran pour essayer de montrer les différences...
Citation de: fred94- le Septembre 26, 2015, 11:19:10
mais pourquoi cette différence entre C1 et Iridient developper par rapport aux autres???  surtout dans une config non 30bits??

Là, je ne saurais dire (et suis le premier surpris)...

Verso92

Citation de: Verso92 le Septembre 26, 2015, 11:24:40
Pour bien faire, il faudrait photographier l'écran pour essayer de montrer les différences...

Je m'y étais essayé, à l'époque, mais ce n'est pas facile...
(on voit au moins des différences sur les photos, même si ce n'est pas forcément représentatif de la perception qu'on a face à l'écran...)

http://www.chassimages.com/forum/index.php/topic,137922.msg2634014.html#msg2634014

tenmangu81

Citation de: Verso92 le Septembre 26, 2015, 11:28:47
Je m'y étais essayé, à l'époque, mais ce n'est pas facile...
(on voit au moins des différences sur les photos, même si ce n'est pas forcément représentatif de la perception qu'on a face à l'écran...)
Là c'est clair. Je me souviens que nous disions que le 3x10 bits n'apportait rien par rapport au 3x8 bits.... Il est vrai que ce dégradé est particulièrement discriminant, et que sur des "vraies" photos, ce ne doit pas être flagrant  ;)

Heureusement, je travaille avec Capture One  :)

fred94-

Citation de: tenmangu81 le Septembre 26, 2015, 11:33:08
Là c'est clair. Je me souviens que nous disions que le 3x10 bits n'apportait rien par rapport au 3x8 bits.... Il est vrai que ce dégradé est particulièrement discriminant, et que sur des "vraies" photos, ce ne doit pas être flagrant  ;)

Heureusement, je travaille avec Capture One  :)

salut,

Il apporte un plus mais uniquement sur ce test de dégradé suivant le fichier psd et dans certains logiciels.

Verso92

Citation de: tenmangu81 le Septembre 26, 2015, 11:33:08
Là c'est clair. Je me souviens que nous disions que le 3x10 bits n'apportait rien par rapport au 3x8 bits.... Il est vrai que ce dégradé est particulièrement discriminant, et que sur des "vraies" photos, ce ne doit pas être flagrant  ;)

Sur des vraies photos, c'est quasiment indiscernable, je pense...
En ce qui me concerne, j'ai pu faire l'upgrade vers une CG performante gérant le 3 x 10 bits à des conditions très avantageuses : c'est ce qui m'a fait franchir le pas, possédant par ailleurs un écran 10 bits.
Citation de: tenmangu81 le Septembre 26, 2015, 11:33:08
Heureusement, je travaille avec Capture One  :)

Là, je suis plus dubitatif : comment C1 arrive-t-il à me montrer un dégradé lisse quand je suis configuré en affichage 3 x 8 bits (via Catalyst Pro)...

Edit : voir la réponse d'Olivier au-dessous sur ce point (croisement de posts)...

olivier1010

Citation de: Verso92 le Septembre 26, 2015, 11:24:40
Je précise que je n'ai pas de cassures en 3 x 10 bits sous Photoshop CS6 (ou vraiment très minimes) : la copie d'écran montrée n'est représentative que de l'affichage 3 x 8 bits (voir explications au-dessus).

Pour bien faire, il faudrait photographier l'écran pour essayer de montrer les différences...
Là, je ne saurais dire (et suis le premier surpris)...

Parce que chaque logiciel fait sa propre sauce pour lisser l'affichage 24 bits en introduisant du bruit dans l'image (dithering). Même principe qu'à l'époque des gif en 256 couleurs ou l'on réussissait plus ou moins à simuler des couleurs en 24 bits. Pour générer un gif de ce type d'ailleurs il existe un tas de réglages afin d'optimiser le processus.

Je n'ai pas vu de réglage de ce type sur Lightroom par exemple, qui pourtant dans mon cas sur PC et écran 8 bits réalise bien ce dithering. On ne peut pas le désactiver non plus apparemment, l'image est toujours lissée en mode développement, et non lissée en mode bibliothèque (testé avec LR 5.7).

Quand à la copie d'écran elle se fait plus que certainement en 8 bits par canal, donc il est logique qu'on y retrouve des cassures.

Le 30 bits n'est pas encore implémenté de façon globale dans les systèmes, cela viendra certainement avec le développement du 4K et HDMI 2.0 qui prévoient l'affichage en 10 et 12 bits par canal.

L'affichage en 30 et 36 bits est surtout utile dans le cadre de la production des images de synthèse en cinéma afin d'avoir un contrôle précis des images produites. En effet en cinéma il est important au vu des capacités des projecteurs en salle (qui évolueront encore) d'avoir un maximum de qualité dans le contrôle des images à la source afin de ne pas se retrouver avec des surprises en projection. La norme DCI pour l'affichage cinéma utilise un espace couleur en 36 bits, soit 12 bits par canal, à travers un double lien HD-SDI.

D'ailleurs les logiciels de calibration écran dans le monde de la vidéo savent générer des patchs en 10 ou 12 bits par canal, ce qui n'est pas le cas dans les logiciels de calibration destinés à la chaine graphique.

Sur PC le 30 bits existe depuis longtemps, je me souviens avoir essayé cela il y a peut être une quinzaine d'année, avec une carte Matrox sous Photoshop, il fallait alors un plugin Photoshop fourni par Matrox pour supporter ce mode d'affichage. A l'époque les écrans CRT analogiques supportait par nature un affichage de résolution tonale plus importante, un écran spécifique n'était pas nécessaire.

La situation s'est améliorée mais on est encore qu'aux prémices d'une implémentation globale dans tous les systèmes / logiciels.

Pour ceux qui veulent passer au 10 bits sans trop dépenser, on trouve un tas de cartes vidéo pro d'occasion de la génération précédente en ce moment (ati firepro par exemple) qui supportent le 10 bits mais pas le 4K.

Pour ceux qui ne souhaitent pas tout de suite passer au 4K...


fred94-

#19
Citation de: olivier1010
Parce que chaque logiciel fait sa propre sauce pour lisser l'affichage 24 bits en introduisant du bruit dans l'image (dithering).

bonjour alors très bien vous avez surement raison mais là pour le coup je suis surpris car "ce bruit" introduit est visible "sur le fichier du dégradé" à partir de 200%
pour mon écran en 1920x1200. (dans C1)

Est-ce que Capture one et Iridient developper pour le coup ont choisi cette "technique" car le défaut n'est perceptible qu'avec une loupe sur l'image?

EDIT: en d'autres termes: pourquoi les autres ne réalise pas cette technique car "pour l'image fixe" elle apporte de bons résultats sur des config non 30bits?

Verso92

Citation de: fred94- le Septembre 26, 2015, 12:33:06
EDIT: en d'autres termes: pourquoi les autres ne réalise pas cette technique car "pour l'image fixe" elle apporte de bons résultats sur des config non 30bits?

J'imagine que c'est un choix délibéré de la part des concepteurs du logiciel...
De la même manière, Photoshop ne fait pas de lissage quand les images sont réduites : cela provoque des artefacts d'affichage, notamment aux rapports de zoom 33% et 67% (moins à 25% et à 50%, et plus du tout à 100%, bien sûr). D'autres logiciels en font, pour présenter des choses "plus jolies" à l'écran en toutes circonstances...

olivier1010

Citation de: Verso92 le Septembre 26, 2015, 14:03:51
J'imagine que c'est un choix délibéré de la part des concepteurs du logiciel...
De la même manière, Photoshop ne fait pas de lissage quand les images sont réduites : cela provoque des artefacts d'affichage, notamment aux rapport de zoom 33% et 67% (moins à 25% et à 50%, et plus du tout à 100%, bien sûr). D'autres logiciels en font, pour présenter des choses "plus jolies" à l'écran en toutes circonstances...

Un choix mais aussi un niveau de professionnalisme (ou parfois amateurisme :) ). Chaque logiciel ayant des forces et des faiblesses, ainsi qu'un niveau de performances et de rigueur en accord avec le marché qu'il doit cibler.

On ne trouvera pas la même précision et les mêmes détails d'analyse par exemple dans un logiciel de calibration pour la chaine graphique gratuit ou à 100 euros et dans un logiciel de calibration pour le cinéma digital à 3000 euros.

Photoshop semble ne rien lisser lors d'un affichage sur un écran 24 bits, ce qui me semble en accord avec un usage professionnel ou l'on doit voir ce qui est réellement présent dans l'image. Le but est de ne pas avoir de surprises. Si l'on veut voir tous les détails au niveau tonal dans une image 16 bits, alors il est de la responsabilité de l'utilisateur d'utiliser un écran 10 bits. C'est important car les images qui passent dans Photoshop sont parfois destinés à un usage très pointu, comme la retouche pour la création d'effets spéciaux en cinéma, ou la moindre postérisation de l'image pourrait avoir des conséquences désastreuses en projection en salle.

D'autres logiciels comme Lightroom choisiront de lisser les contenus pour affichage en 24 bits, et ne sauront pas non plus d'ailleurs gérer un affichage 30 bits. C'est moins gênant car à l'impression de toutes façons il y a aura ajout de bruit par le driver d'impression pour éviter le banding dans les dégradés. Donc au final on verra à l'impression ce qu'il y avait à l'écran, sans se douter qu'entre les deux des images postérisées dans les dégradés ont transité en 8 bits par canal. (C'et moins vrai sur Mac ou l'on peut imprimer en 16 bits par canal sans passer par un RIP).
Pour la diffusion sur Internet, les navigateurs semblent aussi ajouter du dithering sur les fichiers pour lisser l'affichage en 24 bits (j'ai testé rapidement avec Firefox il y a quelques jours, à confirmer quand même).

La cible de marché n'est pas la même, et techniquement, un lissage qui peut s'avérer utile sur un logiciel comme LightRoom (afin de simuler un affichage écran en 10 bits et une impression avec dithering), peut s'avérer gênant sur un logiciel comme Photoshop ou l'utilisateur doit pouvoir contrôler précisément un fichier 16 bits avec un écran 10 bits. Historiquement Photoshop n'a jamais fait de concessions sur le plan de la qualité. Même s'il accuse toujours quelques retards en terme de gestion des couleurs avec par exemple une incompatibilité de certaines palettes d'outils avec les très grands espaces couleurs.


Verso92

Citation de: olivier1010 le Septembre 26, 2015, 14:33:34
Un choix mais aussi un niveau de professionnalisme (ou parfois amateurisme :) ). Chaque logiciel ayant des forces et des faiblesses, ainsi qu'un niveau de performances et de rigueur en accord avec le marché qu'il doit cibler.

On ne trouvera pas la même précision et les mêmes détails d'analyse par exemple dans un logiciel de calibration pour la chaine graphique gratuit ou à 100 euros et dans un logiciel de calibration pour le cinéma digital à 3000 euros.

Photoshop semble ne rien lisser lors d'un affichage sur un écran 24 bits, ce qui me semble en accord avec un usage professionnel ou l'on doit voir ce qui est réellement présent dans l'image. Le but est de ne pas avoir de surprises. Si l'on veut voir tous les détails au niveau tonal dans une image 16 bits, alors il est de la responsabilité de l'utilisateur d'utiliser un écran 10 bits. C'est important car les images qui passent dans Photoshop sont parfois destinés à un usage très pointu, comme la retouche pour la création d'effets spéciaux en cinéma, ou la moindre postérisation de l'image pourrait avoir des conséquences désastreuses en projection en salle.

D'autres logiciels comme Lightroom choisiront de lisser les contenus pour affichage en 24 bits, et ne sauront pas non plus d'ailleurs gérer un affichage 30 bits. C'est moins gênant car à l'impression de toutes façons il y a aura ajout de bruit par le driver d'impression pour éviter le banding dans les dégradés. Donc au final on verra à l'impression ce qu'il y avait à l'écran, sans se douter qu'entre les deux des images postérisées dans les dégradés ont transité en 8 bits par canal. (C'et moins vrai sur Mac ou l'on peut imprimer en 16 bits par canal sans passer par un RIP).
Pour la diffusion sur Internet, les navigateurs semblent aussi ajouter du dithering sur les fichiers pour lisser l'affichage en 24 bits (j'ai testé rapidement avec Firefox il y a quelques jours, à confirmer quand même).

La cible de marché n'est pas la même, et techniquement, un lissage qui peut s'avérer utile sur un logiciel comme LightRoom (afin de simuler un affichage écran en 10 bits et une impression avec dithering), peut s'avérer gênant sur un logiciel comme Photoshop ou l'utilisateur doit pouvoir contrôler précisément un fichier 16 bits avec un écran 10 bits. Historiquement Photoshop n'a jamais fait de concessions sur le plan de la qualité. Même s'il accuse toujours quelques retards en terme de gestion des couleurs avec par exemple une incompatibilité de certaines palettes d'outils avec les très grands espaces couleurs.

C'est tout à fait mon point de vue (en mieux expliqué...  ;-) !

olivier1010



Je voudrais ajouter également qu'en ce qui concerne l'affichage 10 bits par canal, même s'il n'est pas encore indispensable loin de la en photographie tout du moins, il le deviendra certainement dans un avenir plus ou moins proche, avec les écrans Oled à forte dynamique qui pointent le bout de leur nez (ils existent déjà depuis longtemps pour les écrans haut de gamme en monitoring vidéo).

Plus la dynamique de l'écran est importante, (différence entre luminosité du noir et blanc), plus il y a de banding avec une profondeur de quantification 8 bits.

Ensuite, on est certainement à un tournant également concernant le gamut des écrans. Adobe RGB (wide gamut) sera certainement dans quelques années derrière nous, avec la mise au point d'écrans qui seront capable de passer un gamut Rec 2020, au moins en parti.

Sur des grands gamut, avec des couleurs primaires plus écartées, le 8 bits risque ainsi de devenir vraiment trop étroit.

Coté technique, on assiste à l'arrivé du HDMI 2.0, avec le support de l'affichage 10 et 12 bits par canal.

Enfin, à l'impression, on assiste également à un support d'espaces couleurs plus large. Epson par exemple annonce le support de Pantone Solid :)

Tout ça pour dire que même si aujourd'hui le 30 bits écran reste cantonné à la photographie très haut de gamme ou à la vidéo et au cinéma, il deviendra certainement courant dans quelques semestres.


fred94-

Citation de: olivier1010
Un choix mais aussi un niveau de professionnalisme (ou parfois amateurisme :) ).
Vous parlez de phase one?  Ouchh
Alors je résume Basic color triche, phase one triche et iridient developper aussi mais pas Adobe?....

Juste pour info je regarde une image couleurs dans C1 au Max du zoom (nikon D700) je ne vois aucuns artefacts ou autres, alors est-ce que le dithering est une solution fausse?
Ou finalement pour le coup un atout sur une config 8bits ou 10 bits (8+trc)?

Car une photo ce n'est pas une formule mathematique donc The perfect dégradé.....mouais