Problème affichage tons foncés après calibration écran

Démarré par rmarlet91, Février 06, 2016, 14:17:03

« précédent - suivant »

rmarlet91

Bonjour,

J'ai récemment acheté une COLOUMUNKI DISPLAY afin de calibrer mes 5 écrans sur autant de PC différents (2 PC portables sous WINDOWS 10 et 1 PC de bureau sous WINDOWS 10 et un ancien écran DELL x223w, ainsi que 2 autres PC plus anciens sur XP et écrans HP qui datent de plus de 10 ans).
Tout le monde se retrouve à afficher les mêmes images après calibration (en D65, 120 cd), cependant sur le PC le plus récent (mais muni d'un écran DELL x223w de 7 ans environ), j'ai des soucis dans l'affichage des tons sombres sur certaines images . Voir extrait de photo jointe, il y a des espèces d'amas de pixels qui apparaissent uniquement sur ce couple PC/écran).
J'ai essayé d'autres paramètres avec la colormunki mais rien à faire, c'est plus ou moins pire selon les options de calibrage.
En intervertissant l'écran avec un autre PC, le problème n'apparait pas sur l'autre machine, comme si ça venait donc du PC qui cependant est récent, pas comme les écrans qui sont anciens.
La carte graphique est une AMD RADEON 8400 connectée en VGA à l'écran (aucun de mes écrans ne possède de DVI ou HDMI).
Quelqu'un aurait-il déjà rencontré ce problème ?

Merci par avance.

Robert

olivier1010

Citation de: rmarlet91 le Février 06, 2016, 14:17:03
Bonjour,

J'ai récemment acheté une COLOUMUNKI DISPLAY afin de calibrer mes 5 écrans sur autant de PC différents (2 PC portables sous WINDOWS 10 et 1 PC de bureau sous WINDOWS 10 et un ancien écran DELL x223w, ainsi que 2 autres PC plus anciens sur XP et écrans HP qui datent de plus de 10 ans).
Tout le monde se retrouve à afficher les mêmes images après calibration (en D65, 120 cd), cependant sur le PC le plus récent (mais muni d'un écran DELL x223w de 7 ans environ), j'ai des soucis dans l'affichage des tons sombres sur certaines images . Voir extrait de photo jointe, il y a des espèces d'amas de pixels qui apparaissent uniquement sur ce couple PC/écran).
J'ai essayé d'autres paramètres avec la colormunki mais rien à faire, c'est plus ou moins pire selon les options de calibrage.
En intervertissant l'écran avec un autre PC, le problème n'apparait pas sur l'autre machine, comme si ça venait donc du PC qui cependant est récent, pas comme les écrans qui sont anciens.
La carte graphique est une AMD RADEON 8400 connectée en VGA à l'écran (aucun de mes écrans ne possède de DVI ou HDMI).
Quelqu'un aurait-il déjà rencontré ce problème ?

Merci par avance.

Robert


Moi je pense que le problème est peut être le même sur les deux PC, mais que la pièce dans laquelle vous avez déplacé l'écran pour faire le test sur l'autre PC est plus éclairée, ce qui masque le problème dans les tons sombres.

Quel est le niveau d'éclairement en lux dans les pièces ou vous avez fait ces mesures, au niveau de la dalle de l'écran, la sonde dirigée vers vous ?

Ensuite si cela ne vient pas de là cette sonde n'est pas forcément ce qui se fait de mieux pour calibrer un écran. Refaire l'essai avec i1 profiler et une sonde i1 display pro pour voir.

Le problème qui apparait sur votre écran est classique en calibration software. C'est de la postérisation dans les tons sombres, causée soit par une calibration qui triture trop les courbes vcgt, soit par une sonde dont la précision n'est pas assez grande dans les faibles niveaux.

Si vous voulez totalement vous affranchir de ses problèmes il y a plusieurs solutions, de la moins bonne à la meilleure :

- ne pas essayer de corriger le point noir, c'est à dire rester en point noir natif, voir même gamma natif. C'est une option lors de la calibration. Certains logiciels de calibration anciens ne savaient pas faire cela correctement, c'est à dire que si on leur demande un point noir natif, avec un gamma imposé, ils triturent beaucoup trop les courbes vcgt dans les tons sombres, avec un résultat catastrophique en terme de qualité colorimétrique dans les tons sombres. Les logiciels plus récents savent "relâcher la pression dans les tons sombres" pour éviter ces écueils.

- remonter le niveau du point noir, cela implique une perte de contraste. Si votre éclairage ambiant est assez élevé, 100 à 200 lux par exemple, cela ne devrait pas poser de problème au contraire. Vos noirs seront plus neutres.

- passer sur un écran à calibration hardware (avec une grande préférence pour cette solution).
Il faut également vérifier que vos réglages contrastes et luminosité de l'écran sont optimaux. Ce réglage n'est pas évident. Car chacun de ces réglages influe sur le point noir et sur le point blanc de l'écran pour des raisons historiques liés à la télévision, qui n'ont d'ailleurs plus de raison d'être aujourd'hui, mais cette habitude continue à être perpétuée sur les écrans bureautique et même CAO.
C'est d'ailleurs un des gros points faibles de la calibration software sur écran bureautique. Il est difficile d'obtenir un bon réglage contraste luminosité sans y passer des heures de tâtonnement. Sauf si ces réglages peuvent se faire en automatique depuis le logiciel de calibration (et encore, si cela fonctionne correctement).

Le but étant d'obtenir un réglage de l'écran proche de la courbe TRC souhaitée, c'est à dire en général Gamma 2.2, sRGB ou L*. (pour un écran bureautique, je recommande sRGB voir un gamma natif). Si le réglage de l'écran au niveau luminosité contraste est mauvais, le logiciel de calibration sera obligé de triturer les courbes vcgt avec ces effets de postérisation qui pour des raisons perceptuelles mais aussi techniques se verront beaucoup plus dans les tons sombres.

Pour couronner le tout, les réglages d'intensité des canaux RV et B ont aussi un effet sur la luminosité du point blanc, du point noir et sur le gamma de l'écran. Cela complique encore plus la calibration software. Si on touche à ce réglage pour modifier la température de couleur du point blanc, il faut la plupart du temps retoucher le réglage de contraste pour retrouver un point blanc correct en intensité.

Comme vous pouvez le voir, la calibration software d'un écran n'est pas une simple affaire si on désire obtenir des résultats corrects. Elle nécessite pas mal de connaissances et d'expérience, contrairement à la calibration hardware, paradoxalement généralement beaucoup plus simple et surtout bien meilleure en terme de respect de la colorimétrie et de la gradation tonale, surtout dans les tons sombres. Certains écrans sont même particulièrement difficiles à calibrer correctement.
A mon sens le seul avantage de la calibration software c'est son bas coût, puisqu'elle permet d'utiliser des écrans bureautiques ou CAO qui ne disposent pas de la calibration hardware. Mais elle est franchement dépassée techniquement et on peut même se demander comment une telle aberration technique peut encore subsister aujourd'hui.

Dans tous les cas, le niveau d'éclairement de la pièce est très important pour éviter que le noir de la dalle ne soit trop pollué par les réflexions induites par l'éclairage ambiant sur la dalle. Typiquement en photo, je recommande une calibration du noir à 0.3 cd/m² et un éclairage de la pièce mesuré au niveau de la dalle de maximum 32 lux. Ce dernier paramètre étant le plus important.

La pièce ne doit pas être non plus dans le noir complet. Sinon, surtout sur une dalle LCD, on percevra trop les irrégularités de la dalle dans les noirs, et on percevra également un noir délavé, souvent un peu violacé. Ce n'est pas le cas sur un écran OLED ou même sur un écran cathodique où les noirs sont en général vraiment noirs. Une valeur d'éclairement de la pièce entre 10 et 32 lux est idéale je pense, de préférence avec une source D50 correcte pour parfaire les choses en terme de colorimétrie.


belnea

le DELL x223w est un TN---> poubelle. c'est pas fait pour la photo  :P un chouille hors de l'axe à 90° de l'écran et c'est mort.
Canon R3 Powered

Labuzan

Je confirme les propos d'Oliver1010. Juste 2 remarques fonction de mon expérience :

1/ le VGA est analogique ; aussi, on se traine tout le bruit de fond des conversions. Pas top pour l'étalonnage, particulièrement dans les tons foncés ou justement se situe le bruit.

2/ En étalonnage Software, il faut éviter les modes tout automatique, c'est à dire approcher au maximum les valeurs LC, RVB en manuel avec l'OSD et laisser l'étalonnage fignoler le reste. Ca a l'avantage de moins triturer les courbes vcgt de la carte graphique.
La i1 Display Pro le permet et même si j'ai perdu le profil icc de l'écran, il est déjà bien "approché" sur ces paramètres.
Canon 6D-5DMkIII-5DMKIV

olivier1010

#4
Citation de: belnea le Février 07, 2016, 15:10:28
le DELL x223w est un TN---> poubelle. c'est pas fait pour la photo  :P un chouille hors de l'axe à 90° de l'écran et c'est mort.

+1

De plus les dalles TN sont souvent en 6 bits +2 FRC. Il est vrai aussi que la colorimétrie hors axe est désastreuse. Je n'ai jamais fait de mesures n'ayant pas de sonde qui permette de faire de la mesure à distance, mais je pense que les variations hors axe dépassent largement un delta E de 10, et certainement même 20 sur une dalle TN, sans parler de la luminance et du contraste qui partent également en sucette sur les bords.

Dans ce cadre là, on peut se demander d'ailleurs si la calibration et le profilage ont encore un sens au delà de la calibration du point blanc en température de couleur et luminance, et de l'obtention d'un gamma à peu près correct.

C'est déjà mieux que rien me direz vous, mais il ne faut pas s'attendre au Nirvana en terme de précision et en stabilité avec ce type d'écrans non conçues pour la photo.

On peut très bien travailler avec cela c'est sur pour des usages non critiques, mais si l'utilisateur remarque qu'il y a un problème dans les ombres c'est qu'il a certainement un niveau d'exigence incompatible avec ce type d'écran, ou bien que son expertise en calibration n'est pas suffisante pour en tirer le meilleur.

Dans un cas il aura intérêt à passer sur un écran qualité photo, dans l'autre cas à étudier en détail la calibration software, ce qui nécessite un investissement en temps assez important.

J'en reviens à la calibration software qui ne devrait plus exister à mon sens. Non seulement elle est techniquement discutable avec ses courbes vcgt la plupart du temps en 8 bits (alors qu'il en faut 12 à 14 pour obtenir une gradation tonale perceptuellement du niveau de celle de la vision humaine) mais en plus elle est difficilement maîtrisable pour quelqu'un qui n'a pas une expérience pointue de la calibration.

Son usage est parfois risqué et malheureux en photo, comme le prouve certainement ce fil, parfois désastreux avec d'anciens logiciels et sondes bas de gamme, parfois inutile pour une utilisation dans le cadre de la bureautique simple.

La calibration software pour la photo est je pense une réminiscence des débuts de l'informatique personnelle, à l'époque où les écrans à tube étaient loin de disposer d'une calibration interne et ou il fallait tout de même corriger leur gamma au vu des grandes différences entre les différents modèles d'écran. Mais même à l'époque les meilleurs écrans disposaient déjà d'un système de correction interne du gamma.

Elle n'a plus vraiment de raison d'être, à l'heure où implémenter une calibration hardware dans un écran ne coute presque rien, et où des standards comme le sRGB existent pour définir une gradation tonale de base en sortie d'usine. Et surtout à l'heure où l'on sait qu'une courbe de gradation tonale nécessite un minimum de 14 bits* pour égaler les performances de l'œil en discernement des niveaux (voir par exemple le standard DICOM qui explique dans le détail les bases de cette problématique, ainsi que pour enfoncer le clou l'utilitaire de Bruce Lindbloom permettant de calculer les profondeurs de quantification nécessaires en entrée et sortie en fonction du type de gradation tonale et du nombre de niveaux de discernement désirés).

* avec une liaison vidéo 10 bits (3x10). Si la liaison vidéo est en 8 bits (3x8), alors une table 12 bits est suffisante, mais on atteint pas dans ce cas les performances de la vision humaine.

http://www.brucelindbloom.com/index.html?LevelsCalculator.html

Si la calibration software existe encore aujourd'hui, c'est aussi peut être parce qu'elle permet de vendre plus facilement des écrans équipés de la calibration hardware, au delà certainement des acquis techniques que les fabricants n'osent pas remettre en question par habitude ou de peur de gêner certains utilisateurs pour des raisons de compatibilité.

C'est ce que j'appellerais un artifice marketing de différenciation des gammes :)

La calibration hardware ne dispense pas d'avoir un minimum de connaissances en calibration, en particulier le sens des divers réglages disponible pour la cible de calibration et la nécessité d'avoir un éclairage ambiant adapté. Mais elle permet de simplifier grandement la procédure tout en obtenant généralement des résultats fiables facilement et bien meilleurs qu'en calibration software en ce qui concerne la précision de gradation tonale et la précision colorimétrique, surtout qu'elle est souvent secondée par une LUT 3D interne à l'écran, qui même si celle-ci n'est pas modifiable (sauf dans les écrans tout haut de gamme) permet d'obtenir une colorimétrie saine de base sans compensation externe par les tables 3D d'un profil ICC dont la précision est limitée par la liaison 8 bits entre le système d'exploitation et le moniteur.

Elle permet aussi de déplacer un écran d'une machine à une autre sans devoir recommencer à chaque fois une procédure de calibration software, puisque dans le cas de la calibration hardware, tous les paramètres de calibration se trouvent dans l'écran. Sans parler de l'automatisation totale de la calibration (même ordinateur éteint d'ailleurs), qui n'est pas possible en software.

Bref, pour tout travail sérieux en photo je pense qu'il est préférable de bannir la calibration software, parce que dans bien des cas elle est parsemée d'embuches et peut induire des problèmes de qualité d'affichage pour des utilisateurs non spécialistes en calibration (spécialement dans le cadre de l'utilisation d'une courbe TRC L* où les bienfaits de la calibration software sont très discutables), et dans tous les cas elle ne permettra jamais d'obtenir des résultats aussi bons que la calibration hardware.

rmarlet91

Bonjour,

Merci pour vos réponses, ça confirme que mon matériel est vieillissant, ci-dessous quelques précisions concernant ma configuration.
L'environnement est de environ 5 lux (valeur donnée par la sonde) sans lumière naturelle avec juste une
lumière d'appoint, ceci pour les différents écrans dans la même pièce, j'avais par ailleurs fixé la luminosité écran à 120 cd (valeur par défaut
de la COLORMUNKI) puis essayé à 100.
Il est clair que ma config matérielle est purement amateur, la sonde COLORMUNKI display semble bien considérée (pour un usage
amateur/amateur avancé)  si je m'en tiens au site web guide  gestion des couleurs.
Par contre avec la sonde les seuls réglages possibles sont un point blanc en natif ou 6500K (autres températures possibles mais trop chaudes), et gamma 2.2 ou 1.8,
pas de possibilité de point noir en natif ou autre.

Lors de mes calibrations j'ai toujours réalisé le reset dans l'osd de l'écran, en mode avancé, la COLORMUNKI DISPLAY ne
propose de régler manuellement sur l'écran la luminosité et le contraste, rien sur le RGB.

Il est clair que c'est un vieil écran TN, donc pas fait pour la photo mais ceci dit mes autres écrans tout aussi anciens
et je pense aussi mauvais n'ont pas ce soucis de postérisation des noirs.

Cordialement.

olivier1010

Citation de: rmarlet91 le Février 08, 2016, 10:46:55
Bonjour,

Merci pour vos réponses, ça confirme que mon matériel est vieillissant, ci-dessous quelques précisions concernant ma configuration.
L'environnement est de environ 5 lux (valeur donnée par la sonde) sans lumière naturelle avec juste une
lumière d'appoint, ceci pour les différents écrans dans la même pièce, j'avais par ailleurs fixé la luminosité écran à 120 cd (valeur par défaut
de la COLORMUNKI) puis essayé à 100.
Il est clair que ma config matérielle est purement amateur, la sonde COLORMUNKI display semble bien considérée (pour un usage
amateur/amateur avancé)  si je m'en tiens au site web guide  gestion des couleurs.
Par contre avec la sonde les seuls réglages possibles sont un point blanc en natif ou 6500K (autres températures possibles mais trop chaudes), et gamma 2.2 ou 1.8,
pas de possibilité de point noir en natif ou autre.

Lors de mes calibrations j'ai toujours réalisé le reset dans l'osd de l'écran, en mode avancé, la COLORMUNKI DISPLAY ne
propose de régler manuellement sur l'écran la luminosité et le contraste, rien sur le RGB.

Il est clair que c'est un vieil écran TN, donc pas fait pour la photo mais ceci dit mes autres écrans tout aussi anciens
et je pense aussi mauvais n'ont pas ce soucis de postérisation des noirs.

Cordialement.


Il est possible que la dalle de cet écran soit en 6 bits. Pour ces écrans, le mieux est certainement de ne pas faire de calibration du tout, c'est à dire tout laisser en natif : point blanc, gamma. Juste régler luminosité et contraste.

Puis générer un profil icc sur la base d'un écran en natif. C'est le type de calibration qu'on conseille de réaliser sur des ordinateurs portables équipées d'un écran bas de gamme.

Votre éclairage pièce très bas concourt aussi certainement à la détection du problème. Vous pourriez remonter à une vingtaine de lux voir 30 à 50. Ce type d'écran ne permettra pas de toute façon de tirer bénéfice d'un éclairage pièce aussi bas que 5 lux. Il vous faudrait passer sur un écran OLED avec un éclairage pièce aussi faible, mais les prix sont encore très élevés. La norme ISO recommande un éclairage pièce à 32 lux maxi, sans donner de minimum. Mais je pense qu'il est raisonnable de fixer un minimum à une douzaine de lux avec un écran de type LCD, pour masquer un minimum les irrégularités de la dalle dans les tons sombres (IPS glow), et masquer l'impureté des noirs.

La meilleure solution est certainement de renouveler le matériel de toutes façons, en passant sur des écrans qualité photo entrée de gamme, doté de la calibration hardware. Vous verrez que la qualité d'image va faire un bond en avant (ainsi que la stabilité colorimétrique), et que vous pourrez exploiter votre écran sans problème avec un éclairage pièce très faible. (je conseillerais quand même une dizaine de lux au moins avec une dalle LCD d'écran photo, de type IPS, qui n'a pas un noir très pur).


rmarlet91

Bonjour,

Je ne sais pas si l'écran est en 6 bits , toujours est-il que la calibration à permis d'étalonner ma chaîne graphique, étant donné que j'avais fait calibrer mon imprimante j'ai maintenant à l'impression une représentation fidèle de ce que j'ai à l'écran (hormis les tons très sombres).
Lors de l'acquisition de ma sonde, je me doutais de toute façon que mon écran risquait de ne pas tenir la route.

Salutations.

Labuzan

Citation de: rmarlet91 le Février 08, 2016, 13:02:58
Bonjour,

Je ne sais pas si l'écran est en 6 bits ...
C'est simple, il faut voir la doc :
6 bits = 16.1 M de couleurs
8 bits = 16.7

C'est subtile et on n'y prête pas toujours attention à l'achat.
Canon 6D-5DMkIII-5DMKIV

tenmangu81

Erreur de frappe ? Je ne pense pas qu'il y ait si peu de différence entre 6 bits et 8 bits.

Labuzan

Citation de: tenmangu81 le Février 08, 2016, 16:34:49
Erreur de frappe ? Je ne pense pas qu'il y ait si peu de différence entre 6 bits et 8 bits.
Non, c'est ce qui les distingue dans les descriptifs.
En 6 bits, on alterne rapidement 2 couleurs sur chaque pixel, pour tenter d'en faire une qui n'est pas faisable directement ; d'où cette limite.
Canon 6D-5DMkIII-5DMKIV

rmarlet91

Bonsoir,

Rien d'indiqué dans la doc mais en cherchant sur le net, j'ai vu 16.7M, donc visiblement un 8 bits.
Étonnant en fait le 16.1/16.7, on a l'impression que la différence est subtile.

Cordialement.

tenmangu81

Citation de: Labuzan le Février 08, 2016, 19:12:23
Non, c'est ce qui les distingue dans les descriptifs.
En 6 bits, on alterne rapidement 2 couleurs sur chaque pixel, pour tenter d'en faire une qui n'est pas faisable directement ; d'où cette limite.

Wouah, c'est de la haute voltige !!

Labuzan

Canon 6D-5DMkIII-5DMKIV


olivier1010

#15
Citation de: Labuzan le Février 09, 2016, 09:38:10
Petite explication :
http://www.hardware.fr/articles/606-4/dithering-testez-limite-votre-ecran.html

Article très intéressant, qui date un peu (2006) ce qui explique que l'auteur indique qu'il n'existe pas de dalles en 10 bits sauf pour l'imagerie médicale en niveaux de gris.

La situation est différente aujourd'hui, que ce soit sur les écrans photo haut de gamme ou les les moniteurs vidéo broadcast haut de gamme, le vrai 10 bits existe bel et bien, sans FRC.

A noter également qu'il était possible bien avant 2006 d'avoir du 10 bits sur écran à tube cathodique, certaines cartes Matrox disposaient de convertisseurs 10 bits et un plugin Photoshop permettait d'afficher des images en 10 bits par couleur.

Le 10 bits est surtout intéressant pour la vidéo et les effets spéciaux en cinéma, où il est nécessaire de contrôler que les images de synthèse ne contiennent pas d'artecfact qui seraient visibles en projection en salle.

Pour l'instant il est encore mal supporté par les systèmes d'exploitation, il est nécessaire de passer par une fenêtre DirectX ou OpenGL, avec la complication, les bugs et les problèmes de compatibilité que cela peut occasionner, pour pouvoir afficher du 10 bits de façon plus ou moins standardisée.
Pour la photo il est moins indispensable, même s'il remplacera de toutes façons tôt ou tard le 8 bits actuel avec l'arrivée de l'espace couleur Rec2020.

Etant donné que tous les bons logiciels de développement ou de retouche photo implémentent une méthode de diffusion d'erreur (appelé dithering inversé dans l'article mentionné), en pratique il est rarement possible de voir une différence entre une image affichée en 8 bits et cette même image affichée en 10 bits.

Même si on désactive le dithering d'affichage, la plupart des images en provenance de capteurs CMOS ou CCD n'ont pas un rapport signal sur bruit suffisamment élevé pour que de la postérisation se produise en affichage 8 bits. En fait l'image possède en elle même suffisamment de bruit pour masquer l'effet de la quantification un peu limite en 8 bits. On pourrait le dire autrement : l'image est naturellement dotée d'une diffusion d'erreur suffisamment prononcée (le bruit en fait) pour masquer l'imprécision d'affichage causée par une quantification un peu trop faible relativement aux performances de la vision humaine. Par contre si on ajoute des dégradés synthétiques dans cette image, ils pourraient apparaître dans ce cas postérisés. Ce qui n'est d'ailleurs pas toujours le cas, car les logiciels de retouche ajoutent en général automatiquement une quantité de bruit dans les dégradés créés artificiellement.

Sauf si on travaille sur des images de synthèse et qu'on désactive le dithering d'affichage, il est alors possible de voir apparaitre une légère postérisation dans les grands dégradés.

Dans le cas de l'imagerie médicale, la performance des capteurs, des films, ou des systèmes d'imagerie à résonance magnétique en niveau de gris permet certainement de fournir une image source dont le rapport signal / bruit justifie un affichage sur 10 bits. Ce qui explique, étant donné que les performances de l'œil se situe aux alentours de 9 bits pour la visualisation sur un écran (voir le standard DICOM, ou bien des fils que j'ai initié dans ce sous forum), que l'imagerie médicale ait rapidement adopté un affichage sur 10 bits, y compris sur dalle LCD avec un système semi propriétaire utilisant le port DVI dans un format spécial (bit packing) détourné de son utilisation normale, à une époque où le Display Port et encore moins le récent HDMI 10 bits n'étaient disponibles.