calibration hardware

Démarré par icarex35s, Novembre 06, 2010, 12:34:00

« précédent - suivant »

icarex35s

je vais investir dans un écran aux caractéristiques "photo" de 24".

j'ai lu que certains modèles possédaient la possibilité de "calibration hardware" alors que d'autres proposaient seulement une "calibration software".

Pouvez vous m'expliquer le principe de fonctionnement des ces deux technologies ?

Quelle est la différence entre les deux procédés : avantages et inconvénients ?

merci

icarex35s


JFF

Bonsoir,

Je pense que ce sujet à été déjà abordé, et tu as auras certainement des renseignements en passant par l'option de recherche du forum.

Pour répondre à ta question, la calibration software crée un profil qui se charge au démarrage du système d'exploitation dans une mémoire de la carte vidéo appelée L.U.T (Look-Up Table), table de correspondance.

Dans le cas d'une calibration « hard », la table L.U.T  se situe dans l'écran, elle est en générale plus précise (nombre de bit supérieure 10-12 voir 14 par canal), le calibrage peut être réalisé à partir du logiciel livré avec le moniteur, ou bien en utilisant un logiciel permettant la calibration hard, BasicColor par exemple.  Les dégradés sont plus uniformes, l'étendue d'affichage des couleurs plus importante.

Amicalement.

Verso92

Un p'tit up...

J'aimerais bien en savoir un peu plus sur cette calibration hardware... des liens à proposer (en français, ça serait cool...  ;-) ?
Question en passant : le HP LP2475w propose-t-il cette calibration hardware ? J'ai cru comprendre que oui...

Manu_14

Non, pas de calibration hardware pour le HP (il n'a pas de carte capable d'héberger une correction gamma et/ou colorimétrique).

Manu

philou_m

pas de calibration hard pour le HP2475

pour avoir cette possibilité, il semble que le NEC PA241 W soit un excellent choix associé au logiciel Spectraview (un fil traite du sujet)

rafale52

7D + 20D + quelques cailloux

Verso92

Citation de: Manu_14 le Décembre 21, 2010, 13:49:49
Non, pas de calibration hardware pour le HP (il n'a pas de carte capable d'héberger une correction gamma et/ou colorimétrique).
Citation de: philou_m le Décembre 21, 2010, 14:15:28
pas de calibration hard pour le HP2475

pour avoir cette possibilité, il semble que le NEC PA241 W soit un excellent choix associé au logiciel Spectraview (un fil traite du sujet)

C'est bizarre : un pote ayant étalonné un LP2475w s'est vu proposé l'option "calibration hardware" avec le logiciel de Colorvision (Spyder3)... à éclaircir !

(cela m'étonnait, aussi, dans cette gamme de prix...)
Citation de: rafale52 le Décembre 21, 2010, 15:04:36
Bonjour,
peut-être un début d'explication.
C'est de la pub NEC, mais en Français. ;) :D
http://www.nec-display-solutions.fr/p/download/pr/File/cp/Internet/Shared/Content/Teaser/Downloads/PDF-SVRefOverview-%28french%29.pdf?e=e2s1&fn=%C3%89crans+LCD+NEC+pour+les+applications+exigeantes+en+couleurs.pdf

Amitiés.
A+.
J-F.

Merci pour le PDF, J-F !

;-)

Manu_14

Citation de: Verso92 le Décembre 21, 2010, 19:30:34
C'est bizarre : un pote ayant étalonné un LP2475w s'est vu proposé l'option "calibration hardware" avec le logiciel de Colorvision (Spyder3)... à éclaircir !

Cet écran  utilise la norme DDC qui permet à l'ordinateur de commander certains paramètres du menu (luminosité, contraste...). Si le soft d'étalonnage est compatible, tu peux ainsi piloter l'écran. C'est peut-être à ça que ton pote faisait référence. Mais cela n'a rien à voir avec la calibration hardware.

Manu

janfi67

Citation de: JFF le Novembre 07, 2010, 22:12:51
Dans le cas d'une calibration « hard », la table L.U.T  se situe dans l'écran, elle est en générale plus précise (nombre de bit supérieure 10-12 voir 14 par canal), le calibrage peut être réalisé à partir du logiciel livré avec le moniteur, ou bien en utilisant un logiciel permettant la calibration hard, BasicColor par exemple.  Les dégradés sont plus uniformes, l'étendue d'affichage des couleurs plus importante.

Est-ce vrai uniquement avec une carte graphique qui supporte 10 bits par couleur sur le DVI/HDMI?

Parce que je ne vois pas bien ce que ça change une LUT sur 10 bits avec un lien 8 bits/couleur entre carte graphique et moniteur.

Verso92

Citation de: janfi67 le Décembre 21, 2010, 20:49:29
Parce que je ne vois pas bien ce que ça change une LUT sur 10 bits avec un lien 8 bits/couleur entre carte graphique et moniteur.

Pourtant, à chaque fois qu'il y a calcul sur des données numériques, il est d'usage de prendre des données quantifiées plus finement pour obtenir de meilleurs résultats en fin de chaine (arrondis et troncatures lors des calculs, notamment).

Lors du post-traitement d'une photo, on obtient de meilleurs résultats si on part d'une image 16 bits que si on travaille à partir d'une image 8 bits, même si la différence entre une image finalisée 8 bits vs 16 bits sera quasiment indiscernable à l'écran.
Ceci est vrai pour tout traitement d'informations numériques, et pas seulement qu'en photo, d'ailleurs...

janfi67

#11
OK pour le cumul des erreurs d'arrondi. Je vais même plus loin que toi. En cas de post-traitement sévère, on voit nettement sur le résultat final si les traitements ont été calculés en 8 ou 16 bits.

Ca fait un certain temps déjà qu'en interne les pipelines de traitement vidéo des cartes graphiques sont à plus de 8 bits (chez ATI ça sort du 10 bits/canal en HDMI ou display port par exemple, en interne, c'est plus de 12 bits). Il en est de même pour les télé haut de gamme. C'est indispensable pour que le moindre réglage (ou profil icc) ne mange pas de niveau de gris.

Pour les moniteurs, je n'en sait rien. Certains annoncent des pipelines à 16 bits (et des LUT à 12 bits) mais quid des moniteurs moyenne gamme?

Par contre, il faut bien différencier la profondeur de la LUT et le nombre de bits utilisés pour les calculs (qui seront quoiqu'il arrive tronqués ensuite pour une sortie sur une dalle 8 ou 10 bits).

Ce que j'en retiens, c'est que les moniteurs qui proposent des calibrations "hardware" ont non seulement des LUT à 12 ou 14 bits, mais des dalles à 10 bits, des traitements à 16 bits et qu'ils supportent une entrée à 10 bits/couleur.