je viens de vérifier sur les profils de mon écran réalisés avec ColorNavigator , les TRC 2, 2 ou L* sont codés avec 256 niveaux, donc pas de différence. Il n'est pas impossible que le soft de l'écran réalise une interpolation (?).
Pour info, un ProStar RGB (qui est en L* avec un gamut Prophoto), vanté comme le "up to date" est codé avec 700 niveaux, alors que mon sRGB est codé avec 4096 points, mon Prophoto est codé à l'ancienne avec une équation linéaire... (TRC = 1.796875)
Pour en revenir au L*, il faut l'essayer et le tester, personnellement, je vois une différence uniquement dans les basses lumières et sur quelques photos, ce n'est donc pas une révolution comme certains ont essayé de nous le faire croire, mais un petit progrès dans la gestion des couleurs que seul un essai permet de confirmer qu'il est adapté à son écran.
Maintenant, il n'est pas possible dans une expo de dire que la photo N°n est traitée en L* ou pas
, c'est quelquefois une aide pour régler les basses lumières.
Comme l'expliquait très bien Pio2001, la courbe gamma utilisée pour la calibration écran ne devrait théoriquement pas avoir d'influence sur le résultat final, puisque le profil écran doit corriger les valeurs envoyées vers celui-ci afin de restituer une luminance et des couleurs dérivées d'un espace couleur de connexion commun aux divers périphériques qui si mes souvenirs sont bons est le CIE XYZ. Donc quelque soit la calibration écran, l'application à travers le profil d'écran devrait corriger pour afficher les bonnes couleurs et luminances. On ne devrait donc pas percevoir de différence entre une calibration L* et son profil associé, et une calibration gamma 2.2 et son profil associé.
Oui mais, c'est sans tenir compte d'une part de la précision de la calibration écran, et d'autre part de la précision de la transmission des valeurs RVB vers l'écran. Il y a plusieurs cas de figure à ce niveau :
- Calibration écran hardware, typiquement 12 ou 14 bits par canal
- Calibration écran par la carte vidéo, donc 8 ou 10 bits par canal dans le meilleur des cas
- Pilotage de l'écran en 8 bits par canal, ou 10 bits par canal, peut être plus dans l'avenir lorsque le Rec 2020 deviendra plus courant.
Lorsque la calibration se fait avec une faible profondeur de quantification, il est logiquement préférable de triturer le moins possible le gamma Natif du moniteur afin d'éviter d'introduire des erreurs de quantification dans les valeurs RVB. Dans ce cas de figure, le L* me semble peut recommandable puisqu'il tentera de modifier le gamma natif 2.2 par des courbes tonales appliquées en 8 bits avec les erreurs de quantification que cela implique. On risque donc de se retrouver avec un écran qui ne sera ni exactement en gamma 2.2, ni en L*.

Lorsque la calibration se fait en 12 ou 14 bits, les calculs deviennent plus raisonnables en terme de précision, on peut dans ce cas obtenir une bonne calibration L* à partir d'une dalle plutôt gamma 2.2.
Théoriquement, dans ces conditions, et si l'on considère que le L* est mieux corrélé par rapport à la perception visuelle pour l'étagement en luminance dans les bas niveaux, le L* devrait donner de meilleurs résultats lorsqu'on l'utilise avec un moniteur piloté par une liaison vidéo RVB de faible quantification (8 bits par canal). NB : Le 8 bits sur PC était la norme à l'époque ou le L* est apparu. Alors que le 10 bits existait depuis longtemps en vidéo.
Pour des moniteurs pilotés en 30 bits (cela devient de plus en plus une réalité aujourd'hui sur PC), l'intérêt devient moins évident car même s'il est calibré sur un gamma 2.2, donc un gamma moins bien adapté à la perception de l’œil, le système pourra quand même afficher des valeurs intermédiaires grâce à la liaison 10 bits par canal.
Il reste quand même à prendre en compte les influences des divers espaces colorimétriques au niveau de la précision des conversions. Et là il faut être mathématicien et spécialiste en colorimétrie pour y voir clair. il y a peut être des influences, même si l'on parle uniquement de luminance et sur les faibles niveaux.
Enfin, n'oublions pas que la gestion des couleurs n'est pas une science exacte, puisqu'elle fait correspondre les couleurs à travers un concept de perception tri-stimuli, alors que dans la réalité physique les couleurs se transforment et sont perçues sur la base de leur rayonnement spectral à travers des illuminants qui eux aussi ont un contenu spectral, ce qui est autrement plus complexe et ne peut pas être caractérisé exactement par des approximations basées sur un système tri-stimuli. Sans parler des différences entre les divers observateurs qui ne sont pas forcément tous proches de l'observateur standard et des conditions de visualisation de cet observateur standard.
Donc même lorsque nous auront des boitiers numériques capables de capturer des spectres et non des valeurs RVB, même si un jour les imprimantes seront capables de reproduire exactement ces spectres originaux, il subsistera encore des différences dans la perception des couleurs parce que tous les observateurs n'ont pas la même perception d'un même rayonnement spectral

A moins que dans quelques années les profils écrans prennent en charge les caractéristiques visuelles de chaque observateur

Des différences également par rapport à ce que voudrait le photographe parce qu'un observateur ne regardera pas forcément le tirage avec le bon illuminant (le bon éclairage pour ceux qui ne connaissent pas le terme illuminant qui est une notion utilisée en colorimétrie). Même un tirage qui serait réalisé en impression "spectrale" ne délivrerait pas les mêmes couleurs selon l'illuminant utilisé.
Conclusion messieurs les photographes, si vous voulez que les observateurs de vos tirages voient ce que vous voulez qu'ils voient, n'oubliez pas de leur demander de faire des tests de perception visuelle pour vous assurer qu'ils ne soient pas trop différents de vous ou de l'observateur standard, et préconisez leur un éclairage adapté, éventuellement, vendez leur l'éclairage avec le tirage

Pour finir, les essais que j'ai fait en gamma 2.2, moniteur calibré en hardware sur 14 bits, et liaison vidéo en 10 bits par canal, montrent qu'on ne voit aucun banding ni dans les noirs ni dans les dégradés de gris. La précision du système semble suffisante pour l'oeil humain. Ce n'est pas le cas si je passe la liaison vidéo en 8 bits par canal. Là on peut clairement voir apparaître un léger banding dans les dégradés, qu'ils soient gris, verts, rouges ou bleus. L’œil arrive donc à percevoir les sauts de valeur en 8 bits, tout du moins sur des dégradés monochromes. Je n'ai pas fait d'essais sur des dégradés passants d'une couleurs à une autre où je pense que le banding risque d'être moins flagrant.
Donc lorsqu'on recherche la perfection, et avant d'incriminer telle ou telle cible de calibration, profil ou système CMS, il me parait important de passer obligatoirement sur un moniteur à calibration hardware 12 ou 14 bits, et de s'assurer que les logiciels, la carte vidéo et l'écran sont capables d'afficher en 30 bits, soit 10 bits par canal. C'est à cette condition il me semble que vous pourrez juger du bien fondé ou non de telle ou telle cible de calibration. Sinon vous risquez bien d'être aveuglés par les défauts de quantification du système d'affichage. Désolé pour ceux qui possèdent des machines Apple, pas de 10 bits pour l'écran

Mais du 16 bits pour l'impression
