Voir vraiment 3*10 bits

Démarré par restoc, Octobre 27, 2011, 16:40:33

« précédent - suivant »

Nikojorj

Citation de: Diapoo® le Février 27, 2013, 18:59:15
Oui bien sûr, mais le RAW n'étant pas un format autonome, il vaut mieux l'exporter en bitmap pour l'exploiter ou le conserver ... pour la postérité  :)
Ben si, Raw + XMP c'est quelque chose de très pérenne et efficace pour archiver qq chose destiné à être retravaillé! y'a que si on rajoute du traitement bitmap quon a besoin du TIFF.

Enfin bon, on est tous bien d'accord : le 10 bits, pour afficher des jpegs, c'est un poil sous-employé. ;D

Verso92

Citation de: Diapoo® le Février 27, 2013, 13:45:13
J'y lis entre autres que seules les images « codées en 16 bits » peuvent tirer parti d'un affichage 3 x 10 bits — à supposer que tous les paramètres matériels et logiciels soient conformes naturellement.
Pour ceux qui savent, cela signifie donc que seules les images Tiff ou PSD 16 bits peuvent profiter d'un affichage 3 x 10 bits ???

Par définition, une image codée en 3x8 bits ne gagnera rien à être affichée en 3x10 bits (je pense que c'est évident et que ça ne justifie pas d'explications supplémentaires).
Et comme une image, c'est soit 3x8 bits, soit 3x16 bits...

Diapoo®

Nous sommes d'accord mais il me semble que ça va mieux en le rappelant : sauf erreur je n'avais pas trouvé l'info dans ce fil. Et ta copie d'écran ... JPEG pour montrer la différence 8/10 bits avait semé le trouble dans mon esprit  :D
http://www.chassimages.com/forum/index.php/topic,137922.msg2634914.html#msg2634914
Nage au clair de lune avec ...

Verso92

Citation de: Diapoo® le Février 27, 2013, 23:55:05
Nous sommes d'accord mais il me semble que ça va mieux en le rappelant : sauf erreur je n'avais pas trouvé l'info dans ce fil. Et ta copie d'écran ... JPEG pour montrer la différence 8/10 bits avait semé le trouble dans mon esprit  :D
http://www.chassimages.com/forum/index.php/topic,137922.msg2634914.html#msg2634914

Ce fichier "test" permet de vérifier que l'affichage est bien configuré en 3x10 bits. Maintenant, sur des vraies photos, difficile (pour moi, en tout cas) de quantifier la différence...

gebulon

Up !

En cours de recherche d'infos sur le sujet, je me permet de faire remonté ce fil.
Merci à tous ;)

Roybon

tout pareil :)
je vois en debut de post, qu'une config "affichage 10 bits" demande également du logiciel, vous parlez beaucoup de Photoshop quid de Lightroom ?

Verso92

Sauf erreur de ma part, Photoshop est le seul logiciel "photo" qui permet l'affichage en 3 x 10 bits...

Roybon

merci Verso, du coup peut on dire que si on utilise pas Photoshop il est inutile de s'équiper en "10 bits" ou bien voit on une différence à l'écran ?
cela me laisse perplexe, je serais curieux de voir en vrai ce que ça donne. Le juge de paix restant pour moi le papier.

Verso92

Citation de: Roybon le Janvier 03, 2015, 10:49:16
merci Verso, du coup peut on dire que si on utilise pas Photoshop il est inutile de s'équiper en "10 bits" ou bien voit on une différence à l'écran ?
cela me laisse perplexe, je serais curieux de voir en vrai ce que ça donne. Le juge de paix restant pour moi le papier.

Comme déjà évoqué, la différence se voit sur le fichier "test" fourni par AMD (un dégradé de gris).
Après, un intervenant m'avait envoyé une photo N&B avec de fins dégradés pour me demander si je voyais une différence entre l'affichage 8 bits et 10 bits... et là, ben... pas moyen de voir une quelconque différence.

yaquinclic

Si la différence de perception et équivalant à un de mes cheveux, l'argument 3x10 bits, peut on penser que c'est plus une communication de markéteux pour les geek ? Et si 10 à 15% d'utilisateur qui perçoivent ou la pensent la percevoir cette différence peut les conforter ou les rassurer dans leurs créations c'est déjà çà.
La c'est trop pointu pour moi.

A+ ;)

Roybon

c'est exactement ce que je cherche à savoir, parce que la différence de prix CG+Ecran est elle bien réelle.

Verso92

Citation de: yaquinclic le Janvier 03, 2015, 12:29:20
Si la différence de perception et équivalant à un de mes cheveux, l'argument 3x10 bits, peut on penser que c'est plus une communication de markéteux pour les geek ?

La question n'est pas là... les écrans haut de gamme sont en 3 x 10 bits.
Mais limiter l'intérêt de ces écrans à cette spécification me semble étonnant... après, ne pas dépenser trop d'argent pour se payer la CG qui va avec ces 10 bits n'a que peu d'importance sur le résultat final, AMHA.

Lechauve

Citation de: ClaudeSch le Novembre 05, 2011, 11:04:33
Pour la 2D peu importe les performances
personnellement je n'ai jamais constaté de différence perceptible quelque soit la carte

sinon pour la 3D voici un classement des cartes graphiques:
http://www.surlix.com/fr/pc/classement-complet-cartes-graphiques.php
pour ce qu'il vaut, car tout dépend du poids que l'on assigne aux critères de comparaison
on constate que les firepro ont un bon indice prix/performance comparées aux NVIDIA pro
maintenant je ne suis pas sectaire
ton lien est mort
La photo: que de la lumière...

Roybon

http://www.graphic-reseau.com/photographie_francais/ecrans/ecrans-eizo-nec/ecrans-nec/ecran-nec-multisync-ea304wmi.html
http://www.graphic-reseau.com/photographie_francais/ecrans/ecrans-eizo-nec/ecrans-nec/ecran-nec-multisync-pa302-gamme-non-spectraview-noir.html

Je ne suis pas expert sur les écrans mais quand je regarde ces deux modèles la seule différence que je puisse voir sur les caractéristiques c'est bien la prise en charge du mode d'affichage 10 bits, non ?
Evidemment il faut voir ces écrans "en vrai" mais c'est de plus en plus difficile de trouver des showroms/boutique qui en ont en stock. il est vrai que pour la CG il y a des modèles 10 bits à moins de 150€

tenmangu81


Lechauve

La photo: que de la lumière...

belnea

Canon R3 Powered

tenmangu81

Si je regarde les mêmes rubriques sur mon MBP Retina 2014, il y a écrit : profondeur de couleurs 32 bits. Mieux que 30 bits  ;D

olivier1010

Citation de: Verso92 le Novembre 05, 2011, 01:39:42
La moins chère chez ATI semble être la FirePro V3800 (une centaine d'euros).

Oui c'est pas cher mais attention ces anciennes cartes ne fonctionnent apparemment qu'avec Photoshop dans le monde de la photo en ce qui concerne l'accélération GPU. J'ai une V7900 et elle ne fonctionne ni avec LightRoom ni avec Capture One pour l'accélération Open CL.
Il faut des cartes plus récentes pour qu'elles soient plus compatibles, et obligatoirement dans les séries pro (Quadro chez Nvidia ou Firepro chez Ati) pour avoir du 10 bits par canal.

Par exemple la série W en Firepro.

olivier1010

#94
Citation de: restoc le Décembre 09, 2011, 13:43:53
A part photoshop CS4 et CS5, les applis médicales Dicom, les applis kaki il n' y a pas foule sur le 3*10 bits. Pas trouvé de petit viewer 16 bits sous Windows pour le moment. nview ramène tout en 8 bits. Pour Linux ...Gimp ???

Le 10 bits n'est pas indispensable en Photo même s'il apporte un petit plus dans les bas niveaux de luminance en ce qui concerne la précision de gradation tonale, surtout lorsque les courbes tonales des espaces sources et destination sont très différentes.

Seul Photoshop le supporte pour le moment dans les applications pro, (Zoner photo Studio également en moins pro).

Sur des images classiques (non synthétiques), je n'arrive pas à faire la différence entre affichage 8 bits et 10 bits. Malgré un basculement instantané d'un mode vers l'autre (pour repasser en 8 bits dans Photoshop il suffit de déplacer une palette d'outil au dessus d'un bord de l'image. Cela empêche le rendu OpenGL de s'effectuer en 10 bits. Cette astuce est facilement vérifiable avec le fichier test ramp.psd

Les autres applications ajoutent du bruit pour éviter le banding en 3x8 bits, ce qui augmente légèrement le bruit dans l'image, à un niveau qu'il est difficile (voir impossible ?) de percevoir. Malgré certaines idées reçues, il se voit quand même assez facilement sur des images de synthèse en 3x 8bits, même sur des écrans parfaitement étalonnées sur une courbe TRC perceptuelle genre L* ou DICOM.

Il suffit d'ouvrir le fichier 16 bits ramp.psd pour s'en convaincre.

Cela dit, on peut très bien faire de la photo de qualité sans affichage 10 bits.

Au delà du 10 bits pour la photo, qu'on peut considérer comme un luxe (pour le moment, cela changera certainement lorsque les gamuts et les contrastes écran augmenteront avec le OLED), les écrans 10 bits sont indispensables dans certains domaines (liste non exhaustive) :

- monitoring vidéo

- monitoring cinéma (DCI)

Le domaine du cinéma numérique est particulièrement exigeant, avec son espace couleur à très large gamut (XYZ), et un système de projection capable de monter à 12 bits par canal. Surtout lorsqu'il intègre des séquences en imagerie de synthèse qui doivent se fondre dans des images réelles. Des écrans ou projecteurs haut de gamme, ainsi que parfois des systèmes de gestion des couleurs en virgule flottante sont alors nécessaires pour obtenir des résultats optimaux.

L'imagerie de synthèse ayant tendance ou pouvant produire des images totalement dénuées de bruit, il est d'autant plus important d'avoir un monitoring capable de montrer le banding qui pourrait apparaître à la projection en salle. Banding qui, s'il n'était pas détecté au montage ou à l'étalonnage du film, pourrait s'avérer catastrophique pour l'image de marque des intervenants.

Un petit rectificatif concernant le support du 10 bits, il n'est pas si nouveaux que ça, et même si son support reste encore inachevé, deux standards sous Windows le supportent : OpenGL et DirectX 3d. DirextX supporte également des modes 16 bits et même 32 bits float (4x16 et 4x32 avec un canal pour la transparence :).
Matrox proposait il y a une quinzaine d'années si mes souvenirs sont bons un plugin Photoshop pour afficher en 10 bits sur ses cartes. Je me souviens avoir essayé cela à l'époque sur une carte vidéo qui devait être une Parhélia, et un écran à tube CRT analogique qui par nature supporte 10 bits ou plus.

Par contre DirectX contrairement à OpenGL impose une fenêtre plein écran à accès exclusif (une surface dans le jargon directX). DirectX est de plus propriétaire, ce qui fait qu'OpenGL 10 bits semble beaucoup plus utilisé que DirectX.

OpenGL en 10 bits n'est pas dénué de défauts non plus, puisque selon ce que j'ai pu en voir avec Photoshop, le simple fait de chevaucher la fenêtre de rendu 10 bits OpenGL avec une palette d'outil annihile le rendu 10 bits qui repasse en 8 bits.

Cela dit avec l'arrivé du HDMI 1.3 et 2.0 le 10 bits est supporté dans un format de connectique courant, et le standard TV UHD commence également à le supporter. En conjonction avec l'arrivée de la technologie d'affichage OLED (sony jusqu'à maintenant en vidéo pro, mais on voit maintenant LG arriver sur le marché grand public avec des écrans TV OLED à moins de 4000 euros) qui risque fort d'augmenter fortement le contraste d'affichage et certainement le gamut, le 10 bits deviendra de plus en plus incontournable pour éviter tout problème de banding.

Enfin, il est reconnu (et vérifiable) que l'œil peut assez facilement discerner environ 450 niveaux de luminance, pour des niveaux de luminance faible tels que ceux d'un écran (environ 100 cd/m²), et environ le double pour des niveaux de luminance plus élevés d'environ 2000 cd/m². Il faut donc au moins 9 bits sur écran, et 10 bits en projection forte luminance, pour satisfaire au mieux les performances de notre vision.

Cela place le 8 bits dans une situation de plus en plus inconfortable. Il a d'ailleurs été remplacé par des modes 10 bits, soit en niveaux de gris pour l'imagerie médicale avec un système de bits packing plus ou moins propriétaire sur port DVI permettant d'avoir 10 bits sur un affichage 4K depuis des années, soit en couleur pour la vidéo pro avec les formats Yuv 4:2:2 ou RGB 4:4:4 et la connectique SDI, depuis de longues années également. Le cinéma DCI lui pousse le luxe un peu plus loin, avec un affichage en espace couleur XYZ 12 bits par composante :) Il faut bien justifier le prix des places de ciné :)

Pour revenir à la photo, s'il est amusant de jouer avec le 10 bits, l'intérêt est plutôt limité. A ceux qui voudrait investir quelques centaines d'euros voir un millier d'euros dans une carte vidéo pro (Quadro ou Firepro) juste pour avoir du 10 bits, je leur conseillerais plutôt d'investir dans un écran Eizo ou Nec, ou peut être Dell à calibration Hardware, qui leur donnera une base de travail stable et précise, et de de toutes façons évolutive en 10 bits car tous ces écrans photo haut de gamme supportent le 10 bits. Et puis également soigner l'éclairage de la pièce, en respectant au mieux les recommandations ISO 12646:2004 (Graphic technology -- Displays for colour proofing -- Characteristics and viewing conditions). Car l'écran n'est pas le seul responsable d'une bonne qualité d'affichage. Cela apportera beaucoup plus qu'un passage en 10 bits. Enfin la lecture d'un bon livre sur la gestion des couleurs, ou sa relecture, ne peut pas faire de mal non plus :)


arky28

Citation de: Verso92 le Octobre 27, 2011, 23:58:42
Bon, avec toutes les réserves d'usage liés à ce genre de procédure (photographie vite faite de l'écran), un "aperçu" de ce que ça peut donner :

C'est clair, net et précis

olivier1010

Citation de: Verso92 le Janvier 03, 2015, 10:02:46
Sauf erreur de ma part, Photoshop est le seul logiciel "photo" qui permet l'affichage en 3 x 10 bits...

Il y a aussi Zoner photo Studio dans le domaine de la photo.
Sinon certains logiciels 3D ou logiciels de montage ou grading vidéo comme Davinci Resolve savent sortir en 10 bits, pas forcément sur une carte vidéo informatique d'ailleurs. Pour Davinci par exemple, il faut une carte vidéo pro, avec sortie SDI.

olivier1010

Citation de: Roybon le Janvier 03, 2015, 13:59:34
c'est exactement ce que je cherche à savoir, parce que la différence de prix CG+Ecran est elle bien réelle.


Le passage au 10 bits n'est pas indispensable en photo tout du moins pour travailler avec les écrans actuels.

Cela dit il est probable dans l'avenir que l'élargissement du gamut des écrans et l'augmentation de leur contraste rende le 10 bits incontournable.
La différence de prix pour passer au 10 bits est de 150 à 450 euros environ selon la carte vidéo choisie. De plus Photoshop supporte des cartes pro d'ancienne génération, comme la série V de ATI, ce qui offre la possibilité de trouver ces cartes en occasion pour des prix encore inférieurs.
Ce n'est donc pas le support du 10 bits qui fera une grosse différence de prix, mais le choix de l'écran, dont le prix va osciller entre disons 700 euros et 2500 euros selon la taille est les performances, pour un vrai écran qualité photo à calibration hardware. Pour passer au 4K en 31 pouces le prix pourra monter à 5500 euros...

A noter que le prix d'un écran vidéo de référence 4K en 30 pouces avec une vrai dalle 10 bits (au lieu de 8 + 2 FRC comme souvent pour les écrans photo) se situe plutôt entre 15 000 et 25 000 euros.. Donc ne nous plaignons pas trop en photo :)
Au delà du 10 bits, pour la photo, l'homogénéité de la dalle et le support d'une calibration hardware me semble bien plus importants. Faites quelques mesures d'homogénéité de dalle sur des écrans photo autres que les modèles haut de gamme, ou pire sur des écrans bureautiques, et vous verrez que c'est loin d'être homogène.

Vous pouvez faire cela simplement en déplaçant la sonde sur un bord de l'écran lors de la procédure de validation du profil écran. Cela vous donnera les valeurs Delta E pour l'ensemble des patchs de test.

Une dalle LCD n'est pas homogène par nature, principalement à cause du rétroéclairage par les bords. La seule façon de compenser pour obtenir un Delta E satisfaisant sur toute la surface est d'utiliser une table de compensation numérique, associée à une procédure de calibration en usine pour uniformiser la dalle.

C'est là que se joue la différence entre les écrans photo et ce qui explique aussi certainement une bonne partie de la différence de prix entre un écran entrée de gamme et un haut de gamme.


gebulon

Alors ???

On en est ou du 10 bits couleur???

Perso, après avoir acheté mon écran wg, j'ai aussi pris une Quadro K2200 nvidia, fais ma calibration et réglé ma définition.
J'utilise LR à 99%, cela veuyt dire que: pas de 10 bits pour moi :p

Malheureusement, j'ai à aujourd'hui un problème avec ma CG qui plante avec les drivers à jour, mais qui fonctionne avec celui livré sur cd...
Le problème c'est que:

1- ce n'est pas normal.
2- j'ai mis un moment à déterminé la panne
3- j'ai envoyé ma quadro en sav, sous garantie
4- j'ai un écran pourris maintenant avec la CG intégrée, qui gère pourtant la résolution de mon 273 et affiche fièrement 32 bits couleur dans son menu intel.

Résultat: ce n'est plus des ciels que j'ai dans LR mais plutôt un escalier bleu et cela même en mode développement :(

La question que je me pose c'est:
Est ce que mon problème va être résolu par le sav?
N'est-il pas préférable de changer de crèmerie pour une Firepro?
Sachant que je n'excèderai pas 2 écrans de 273 en WG.


Verso92

Citation de: gebulon le Décembre 14, 2015, 18:51:46
N'est-il pas préférable de changer de crèmerie pour une Firepro?

En ce qui me concerne, j'ai une ATi FirePro V5800, et tout n'est pas tout rose pour autant : CS5 plantait en 3x10 bits (j'étais donc revenu en 3x8 bits), à l'époque. Aujourd'hui, avec CS6, ça roule (ouf !).
Et quand je lis les read me de SpectraView II (le logiciel d'étalonnage hardware de mon Nec 241w), ça fait peur : ça liste les versions de pilotes ATi qui ne fonctionnent pas bien avec ce logiciel. Comme je suis du genre prudent, j'ai actuellement une version qui marche, et je ne la mets pas à jour !