Bonjour,
A ceux qui voudraient commencer à investir sur le 10 bits, un petit pense-bête que ceux qui ont l'expèrience peuvent enrichir.
Les conditions pour VOIR vraiment du 10 bits sont assez pointues et doivent être toutes présentes. On quitte le monde du 8 bits facile trés standard, pour entrer dans un domaine demendant investissement, attention et d'oublier qqs préjugés!
- D'abord : Chacun pour soi !! Désolé mais certains ne verront jamais 10 bits. Seul 5 % des hommes et 15 % des femmes ( et oui , Aieh ) peuvent: Pas assez de batonnets dans l'oeil, bâtonnets trop petits etc. Certaines femmes ont une caractéristique précise elles sont tetra... qqchose dont je ne me souviens plus et ont la capacité à voir bp plus de nuances que les hommes. Il faut donc se demander si on a une chance d'être dans les 5 ou 15 % avant d'investir et çà seuls des tests pointus le révélent.
-OS et Logiciels de visu : se souvenir que Windows et les applications de visualisations windows XP, Vista et 7 ont des API qui ne supportent pas les sorties autres que 8 bits vers la CG. Seules des applications spéciales ( Médicales conformes à la norme Dicom 14 et Photoshop 5 en validant OpenGL en 10 bits ) bypassent les API windows. Il faut donc en + du HW une config SW qui permette de voir le 10 bits. Par exemple pour les Nikonistes View Nx et CNX 2 ne le fait pas . Gimp ???,
- Les conditions pour voir du 10 bits en 2650 *1600 : diplay port obligatoire, NEC 301 ( pas encore d' Eizo 30 " avec Display port).
- Cartes graphiques : bravo aux explorateurs sur ATI.
- Etant Nvdia voici ce qui marche : il faut aller sur les cartes Pro Quadro 600, 2000, 4000. Là on peut aller d'emblée à 2650*1600*30. Attention par ex à deux points : une quadro 4000 consomme 142 watts et c'est un format long ( tés long) sur bus PCI Ex et dans certains coffrets si les disques sont trop prés çà ne passe pas. Donc si en plus il faut changer de config çà fait cher. ( Une quadro 4000 est dans les 730 Euros). MAis bon çà tient la route: précision, fluidité en haute résolution, pilotage de la vraie stéréoscopie etc.
-Avoir un environnement de travail parfait: lumière d'ambiance trés atténuée et stable, réglée en fonction de la vision de l'opérateur ( chacun n'a pas les mêmes seuils de sensibilité/détéctabilité) . CAsquette quasi obligatoire et pas de fenêtres écran à fond brillant ouvertes en même temps à côté ou en fond d'image etc etc..
Bref voir du 10 bits , si on a la capacité , çà se mérite ... sans parler du ( des ) chèques à faire !!
Bon courage and welcome.
Citation de: restoc le Octobre 27, 2011, 16:40:33
- Les conditions pour voir du 10 bits en 2650 *1600 : diplay port obligatoire [...]
Il me semble même que pour afficher en 3x10 bits, c'est de toute façon DisplayPort
obligatoire, quelle que soit la résolution...
Oui, effectivement. En tous les cas c'est sûr que çà marche en DP.
J'ai une question bête : quelle différence entre Spectraview II et Spectraview Profiler 4.1. J'utilise ( avec bonheur le profiler) mais je ne connais pas le SII ?
Bof.
Perso, réussir à afficher du 3x10 bit, çà me ferait une belle jambe. je préfère un bon papier avec un bon calage.
Je trouve çà futile...
Pa de pb Belnea on fait de trés bonnes choses en 3*8.
Dire que c'est futile de façon péremptoire et universelle... no comment.
Citation de: belnea le Octobre 27, 2011, 18:38:16
Bof.
Perso, réussir à afficher du 3x10 bit, çà me ferait une belle jambe. je préfère un bon papier avec un bon calage.
Je trouve çà futile...
Le calage a d'autant plus de chances d'être précis que la CG délivre plus de bits. Après, qu'on soit dans le pouillème, personne ne le conteste ici (enfin, il me semble)...
En ce qui me concerne, j'ai franchi le pas parce que je trouvais dommage de ne pas exploiter à fond la dalle 10 bits de mon écran et que ça me coûtait quelques dizaines d'euros supplémentaires, au bout du compte.
En ce qui concerne le papier, l'un n'empêche pas l'autre...
C'est quand même plus agréable de lire des articles sur des cartes et écran en 10 bits, plutôt que de voir cette vague d'écrans 6 bits qui fleurissent dans les grandes surfaces.
idem pour moi.
De même j'en suis à mon deuxième écran wide gamut et je ne peux plus m'en passer
Je me souviens qu'au début des capteurs numériques certains disaient que ça ne servirait à rien de dépasser 8 Mpx...
Depuis toujours ainsi va le monde.
Au temps pour moi. je n'avais pas vu que cela concernait surtout les wide gamut :P
En fait l'utilité est un peu inexplicable par la techique seule, il faut le voir et dans ce cas le sentir sur des images qui s'y prêtent.
Mais à l'usage ...comme le dit Claude Sch une fois qu'on y est passé que ce soit de srgb a Argb et de 3 à 12 ou 24 mega pix et de 8 à 15 Il difficile de revenir en arrière.
C'est comme de passer de 1920*1200 à 2560*1600 : voir des photos en A2+ avec une res de 72 Dpi environ c'est tellement jouissif et pratique pour juger une image avant impression qu'on peine à s'en passer quand on y a goûté, même avec un bon 24". et puis en mettant un passe partout autour de l'écran on fait une expo directe ;D ;D
QQs conséquences du passage à 10 bits : une belle activité pour l'hiver: quand on a ses photos anciennes avec un raw 12 bits de qualité bien rempli évidemment et soigneusement pré traitées pour le 8 bits et bien çà vaut le coup de les reprendre finement pour en tirer la quintescence. Il faut évidemment que l'image ait la richesse de nuances et d'autres caractéristiques qui me semblent être de même nature que la différence de modelè qu'on perçoit entre une image Moyen format et un 24*36 . Il ya qq chose de plus qualitatif mais pas facile à décrire que je ne sais pas définir.
Bonsoir,
Citation de: restoc le Octobre 27, 2011, 17:23:57
Oui, effectivement. En tous les cas c'est sûr que çà marche en DP.
J'ai une question bête : quelle différence entre Spectraview II et Spectraview Profiler 4.1. J'utilise ( avec bonheur le profiler) mais je ne connais pas le SII ?
SW II est une application NEC destinée exclusivement au marché des USA, et de l'Australie, permettant de calibrer en hard les écrans à l'instar des SpectraView (SV...), par exemple les Multisync PA...w.
Cette solution coute environ 160$, et reste donc assez économique. Les écrans SpectraView sont plus destinés au marché Européen et coutent plus cher, ils sont livrés d'emblée avec un logiciel de calibration, SpectraView Profiler 4.1, qui est en fait un clone de BasICColor.
Le choix de NEC est assez ambigu, car pour bénéficier d'une manière légale de la calibration hard en Europe, il faut acheter obligatoirement un écran SpectraView livré avec SpectraView Profiler. Au USA, il suffit d'acheter un écran de la série PA et SV II... Sachant que les écrans PA vendus en Europe sont les mêmes... chercher l'erreur. Donc finalement en Europe, nous achetons des écrans PA avec l'électronique permettant la calibration hard, et que nous payons donc, avec l'impossibilité de l'utiliser, à moins d'employer des moyens détournés...
De plus NEC utilise le terme SpectraView* à toute les sauces, semant ainsi la confusion.
* "SpectraView II", "écran SpectraView", "SpectraView Profiler" à ne pas confondre avec "MultiProfiler"...
Amicalement,
J-F
Quelqu'un a vu (en vrai de ses yeux !!!) du 10bits sur
- du Eizo (10bits reels)
- et du Dell ou HP (10 bits = 8bits+Frame Rate Control (FRC)) ?
Commentaires ? Liens ?
Citation de: SimCI le Octobre 27, 2011, 23:02:56
Quelqu'un a vu (en vrai de ses yeux !!!) du 10bits sur
- du Eizo (10bits reels)
En ce qui me concerne, uniquement 10 bits sur mon Nec P241w (10 bits
réels)... et avec mes yeux !
Bon, avec toutes les réserves d'usage liés à ce genre de procédure (photographie vite faite de l'écran), un "aperçu" de ce que ça peut donner :
D'après AMD ATI:
les écrans suivants sont des "true 10 bit per component color"
> Dell UltraSharp U2711
> Dell UltraSharp 2709W
> Eizo ColorEdge CG223W
> Eizo ColorEdge CG243W
> Eizo ColorEdge CG245W
> Eizo ColorEdge CG301W
> Eizo FlexScan SX2262W
> Eizo FlexScan SX2462W
> HP DreamColor LP2480zx
> NEC MultiSync® LCD2180WG
> NEC MultiSync® PA241W
cette liste n'est sûrement pas exhaustive mais c'est celle qui est fournie dans leur document:
User Guide | Enabling 10-bit Color for Adobe® Photoshop® CS4
and Adobe® Photoshop® CS5 with ATI FirePro™ Professional Graphics Adapters
une petite recherche sur le site ATI cartes graphiques FirePro permet de trouver ce document
Citation de: Verso92 le Octobre 27, 2011, 23:58:42
Bon, avec toutes les réserves d'usage liés à ce genre de procédure (photographie vite faite de l'écran), un "aperçu" de ce que ça peut donner :
J'ai réalisé le même test que Verso, avec le même résultat
dell U2711
displayport
ati firepro v4800
photoshop CS5
Catalyst pro control center et photoshop configurés pour 10bit/pixel
Attention à cette liste si pas de Display port pas de 10 bits et certains là dedans n'ont pas de display port me semblet-il.
je ne sais pas,
j'en ai qu'un (dell u2711)
et il a le displayport
Citation de: restoc le Octobre 27, 2011, 16:40:33- Les conditions pour voir du 10 bits en 2650 *1600 : diplay port obligatoire, NEC 301 ( pas encore d' Eizo 30 " avec Display port).
En théorie, le display-port n'est nécessaire que sur les "hautes" résolution (là où il faut déjà du dual-dvi). Dans la pratique, peu d'écrans supportent le DVI en 16 bits.
Citation- Etant Nvdia voici ce qui marche : il faut aller sur les cartes Pro Quadro 600, 2000, 4000. Là on peut aller d'emblée à 2650*1600*30.
J'avais cru comprendre que la Quadro 400 était "suffisante" (~150€). Me tromperais-je ?
Maintenant, j'ai vu aussi qu'il était possible d'utiliser les drivers des Quadros sur certaines cartes GeForce (je n'ai pas encore creusé, j'attends de recevoir un Dell U3011 avant d'approfondir ce point, source http://www.guru3d.com/ ). Ce n'est pas tant pour le prix que pour une histoire de watercooling (il n'y a pas de waterblock pour les Quadro).
Citation de: fantec le Octobre 28, 2011, 01:04:43
En théorie, le display-port n'est nécessaire que sur les "hautes" résolution (là où il faut déjà du dual-dvi). Dans la pratique, peu d'écrans supportent le DVI en 16 bits*.
As-tu été lire les explications données dans ce fil ?
http://www.chassimages.com/forum/index.php/topic,131319.msg2458081.html#msg2458081
Sinon, une chose est sûre : on ne peut avoir un affichage 3x10 bits (1920x1200) qu'en DP sur le PA241w (c'est clairement indiqué dans le MdE)...
*10 bits, ça nous suffira pour l'instant !
Fantec, ah oui la Quadro 400 aussi mais je ne la connais pas. PAr contre si çà t'intéresse tu peux contacter le service client pro de PNY à Bordeaux.( PNY itégrateur officiel des solutions Nvidia) car la quadro est un produit référencé pro. Ils sont trés compétents, pros et dispos ce qui devient rare.
Pour faire de la photo en 2D pr ex en 1920*1024*31*10 la 400 est peut être tout à fait suffisante et effectivement bp moins chère.
Bon courage
FAntec, le lien et en français qui va bien pour avoir un bon support http://www.pny.eu/s/a/Demande-d-assistance/
Bon courage
Citation de: Verso92 le Octobre 28, 2011, 07:41:57
As-tu été lire les explications données dans ce fil ?
Non, j'ai été lire les specs de la norme DVI.
Citation*10 bits, ça nous suffira pour l'instant !
Sauf que cela n'existe pas en DVI. La norme supporte des "profondeurs" supérieurs à 8 bits mais en envoyant deux signaux sur un lien dual-DVI. Un signal transporte les octets de poids fort, l'autre ceux de poids faible (il n'y a pas de solution intermédiaire). Maintenant, il faut que l'écran le supporte (ce qui est peu courant, de ce que j'ai lu, seuls quelques écrans professionnels l'avait fait) et que la résolution utilisé ne nécessite pas déjà le dual-dvi.
Citation de: fantec le Octobre 28, 2011, 13:08:35
Non, j'ai été lire les specs de la norme DVI.
Auxquelles il est justement fait référence dans le fil en question...
Citation de: fantec le Octobre 28, 2011, 13:08:35
Sauf que cela n'existe pas en DVI. La norme supporte des "profondeurs" supérieurs à 8 bits mais en envoyant deux signaux sur un lien dual-DVI. Un signal transporte les octets de poids fort, l'autre ceux de poids faible (il n'y a pas de solution intermédiaire).
Oui, comme déjà expliqué dans le fil en question...
Verso92 :
Selon TFTCentral le P241W est "10 bits hardware" et le PA241W 8bits +AFRC
http://www.tftcentral.co.uk/news_archive/25.htm
C'est la comparaison des deux qui est interessante.
Quelqu'un a pu voir la difference entre 10bits natifs et 8+2(A-)FRC ?
Citation de: SimCI le Octobre 28, 2011, 13:18:00
Verso92 :
Selon TFTCentral le P241W est "10 bits hardware" et le PA241W 8bits +AFRC
http://www.tftcentral.co.uk/news_archive/25.htm
Ce n'est pas ce qu'ils disent à propos du P241W dans le lien que tu fournis :
"The screen is a 16:10 format model and
offers an 8-bit panel as opposed to the "10-bit (8-bit + AFRC) support from the PA241W."
Par contre, je ne savais pas que le PA241w était un 8bits...
Exact, j'ai lu un peu vite ... mais ce qui etait interessant etait la LUT 3D qui permet la conversion.
Euh SimCI je lis que la dalle p241 est 8 bits only pas 10 bits.
Où règle t-on l'échantillonnage sous CS5 ?
Citation de: Will95 le Octobre 28, 2011, 16:12:25
Où règle t-on l'échantillonnage sous CS5 ?
Préférences->Performances-> Cocher: Activer le dessin OpenGL [Paramètres avancés] -> Mode: Avancé
Edit: ceci active le 10bit/pixel s'il est disponible
Citation de: ClaudeSch le Octobre 28, 2011, 16:19:51
Préférences->Performances-> Cocher: Activer le dessin OpenGL [Paramètres avancés] -> Mode: Avancé
Edit: ceci active le 10bit/pixel s'il est disponible
Merci
Comment sait-on si il est disponible du coup ? :D
On ne sait pas, c'est le problème
Il faut suivre les instructions de ce manuel si on a une carte graphique Firepro:
http://www.google.fr/url?sa=t&rct=j&q=user%20guide%20%7C%20enabling%2010-bit%20color%20for%20adobe%C2%AE%20photoshop%C2%AE%20cs4and%20adobe%C2%AE%20photoshop%C2%AE%20cs5%20with%20ati%20firepro%E2%84%A2%20professional%20graphics%20adapters%20&source=web&cd=1&ved=0CB0QFjAA&url=http%3A%2F%2Fwww.amd.com%2Fcn%2FDocuments%2F48108-B_ATI_FirePro_Adobe_10-Bit_FAQ_R5_Final.pdf&ei=8buqTt6fJ7Pc4QSf-ZGADw&usg=AFQjCNEISA1omnYtc5UxkDSzrzG2F04txQ
Citation de: ClaudeSch le Octobre 28, 2011, 16:30:28
On ne sait pas, c'est le problème
Il faut suivre les instructions de ce manuel si on a une carte graphique Firepro:
http://www.google.fr/url?sa=t&rct=j&q=user%20guide%20%7C%20enabling%2010-bit%20color%20for%20adobe%C2%AE%20photoshop%C2%AE%20cs4and%20adobe%C2%AE%20photoshop%C2%AE%20cs5%20with%20ati%20firepro%E2%84%A2%20professional%20graphics%20adapters%20&source=web&cd=1&ved=0CB0QFjAA&url=http%3A%2F%2Fwww.amd.com%2Fcn%2FDocuments%2F48108-B_ATI_FirePro_Adobe_10-Bit_FAQ_R5_Final.pdf&ei=8buqTt6fJ7Pc4QSf-ZGADw&usg=AFQjCNEISA1omnYtc5UxkDSzrzG2F04txQ
Merci pour les infos :)
Citation de: Will95 le Octobre 28, 2011, 16:23:47
Merci
Comment sait-on si il est disponible du coup ? :D
C'est simple : si les options OpenGL sont grisées (et inaccessibles), c'est que ce n'est pas dispo (Photoshop détecte si ta carte a des fonctionnalités OpenGL).
Dans le cas contraire, en principe, oui...
Ce qui pourrait rendre service ce serait de trouver un petit viewer OpenGl capable d'afficher 10 bits sans passer par photoshop pour des tests rapides.
Pas encore trouvé sauf un dans la langue de Mme Merkel et qui est un peu instable.
Citation de: Verso92 le Octobre 28, 2011, 13:16:54
Auxquelles il est justement fait référence dans le fil en question...
Oui, comme déjà expliqué dans le fil en question...
Au temps pour moi. J'ai effectivement lu trop rapidement (au sens où la phrase à laquelle je répondais ne concernait effectivement que le 2560x1600 en 10 bits mais j'avais en tête ta réponse première). Mais effectivement, on peut généraliser au sens où, à moins qu'un écran n'annonce explicitement supporter le 10 bits sur DVI, il faut plutôt partir sur du DisplayPort de tout manière.
Alors ATI ou Nvidia ? Quelques références pour les petits budgets ?
Citation de: locheness le Novembre 04, 2011, 23:11:52
Alors ATI ou Nvidia ? Quelques références pour les petits budgets ?
La moins chère chez ATI semble être la FirePro V3800 (une centaine d'euros).
Chez nvidia c'est pas le moins cher car on tombe dans la gamme Quadro pro; la quadro 600 http://www3.pny.com/NVIDIA-Quadro-600-P2936C365.aspx,
On la trouve à 160 Euros peut être moins. C'est un modèle récent, silencieux et qui ne chauffe pas en appli photo. sortie en 2010. Je ne connais pas assez les autre modèles il y en a tellement.
Citation de: restoc le Novembre 05, 2011, 07:55:27
Chez nvidia c'est pas le moins cher car on tombe dans la gamme Quadro pro;
Pour le modèle ATI, je parlais bien sûr du moins cher de la gamme FirePro...
A vu d'oeil ATI est un peu moins cher que Nvidia ( PNY) dans cette gamme. Est ce à fonctions/perfs égales ? ,
Si on travaille en mono écran pas de pb . MAis en multi écran multi Luts, le pb avec Nvdia est la multiplicité des couches d' outils "drivers". On peut tout faire mais iL faut une bonne maîtrise de leur gestion de conf pour faire du multi écran - multi luts et passer d'une conf à l'autre en conservant les calibrages par Luts. En fait c'est Windows XP en dessous qui pose de pb car il ne retourne pas systèmatiquement toutes les infos aux outils : typiquement il ne détecte pas l'allumage d'un deuxième écran s'il n'a pas été lancé avec les deux écrans allumés au départ et donc la gestion multi écran est à se refaire à la main à travers de multples onglets et in fine il faut vérifier avec un outil de trés bas niveau ( Colorwin) que la bonne Lut est bien sur le bon écran. !
Peut être est ce plus simple avec W7.
Citation de: restoc le Novembre 05, 2011, 09:59:40
A vu d'oeil ATI est un peu moins cher que Nvidia ( PNY) dans cette gamme. Est ce à fonctions/perfs égales ? ,
J'avais pour ma part une ATI Radeon HD4850. Quand j'ai voulu changer pour une FirePro V3800, mon pote me l'a déconseillé, en m'expliquant que j'aurais des perfs sensiblement moins bonnes en 3D qu'avec ma Radeon. Je suis donc parti, sur ses conseils, sur une FirePro V4800 (150€). Et comme le magasin chez qui on l'avait commandée n'a pas pu obtenir cette carte, j'ai eu une V5800 (pour le même prix !)...
Pour la 2D peu importe les performances
personnellement je n'ai jamais constaté de différence perceptible quelque soit la carte
sinon pour la 3D voici un classement des cartes graphiques:
http://www.surlix.com/fr/pc/classement-complet-cartes-graphiques.php
pour ce qu'il vaut, car tout dépend du poids que l'on assigne aux critères de comparaison
on constate que les firepro ont un bon indice prix/performance comparées aux NVIDIA pro
maintenant je ne suis pas sectaire
Bien vu CLaude Sch " Classement "pour ce qu'il vaut" Ils sont vraiment chiches sur leur critère "performances". En plus comme le fil est orienté 10 bits c'est plutot massivement du 8 bits dans ce tableau.
En 2D 8 bits aucun pb de choix, mais en 2D + 10 bits le choix est trés resterint et alors en 2D +10 bits + 4megapix en display, les perfs spécifiques deviennent importantes, or elles ne sont jamais mesurées.
Il faut vraiment que chacun en fonction de ses besoin/possibilité se fasse le parcours du combattant... y compris d'investiguer l'obligation de changer d'alim, de logiciel , d'OS car certaines 10 bits ne démarrent pas avec une petite config.
Conclusion : prudence dans nos conseils dans ce domaine non vraiment standard du 10 bits.
Citation de: restoc le Novembre 05, 2011, 12:43:02
en 2D +10 bits + 4megapix en display, les perfs spécifiques deviennent importantes, or elles ne sont jamais mesurées.
très juste
c'est là qu'est l'os!
;D ;D ;D
Citation de: restoc le Octobre 27, 2011, 16:40:33
-OS et Logiciels de visu : se souvenir que Windows et les applications de visualisations windows XP, Vista et 7 ont des API qui ne supportent pas les sorties autres que 8 bits vers la CG. Seules des applications spéciales ( Médicales conformes à la norme Dicom 14 et Photoshop 5 en validant OpenGL en 10 bits ) bypassent les API windows. Il faut donc en + du HW une config SW qui permette de voir le 10 bits. Par exemple pour les Nikonistes View Nx et CNX 2 ne le fait pas . Gimp ???,
J'ai reçu mon Dell U3011 jeudi soir. Il est arrivé avec toute sa connectique (Dual-DVI, Display-port & VGA), un bilan colorimetrique et un lecteur de carte intégré (mais pas d'emplacement CF). Il vient remplacer un (vieux) WFP2405 et prend place à coté d'un WFP3007. Pour des raisons "techniques", je l'ai branché sur un PC linux (qui se retrouve avec une Quadro 600 temporairement). L'installation se fait sans problème (le premier soir, j'y suis allé en mode bourrin en éditant les fichiers de conf à la main mais j'ai refait toute la procédure hier soir via les interfaces graphiques). Je ne suis pas encore passé à la phase étalonnage mais l'écran me semble beaucoup mieux réglé par défaut que les anciens 30" de Dell (que ce soit le 3007 ou les 3008 du boulot). Sur une photo 8 bits, j'ai l'impression de voir plus de détail dans les nuances (du coup, il est un peu vain de vouloir comparer les images 8bits/10bits entre les deux écrans). Maintenant, le problème va être de trouver une application qui fait de l'affichage en 16 bits : je ne trouve pas beaucoup de littérature sur le sujet mais certaines, à l'instar d'un dénommé Jourdain, peuvent le faire sans le savoir (ie les applications openGL)
A part photoshop CS4 et CS5, les applis médicales Dicom, les applis kaki il n' y a pas foule sur le 3*10 bits. Pas trouvé de petit viewer 16 bits sous Windows pour le moment. nview ramène tout en 8 bits. Pour Linux ...Gimp ???
Bonjour
Ce que vient d'écrire Resto n'est pas très réconfortant.... pour ceux qui ont les télescopes un peu usés
Voilà maintenant 65 années que j'existe sur cette planète et, d'après ce que Resto a écrit, il y a peu de chance que je puisse voir du 10 bits
J'ai l'intention d'acheter l'Eizo SX2762W pour travailler mes photos en format raw prises avec un nikon D700 ; Sur l'ordi, j'utilise actuellement une carte graphique Geforce 9600 GT -je n'ai pas trouvé dans la doc qu'elle est capable de délivrer du 10 bits. Pourait-elle convenir pour l'Eizo ?
Citation de: gilmit le Décembre 09, 2011, 16:01:12
Sur l'ordi, j'utilise actuellement une carte graphique Geforce 9600 GT -je n'ai pas trouvé dans la doc qu'elle est capable de délivrer du 10 bits. Pourait-elle convenir pour l'Eizo ?
Elle conviendra, bien sûr, pour n'importe quel écran, comme la plupart des cartes graphiques.
Mais pas en 3x10 bits...
A l'époque ou elle est sortie on ne parlait pas trop de 10 bits. MAis je viens de voir sur le site nvidia que les nouveaux drivers Nvidia incluent le 10 bits sur les GeForce via le port DVI jusqu'à 1900*1200. ESt il possible que çà puisse activer une 9600 , c'est à creuser. Il suffit d'aller voir sur le site Nvidia sur les mises à jour des drivers . Ils listent les corrections apportées à chaque nouvelle version.
Bon courage
Voici un lien à creuser pour le 10 bits sur les Geforce.
http://nvidia.custhelp.com/app/answers/detail/a_id/3011/kw/geforce%2010%20bitsici un lien à creuser.
Bien retennir que chez Nvidia il faut en plus une application Open Gl 4.0 et mieux pour voir le 10 bits : Photoshop CS4 ou 5 par ex çà marche.
Ce n'est pas le bon lien. Si j'avais le temps je ferai le test j'ai débarqué ma 9600GT qui roupille dans un tiroir pour mettre une quadro. MAis çà m'obligerai à changer tous les drivers à nouveaux.
Si quelqu'un veut faire le test dans le 31 autour de Toulouse je lui préte ma 9600 et tout le Knowhow pour tester ( sous mon controle non mais !).
PS : une belle mire 10 bits sans banding avec des dégradés parfaits sur le Nec 301 une merveille !!! Quand on repasse en 8 bits c'est à gerber. Mais on est incapable de quantifier. Donc heureux ceux qui n'ont pas vu !
MAis là où le bât blaisse c'est que seuls les profils internes réglés usine du Nec sont capables de montrer des dégradés parfaits : le logiciel Spectraview profiler (BAsicicc ) avec un spectro I1 Pro est incapable de faire aussi bien que les tables 3 d internes et ce de trés trés loin loin.
Conclusion inutile de calibrer avec les engins du commerce, laisser faire NEc ou Eizo. Investissez dans l'écran pas dans les fausses solutions de calibration.
Citation de: restoc le Décembre 09, 2011, 21:19:06
Conclusion inutile de calibrer avec les engins du commerce, laisser faire NEc ou Eizo. Investissez dans l'écran pas dans les fausses solutions de calibration.
Oh tu sais, j'irais même plus loin...certains comme moi (*) sont condamnés à imprimer pour profiter au maximum des nuances de gris ;D
(*) Mac OS X, sortie DVI etc.
Citation de: restoc le Décembre 09, 2011, 21:19:06
MAis là où le bât blaisse c'est que seuls les profils internes réglés usine du Nec sont capables de montrer des dégradés parfaits : le logiciel Spectraview profiler (BAsicicc ) avec un spectro I1 Pro est incapable de faire aussi bien que les tables 3 d internes et ce de trés trés loin loin.
Conclusion inutile de calibrer avec les engins du commerce, laisser faire NEc ou Eizo. Investissez dans l'écran pas dans les fausses solutions de calibration.
Intéressant comme jugement ; mais comment l'avez vous observé ? visuellement et/ou en faisant des mesures ? ou s'agit-il de quelque chose vu dans une doc ?
heureusement, ce soir je n'ai pas encore commandé l'eizo SX ; à force de vous lire je sens que je vais craquer pour un CG ou de son concurrent en NEC!!!!
C'est encore moi,
En ce qui concerne l'affichage 10 bits, voici l'adresse d'un fichier qui permettrait de vérifier cet affichage avec photoshop (signalé sur le site de christophe métairie) :
http://www.cmp-color.fr/images/10bits/ramp.zip
Le fichier montre des carrés si le moniteur affiche en 8 bits (C'est ce que je vois effectivement sur mon moniteur)
Par contre, le dégradé serait lisse si le moniteur affiche en 10 bits ; Ceux qui ont un moniteur 10 bits pourraient-il vérifier si cela est exact ?
ceux qui ont des moniteurs 10 bits peuvent-ils commuter en 8 bits pour vérifier ce test ?
Citation de: gilmit le Décembre 10, 2011, 00:48:44
C'est encore moi,
En ce qui concerne l'affichage 10 bits, voici l'adresse d'un fichier qui permettrait de vérifier cet affichage avec photoshop (signalé sur le site de christophe métairie) :
http://www.cmp-color.fr/images/10bits/ramp.zip
Le fichier montre des carrés si le moniteur affiche en 8 bits (C'est ce que je vois effectivement sur mon moniteur)
Par contre, le dégradé serait lisse si le moniteur affiche en 10 bits ; Ceux qui ont un moniteur 10 bits pourraient-il vérifier si cela est exact ?
ceux qui ont des moniteurs 10 bits peuvent-ils commuter en 8 bits pour vérifier ce test ?
Heu... c'est une blague ?
http://www.chassimages.com/forum/index.php/topic,137922.msg2634914.html#msg2634914
Ce fichier pose un pb. Pour le voir comme une mire de gris bien dégradée, j'ai fait qqs essais dans Psp :>>image ton automatiques. (Forcer le mode 16 bits niveaux de gris) ; virer le profil srgb, mettre le moniteur en mode Luts internes ( pas en Luts crées par un spectro).
Mais çà parait étonnant comme manip Il devrait s'afficher tel quel. CMP a dû oublier qq chose ou le mode d'emploi ...
Note: je n'ai pas trouvé dans Psp comment se faire une mire de dégradé de plus de 100 niveaux ( en mode Lab la luminance va de 0 à 100 %) et en mode RVB Photoshop , il faut créer un dégradé en mode 16 bits de 1000 pix de large pour obtenir 1000 valeurs, mais on ne peut pas controler : Psp n'est pas prévu pour les "10bits geeks" : la petite fenêtre information ne retourne que des valeurs 8 bits même si on force le mode image en 16 bits.
SI un spécialiste de Psp passe par là...
Citation de: restoc le Décembre 10, 2011, 08:09:23
Ce fichier pose un pb. Pour le voir comme une mire de gris bien dégradée, j'ai fait qqs essais dans Psp :>>image ton automatiques. (Forcer le mode 16 bits niveaux de gris) ; virer le profil srgb, mettre le moniteur en mode Luts internes ( pas en Luts crées par un spectro).
Mais çà parait étonnant comme manip Il devrait s'afficher tel quel. CMP a dû oublier qq chose ou le mode d'emploi ...
Note: je n'ai pas trouvé dans Psp comment se faire une mire de dégradé de plus de 100 niveaux ( en mode Lab la luminance va de 0 à 100 %) et en mode RVB Photoshop , il faut créer un dégradé en mode 16 bits de 1000 pix de large pour obtenir 1000 valeurs, mais on ne peut pas controler : Psp n'est pas prévu pour les "10bits geeks" : la petite fenêtre information ne retourne que des valeurs 8 bits même si on force le mode image en 16 bits.
SI un spécialiste de Psp passe par là...
Pas tout compris à ton post... quand j'affiche "tel quel" ce fichier dans Photoshop en 8 et 10 bits, la différence se voit immédiatement. Bien sûr, les photos que j'ai réalisées à la va-vite de mon écran ont du mal à montrer cette différence (même si on la devine), mais je n'ai pas trouvé de moyen plus "fiable" pour le montrer sur un forum...
les images de verso 92 sont quand mêms assez évidentes telles que je les vois en ce moment avec mon moniteur samsung actuel (avec un contrast assez poussé)
apparemment une entrée en 10 bits sur votre moniteur se remarquerait assez bien
Autant pour moi, je n'ai rien vu car pour une fois j'étais sur un portable à l'écran pourri. Photos trés parlantes sur un vrai écran.
Citation de: Verso92 le Décembre 10, 2011, 10:39:40
Pas tout compris à ton post... quand j'affiche "tel quel" ce fichier dans Photoshop en 8 et 10 bits, la différence se voit immédiatement. Bien sûr, les photos que j'ai réalisées à la va-vite de mon écran ont du mal à montrer cette différence (même si on la devine), mais je n'ai pas trouvé de moyen plus "fiable" pour le montrer sur un forum...
C'est PS qui est pourri en vision 8b, pas le fichier en fait. Si on passe en OpenGL, tout se lisse en 8b.
Le pb est faussé, c'est le moteur CM qui agit.
Pour répondre à un autre intervenant, PSP gère mieux les fichiers en zoom en DirectX tout simplement et depuis des lustres.
-
EDIT : ce que vous voyez comme cassures ne sont que les LUT des profils "non parfaits". Otez tout icc, sur un écran ht gamme, avec gamma usine calculé sur des tables tres fines, et aucune cassure n'existe en 8b. Les belles visions des 10b réels, avec icc, ne sont qu'une gestion avantageuse de dithering divers. cqfd
Aieh Olivier !, si Psp est pourri en vision 8 bits et que quelques centaines de milliers de photographes pro trés pointus dans le monde ne l'ont pas vu ... As tu jeté un coup d'oeil à l'histogramme du fichier ?
[quoteauthor=Olivier-P link=topic=137922.msg2735806#msg2735806 date=1323537653]
EDIT : ce que vous voyez comme cassures ne sont que les LUT des profils "non parfaits". Otez tout icc, sur un écran ht gamme, avec gamma usine calculé sur des tables tres fines, et aucune cassure n'existe en 8b. Les belles visions des 10b réels, avec icc, ne sont qu'une gestion avantageuse de dithering divers. cqfd
[/quote]
Tout juste Un beau 10 bit sans Icc et les tables 14 bits internes c'est le nec +ultra !!! MAis Le fait qu'un 8 bits sur un écran ghaut de gamme ne montre pas de cassures, ne signifie pas que les valeurs sont justes ! Sii on part d'une image d'APN bien exposée qui renvoie 12 bits sur un intervalle de 5 Il par ex donc avec bp de nuances trés fines, on va forcément perdre quelque part. Un bon 8 bits à partir de 10 ou 12 bits réels n'est qu'un artifice ayant encore plus d'astuces de dithering ou autre rétro-compression ou comme tu dis un bon "lissage" par Opengl. MAis ce n'est plus qu'un artifice de lissage : agréable mais valeurs fausses. Rejeté depuis longtpemts par les professions qui ont besoin des valeurs justes, médical, observation militaire etc. et graphistes top niveaux. Bon la photo n'en n'a pas forcément besoin d'accord.
Tout à fait d'accord sur les profils Icc "du commerce" c'est ce qu'on disait quatre posts au dessus : pour de beaux dégradés pas d'icc via les luts des CG et sortant des colorimètres du commerce: que les Luts internes des bons écrans.
.. et pourtant depuis dix ans on s'en contentait.
AMD annonce la V3900
http://www.presence-pc.com/actualite/FirePro-V3900-46596/
Des infos/rumeurs sur Photoshop CS6 et "30 Bit Display" ?
Sur CS6 : il arrive... comme le dit la rumeur.
Sur 3*10 bits CS5 le fait déjà sans pb.
Tester cette après-midi sur CS6 béta, une option complémentaire sur les réglages de performance Open-GL d'affichage 30 Bit Display.
Fonctionne parfaitement avec ma Quadro FX 580 et le NEC PA241W.
La différence sur le fichier Ramp entre 8 et 10 est très nette.
Etonnament, cela ne fonctionnait pas sur CS5...
Si çà fonctionne sous CS5 , mais il faut que les versions du driver de la carte et de l'openGL soient exactement compatibles sinon par défaut çà reste en 8 bits... sans prévenir ! même avce la case cochée dans PS. J'ai eu qq mal à tout mettre au bon niveau.
Sur CS6 peut-on acceder aux valeurs des pixels (3x16 bits) ou ca reste du 8 bits/canal ?
(a tester en se deplacant sur la rampe ramp.psd)
Citation de: restoc le Décembre 10, 2011, 23:50:40
Aieh Olivier !, si Psp est pourri en vision 8 bits et que quelques centaines de milliers de photographes pro trés pointus dans le monde ne l'ont pas vu ... As tu jeté un coup d'oeil à l'histogramme du fichier ?
Tout juste Un beau 10 bit sans Icc et les tables 14 bits internes c'est le nec +ultra !!! MAis Le fait qu'un 8 bits sur un écran ghaut de gamme ne montre pas de cassures, ne signifie pas que les valeurs sont justes ! Sii on part d'une image d'APN bien exposée qui renvoie 12 bits sur un intervalle de 5 Il par ex donc avec bp de nuances trés fines, on va forcément perdre quelque part. Un bon 8 bits à partir de 10 ou 12 bits réels n'est qu'un artifice ayant encore plus d'astuces de dithering ou autre rétro-compression ou comme tu dis un bon "lissage" par Opengl. MAis ce n'est plus qu'un artifice de lissage : agréable mais valeurs fausses. Rejeté depuis longtpemts par les professions qui ont besoin des valeurs justes, médical, observation militaire etc. et graphistes top niveaux. Bon la photo n'en n'a pas forcément besoin d'accord.
Tout à fait d'accord sur les profils Icc "du commerce" c'est ce qu'on disait quatre posts au dessus : pour de beaux dégradés pas d'icc via les luts des CG et sortant des colorimètres du commerce: que les Luts internes des bons écrans.
.. et pourtant depuis dix ans on s'en contentait.
Oui :)
Précisions car je ne me suis peut etre pas fait comprendre.
PS est médiocre en affichage hors 1/1, sauf activer l'open gl, mais qui fait des flous terribles en place des cassures du mode normal pour les retailles. Pas mieux ! voire pire ! Adobe n'est pas convaincant.
PSP (paint shop pro, puis repris par Corel), lui a un moteur simple mais bien plus efficace, depuis tres longtemps.
Les 10b des écrans, mm des meilleurs, sont tous des 8b ... avec un moteur dithering ... :) Sauf la dalle du LP2480ZW à ma connaissance, mais ses led sont médiocres avec des jugements sévères. Allons plus haut encore ? A part passer en gammes médicales et broadcast à des prix fous (et inutiles pour nous), je ne vois pas de solutions réelles pour l'instant. Les dithering sont donc la loi générale, et cela ne change pas grand chose. Le principal est d'avoir son fichier en 16b pendant les manips, écraser ensuite ne gene en rien, et les dithering de l'imprimante font le reste, un travail cette fois totalement individualisé avec les pilotes de chaque constructeur.
Donc on tourne en rond ...
Le 8b (et faux 10b) suffit largement, les moulinettes qui suivent sont de toute façon bien loin des images proposées par ces artifices.
Néophyte sur le sujet, je commence à me renseigner avant l'achat d'un moniteur et d'une carte graphique.
Pour info j'ai trouvé cet article intéressant sur le site de Christophe Métairie :
http://www.cmp-color.fr/affichage_10_bits.html
J'y lis entre autres que seules les images « codées en 16 bits » peuvent tirer parti d'un affichage 3 x 10 bits — à supposer que tous les paramètres matériels et logiciels soient conformes naturellement.
Pour ceux qui savent, cela signifie donc que seules les images Tiff ou PSD 16 bits peuvent profiter d'un affichage 3 x 10 bits ???
Merci de vos réponses :)
PS : Je viens de voir que Gilmit avait déjà donné le lien de CMP !
Citation de: Diapoo® le Février 27, 2013, 13:45:13
Pour ceux qui savent, cela signifie donc que seules les images Tiff ou PSD 16 bits peuvent profiter d'un affichage 3 x 10 bits ???
Ben le RAW aussi si tu es en 16 bits.
Citation de: Olivier-P le Mars 25, 2012, 08:04:12
Les 10b des écrans, mm des meilleurs, sont tous des 8b ... avec un moteur dithering ... :) Sauf la dalle du LP2480ZW à ma connaissance, mais ses led sont médiocres [...]
Mais si c'est pour du dithering, c'est d'un intérêt qu'on pourrait qualifier de questionnable.
Citation de: Nikojorj le Février 27, 2013, 18:37:51
Ben le RAW aussi si tu es en 16 bits. (...)
Oui bien sûr, mais le RAW n'étant pas un format autonome, il vaut mieux l'exporter en bitmap pour l'exploiter ou le conserver ... pour la postérité :)
De toute façon un RAW n'est pas visible en tant que tel, ne serait ce que pour envoyer l'image à l'écran le logiciel qui traite le RAW le transfère en bitmap, en effet l'écran implique une transformation en bitmap, bien entendu dans un logiciel comme LR le RAW d'origine est conservé, le bitmap n'est que temporaire.
Citation de: Diapoo® le Février 27, 2013, 18:59:15
Oui bien sûr, mais le RAW n'étant pas un format autonome, il vaut mieux l'exporter en bitmap pour l'exploiter ou le conserver ... pour la postérité :)
Ben si, Raw + XMP c'est quelque chose de très pérenne et efficace pour archiver qq chose destiné à être retravaillé! y'a que si on rajoute du traitement bitmap quon a besoin du TIFF.
Enfin bon, on est tous bien d'accord : le 10 bits, pour afficher des jpegs, c'est un poil sous-employé. ;D
Citation de: Diapoo® le Février 27, 2013, 13:45:13
J'y lis entre autres que seules les images « codées en 16 bits » peuvent tirer parti d'un affichage 3 x 10 bits — à supposer que tous les paramètres matériels et logiciels soient conformes naturellement.
Pour ceux qui savent, cela signifie donc que seules les images Tiff ou PSD 16 bits peuvent profiter d'un affichage 3 x 10 bits ???
Par définition, une image codée en 3x8 bits ne gagnera rien à être affichée en 3x10 bits (je pense que c'est évident et que ça ne justifie pas d'explications supplémentaires).
Et comme une image, c'est soit 3x8 bits, soit 3x16 bits...
Nous sommes d'accord mais il me semble que ça va mieux en le rappelant : sauf erreur je n'avais pas trouvé l'info dans ce fil. Et ta copie d'écran ... JPEG pour montrer la différence 8/10 bits avait semé le trouble dans mon esprit :D
http://www.chassimages.com/forum/index.php/topic,137922.msg2634914.html#msg2634914
Citation de: Diapoo® le Février 27, 2013, 23:55:05
Nous sommes d'accord mais il me semble que ça va mieux en le rappelant : sauf erreur je n'avais pas trouvé l'info dans ce fil. Et ta copie d'écran ... JPEG pour montrer la différence 8/10 bits avait semé le trouble dans mon esprit :D
http://www.chassimages.com/forum/index.php/topic,137922.msg2634914.html#msg2634914
Ce fichier "test" permet de vérifier que l'affichage est bien configuré en 3x10 bits. Maintenant, sur des
vraies photos, difficile (pour moi, en tout cas) de quantifier la différence...
Up !
En cours de recherche d'infos sur le sujet, je me permet de faire remonté ce fil.
Merci à tous ;)
tout pareil :)
je vois en debut de post, qu'une config "affichage 10 bits" demande également du logiciel, vous parlez beaucoup de Photoshop quid de Lightroom ?
Sauf erreur de ma part, Photoshop est le seul logiciel "photo" qui permet l'affichage en 3 x 10 bits...
merci Verso, du coup peut on dire que si on utilise pas Photoshop il est inutile de s'équiper en "10 bits" ou bien voit on une différence à l'écran ?
cela me laisse perplexe, je serais curieux de voir en vrai ce que ça donne. Le juge de paix restant pour moi le papier.
Citation de: Roybon le Janvier 03, 2015, 10:49:16
merci Verso, du coup peut on dire que si on utilise pas Photoshop il est inutile de s'équiper en "10 bits" ou bien voit on une différence à l'écran ?
cela me laisse perplexe, je serais curieux de voir en vrai ce que ça donne. Le juge de paix restant pour moi le papier.
Comme déjà évoqué, la différence se voit sur le fichier "test" fourni par AMD (un dégradé de gris).
Après, un intervenant m'avait envoyé une photo N&B avec de fins dégradés pour me demander si je voyais une différence entre l'affichage 8 bits et 10 bits... et là, ben... pas moyen de voir une quelconque différence.
Si la différence de perception et équivalant à un de mes cheveux, l'argument 3x10 bits, peut on penser que c'est plus une communication de markéteux pour les geek ? Et si 10 à 15% d'utilisateur qui perçoivent ou la pensent la percevoir cette différence peut les conforter ou les rassurer dans leurs créations c'est déjà çà.
La c'est trop pointu pour moi.
A+ ;)
c'est exactement ce que je cherche à savoir, parce que la différence de prix CG+Ecran est elle bien réelle.
Citation de: yaquinclic le Janvier 03, 2015, 12:29:20
Si la différence de perception et équivalant à un de mes cheveux, l'argument 3x10 bits, peut on penser que c'est plus une communication de markéteux pour les geek ?
La question n'est pas là... les écrans haut de gamme sont en 3 x 10 bits.
Mais limiter l'intérêt de ces écrans à cette spécification me semble étonnant... après, ne pas dépenser trop d'argent pour se payer la CG qui va avec ces 10 bits n'a que peu d'importance sur le résultat final, AMHA.
Citation de: ClaudeSch le Novembre 05, 2011, 11:04:33
Pour la 2D peu importe les performances
personnellement je n'ai jamais constaté de différence perceptible quelque soit la carte
sinon pour la 3D voici un classement des cartes graphiques:
http://www.surlix.com/fr/pc/classement-complet-cartes-graphiques.php
pour ce qu'il vaut, car tout dépend du poids que l'on assigne aux critères de comparaison
on constate que les firepro ont un bon indice prix/performance comparées aux NVIDIA pro
maintenant je ne suis pas sectaire
ton lien est mort
http://www.graphic-reseau.com/photographie_francais/ecrans/ecrans-eizo-nec/ecrans-nec/ecran-nec-multisync-ea304wmi.html
http://www.graphic-reseau.com/photographie_francais/ecrans/ecrans-eizo-nec/ecrans-nec/ecran-nec-multisync-pa302-gamme-non-spectraview-noir.html
Je ne suis pas expert sur les écrans mais quand je regarde ces deux modèles la seule différence que je puisse voir sur les caractéristiques c'est bien la prise en charge du mode d'affichage 10 bits, non ?
Evidemment il faut voir ces écrans "en vrai" mais c'est de plus en plus difficile de trouver des showroms/boutique qui en ont en stock. il est vrai que pour la CG il y a des modèles 10 bits à moins de 150€
:-[ :-[ oui,c'est vrai,
el capitan ferait enfin du 10 bit ?
http://macbidouille.com/news/2015/10/26/les-imac-retina-codent-les-couleurs-sur-10-bits
je regarderai ce soir sur mon hackintosh.
Si je regarde les mêmes rubriques sur mon MBP Retina 2014, il y a écrit : profondeur de couleurs 32 bits. Mieux que 30 bits ;D
Citation de: Verso92 le Novembre 05, 2011, 01:39:42
La moins chère chez ATI semble être la FirePro V3800 (une centaine d'euros).
Oui c'est pas cher mais attention ces anciennes cartes ne fonctionnent apparemment qu'avec Photoshop dans le monde de la photo en ce qui concerne l'accélération GPU. J'ai une V7900 et elle ne fonctionne ni avec LightRoom ni avec Capture One pour l'accélération Open CL.
Il faut des cartes plus récentes pour qu'elles soient plus compatibles, et obligatoirement dans les séries pro (Quadro chez Nvidia ou Firepro chez Ati) pour avoir du 10 bits par canal.
Par exemple la série W en Firepro.
Citation de: restoc le Décembre 09, 2011, 13:43:53
A part photoshop CS4 et CS5, les applis médicales Dicom, les applis kaki il n' y a pas foule sur le 3*10 bits. Pas trouvé de petit viewer 16 bits sous Windows pour le moment. nview ramène tout en 8 bits. Pour Linux ...Gimp ???
Le 10 bits n'est pas indispensable en Photo même s'il apporte un petit plus dans les bas niveaux de luminance en ce qui concerne la précision de gradation tonale, surtout lorsque les courbes tonales des espaces sources et destination sont très différentes.
Seul Photoshop le supporte pour le moment dans les applications pro, (Zoner photo Studio également en moins pro).
Sur des images classiques (non synthétiques), je n'arrive pas à faire la différence entre affichage 8 bits et 10 bits. Malgré un basculement instantané d'un mode vers l'autre (pour repasser en 8 bits dans Photoshop il suffit de déplacer une palette d'outil au dessus d'un bord de l'image. Cela empêche le rendu OpenGL de s'effectuer en 10 bits. Cette astuce est facilement vérifiable avec le fichier test ramp.psd
Les autres applications ajoutent du bruit pour éviter le banding en 3x8 bits, ce qui augmente légèrement le bruit dans l'image, à un niveau qu'il est difficile (voir impossible ?) de percevoir. Malgré certaines idées reçues, il se voit quand même assez facilement sur des images de synthèse en 3x 8bits, même sur des écrans parfaitement étalonnées sur une courbe TRC perceptuelle genre L* ou DICOM.
Il suffit d'ouvrir le fichier 16 bits ramp.psd pour s'en convaincre.
Cela dit, on peut très bien faire de la photo de qualité sans affichage 10 bits.
Au delà du 10 bits pour la photo, qu'on peut considérer comme un luxe (pour le moment, cela changera certainement lorsque les gamuts et les contrastes écran augmenteront avec le OLED), les écrans 10 bits sont indispensables dans certains domaines (liste non exhaustive) :
- monitoring vidéo
- monitoring cinéma (DCI)
Le domaine du cinéma numérique est particulièrement exigeant, avec son espace couleur à très large gamut (XYZ), et un système de projection capable de monter à 12 bits par canal. Surtout lorsqu'il intègre des séquences en imagerie de synthèse qui doivent se fondre dans des images réelles. Des écrans ou projecteurs haut de gamme, ainsi que parfois des systèmes de gestion des couleurs en virgule flottante sont alors nécessaires pour obtenir des résultats optimaux.
L'imagerie de synthèse ayant tendance ou pouvant produire des images totalement dénuées de bruit, il est d'autant plus important d'avoir un monitoring capable de montrer le banding qui pourrait apparaître à la projection en salle. Banding qui, s'il n'était pas détecté au montage ou à l'étalonnage du film, pourrait s'avérer catastrophique pour l'image de marque des intervenants.
Un petit rectificatif concernant le support du 10 bits, il n'est pas si nouveaux que ça, et même si son support reste encore inachevé, deux standards sous Windows le supportent : OpenGL et DirectX 3d. DirextX supporte également des modes 16 bits et même 32 bits float (4x16 et 4x32 avec un canal pour la transparence :).
Matrox proposait il y a une quinzaine d'années si mes souvenirs sont bons un plugin Photoshop pour afficher en 10 bits sur ses cartes. Je me souviens avoir essayé cela à l'époque sur une carte vidéo qui devait être une Parhélia, et un écran à tube CRT analogique qui par nature supporte 10 bits ou plus.
Par contre DirectX contrairement à OpenGL impose une fenêtre plein écran à accès exclusif (une surface dans le jargon directX). DirectX est de plus propriétaire, ce qui fait qu'OpenGL 10 bits semble beaucoup plus utilisé que DirectX.
OpenGL en 10 bits n'est pas dénué de défauts non plus, puisque selon ce que j'ai pu en voir avec Photoshop, le simple fait de chevaucher la fenêtre de rendu 10 bits OpenGL avec une palette d'outil annihile le rendu 10 bits qui repasse en 8 bits.
Cela dit avec l'arrivé du HDMI 1.3 et 2.0 le 10 bits est supporté dans un format de connectique courant, et le standard TV UHD commence également à le supporter. En conjonction avec l'arrivée de la technologie d'affichage OLED (sony jusqu'à maintenant en vidéo pro, mais on voit maintenant LG arriver sur le marché grand public avec des écrans TV OLED à moins de 4000 euros) qui risque fort d'augmenter fortement le contraste d'affichage et certainement le gamut, le 10 bits deviendra de plus en plus incontournable pour éviter tout problème de banding.
Enfin, il est reconnu (et vérifiable) que l'œil peut assez facilement discerner environ 450 niveaux de luminance, pour des niveaux de luminance faible tels que ceux d'un écran (environ 100 cd/m²), et environ le double pour des niveaux de luminance plus élevés d'environ 2000 cd/m². Il faut donc au moins 9 bits sur écran, et 10 bits en projection forte luminance, pour satisfaire au mieux les performances de notre vision.
Cela place le 8 bits dans une situation de plus en plus inconfortable. Il a d'ailleurs été remplacé par des modes 10 bits, soit en niveaux de gris pour l'imagerie médicale avec un système de bits packing plus ou moins propriétaire sur port DVI permettant d'avoir 10 bits sur un affichage 4K depuis des années, soit en couleur pour la vidéo pro avec les formats Yuv 4:2:2 ou RGB 4:4:4 et la connectique SDI, depuis de longues années également. Le cinéma DCI lui pousse le luxe un peu plus loin, avec un affichage en espace couleur XYZ 12 bits par composante :) Il faut bien justifier le prix des places de ciné :)
Pour revenir à la photo, s'il est amusant de jouer avec le 10 bits, l'intérêt est plutôt limité. A ceux qui voudrait investir quelques centaines d'euros voir un millier d'euros dans une carte vidéo pro (Quadro ou Firepro) juste pour avoir du 10 bits, je leur conseillerais plutôt d'investir dans un écran Eizo ou Nec, ou peut être Dell à calibration Hardware, qui leur donnera une base de travail stable et précise, et de de toutes façons évolutive en 10 bits car tous ces écrans photo haut de gamme supportent le 10 bits. Et puis également soigner l'éclairage de la pièce, en respectant au mieux les recommandations ISO 12646:2004 (Graphic technology -- Displays for colour proofing -- Characteristics and viewing conditions). Car l'écran n'est pas le seul responsable d'une bonne qualité d'affichage. Cela apportera beaucoup plus qu'un passage en 10 bits. Enfin la lecture d'un bon livre sur la gestion des couleurs, ou sa relecture, ne peut pas faire de mal non plus :)
Citation de: Verso92 le Octobre 27, 2011, 23:58:42
Bon, avec toutes les réserves d'usage liés à ce genre de procédure (photographie vite faite de l'écran), un "aperçu" de ce que ça peut donner :
C'est clair, net et précis
Citation de: Verso92 le Janvier 03, 2015, 10:02:46
Sauf erreur de ma part, Photoshop est le seul logiciel "photo" qui permet l'affichage en 3 x 10 bits...
Il y a aussi Zoner photo Studio dans le domaine de la photo.
Sinon certains logiciels 3D ou logiciels de montage ou grading vidéo comme Davinci Resolve savent sortir en 10 bits, pas forcément sur une carte vidéo informatique d'ailleurs. Pour Davinci par exemple, il faut une carte vidéo pro, avec sortie SDI.
Citation de: Roybon le Janvier 03, 2015, 13:59:34
c'est exactement ce que je cherche à savoir, parce que la différence de prix CG+Ecran est elle bien réelle.
Le passage au 10 bits n'est pas indispensable en photo tout du moins pour travailler avec les écrans actuels.
Cela dit il est probable dans l'avenir que l'élargissement du gamut des écrans et l'augmentation de leur contraste rende le 10 bits incontournable.
La différence de prix pour passer au 10 bits est de 150 à 450 euros environ selon la carte vidéo choisie. De plus Photoshop supporte des cartes pro d'ancienne génération, comme la série V de ATI, ce qui offre la possibilité de trouver ces cartes en occasion pour des prix encore inférieurs.
Ce n'est donc pas le support du 10 bits qui fera une grosse différence de prix, mais le choix de l'écran, dont le prix va osciller entre disons 700 euros et 2500 euros selon la taille est les performances, pour un vrai écran qualité photo à calibration hardware. Pour passer au 4K en 31 pouces le prix pourra monter à 5500 euros...
A noter que le prix d'un écran vidéo de référence 4K en 30 pouces avec une vrai dalle 10 bits (au lieu de 8 + 2 FRC comme souvent pour les écrans photo) se situe plutôt entre 15 000 et 25 000 euros.. Donc ne nous plaignons pas trop en photo :)
Au delà du 10 bits, pour la photo, l'homogénéité de la dalle et le support d'une calibration hardware me semble bien plus importants. Faites quelques mesures d'homogénéité de dalle sur des écrans photo autres que les modèles haut de gamme, ou pire sur des écrans bureautiques, et vous verrez que c'est loin d'être homogène.
Vous pouvez faire cela simplement en déplaçant la sonde sur un bord de l'écran lors de la procédure de validation du profil écran. Cela vous donnera les valeurs Delta E pour l'ensemble des patchs de test.
Une dalle LCD n'est pas homogène par nature, principalement à cause du rétroéclairage par les bords. La seule façon de compenser pour obtenir un Delta E satisfaisant sur toute la surface est d'utiliser une table de compensation numérique, associée à une procédure de calibration en usine pour uniformiser la dalle.
C'est là que se joue la différence entre les écrans photo et ce qui explique aussi certainement une bonne partie de la différence de prix entre un écran entrée de gamme et un haut de gamme.
Alors ???
On en est ou du 10 bits couleur???
Perso, après avoir acheté mon écran wg, j'ai aussi pris une Quadro K2200 nvidia, fais ma calibration et réglé ma définition.
J'utilise LR à 99%, cela veuyt dire que: pas de 10 bits pour moi :p
Malheureusement, j'ai à aujourd'hui un problème avec ma CG qui plante avec les drivers à jour, mais qui fonctionne avec celui livré sur cd...
Le problème c'est que:
1- ce n'est pas normal.
2- j'ai mis un moment à déterminé la panne
3- j'ai envoyé ma quadro en sav, sous garantie
4- j'ai un écran pourris maintenant avec la CG intégrée, qui gère pourtant la résolution de mon 273 et affiche fièrement 32 bits couleur dans son menu intel.
Résultat: ce n'est plus des ciels que j'ai dans LR mais plutôt un escalier bleu et cela même en mode développement :(
La question que je me pose c'est:
Est ce que mon problème va être résolu par le sav?
N'est-il pas préférable de changer de crèmerie pour une Firepro?
Sachant que je n'excèderai pas 2 écrans de 273 en WG.
Citation de: gebulon le Décembre 14, 2015, 18:51:46
N'est-il pas préférable de changer de crèmerie pour une Firepro?
En ce qui me concerne, j'ai une ATi FirePro V5800, et tout n'est pas tout rose pour autant : CS5 plantait en 3x10 bits (j'étais donc revenu en 3x8 bits), à l'époque. Aujourd'hui, avec CS6, ça roule (ouf !).
Et quand je lis les
read me de SpectraView II (le logiciel d'étalonnage
hardware de mon Nec 241w), ça fait peur : ça liste les versions de pilotes ATi qui ne fonctionnent pas bien avec ce logiciel. Comme je suis du genre prudent, j'ai actuellement une version qui
marche, et je ne la mets pas à jour !
Citation de: Verso92 le Décembre 14, 2015, 19:52:04
En ce qui me concerne, j'ai une ATi FirePro V5800, et tout n'est pas tout rose pour autant : CS5 plantait en 3x10 bits (j'étais donc revenu en 3x8 bits), à l'époque. Aujourd'hui, avec CS6, ça roule (ouf !).
Et quand je lis les read me de SpectraView II (le logiciel d'étalonnage hardware de mon Nec 241w), ça fait peur : ça liste les versions de pilotes ATi qui ne fonctionnent pas bien avec ce logiciel. Comme je suis du genre prudent, j'ai actuellement une version qui marche, et je ne la mets pas à jour !
Merci pour l'info, le truc c'est que moi aussi ca marchait, mais ca c'était avant...
Vais voir spectraview, parce que j'utilise aussi, pas besoin de me griller là dessus aussi !!
Le truc c'est que chacun dis la sienne, pas d'info vraiment valable sur les différentes CG en fonction des besoins, il y a même parfois des gars qui disent qu'une carte "standard" style GTX960/80 c'est aussi bien...
Le 10 bits n'est pas encore mature sur PC (en inexistant sur Mac). Il reste un peu du bricolage.
Le problème c'est que le 10 bits n'est pas un mode parfaitement intégré dans les modes d'affichages standard, il faut passer soit par une fenêtre OpenGL 10 bits, soit par une surface Direct X en plein écran pour l'obtenir.
Cela veut dire que les logiciels doivent utiliser OpenGL ou DirectX pour y accéder, mais aussi que :
- dans le cas d'OpenGL le simple fait de déplacer une fenêtre à cheval sur la fenêtre de rendu 10 bits désactive le mode 10 bits. Même une info-bulle à cheval sur la fenêtre OpenGL 10 bits désactive ce mode et on repasse en 8 bits.
- dans le cas de direct X, le logiciel doit gérer une surface plein écran, donc pas d'autre application en même temps sur le même écran.
Autre problème, le 10 bits chez Ati impose de désactiver le bureau aéro, c'est très pratique lorsque vous avez un logiciel qui ne fonctionne que si aéro est activé. Vous devez repasser en 8 bits et redémarrer la machine car le passage du mode 10 bits au 8 bits chez Ati ou vice versa (je ne me souviens plus pour Nvidia) nécessite un redémarrage.
Tout cela n'est pas très sérieux, espérons qu'avec la généralisation du 4K et du REC2020 le 10 bits deviendra un mode graphique à part entière. Pour l'instant, cela reste du bricolage, qui fonctionne certes, mais avec bien des tracas.
Pour tout arranger, les fabricants de cartes vidéo prennent bien soin de ne pas mettre à jour les drivers des anciennes générations de cartes, pour pousser à l'achat des nouvelles génération. J'ai le problème avec ma carte Ati V7900, dont les drivers ne supportent pas les fonctionnalité openCL récentes, ce qui empêche l'utilisation de l'accélération GPU avec LightRoom et Capture One. Seul Photoshop fonctionne encore avec ces cartes de génération précédente.
Citation de: olivier1010 le Décembre 15, 2015, 18:10:48
Le 10 bits n'est pas encore mature sur PC (en inexistant sur Mac). Il reste un peu du bricolage.
Le 10bits est géré sur les derniers Imac 5K , Aperçu le gère et Photoshop CC aussi ...
... peut être d'autres ???
;)
Citation de: olivier1010 le Décembre 15, 2015, 18:10:48
Autre problème, le 10 bits chez Ati impose de désactiver le bureau aéro, c'est très pratique lorsque vous avez un logiciel qui ne fonctionne que si aéro est activé. Vous devez repasser en 8 bits et redémarrer la machine car le passage du mode 10 bits au 8 bits chez Ati ou vice versa (je ne me souviens plus pour Nvidia) nécessite un redémarrage.
Tiens, par curiosité, quels logiciels nécessitent
aéro pour fonctionner ?
Citation de: Verso92 le Décembre 15, 2015, 20:25:10
Tiens, par curiosité, quels logiciels nécessitent aéro pour fonctionner ?
Par exemple Nuendo de Yamaha / Steinberg (logiciel de post production audio) nécessite aéro pour fonctionner. Erreur au lancement si aéro n'est pas actif.
Donc nécessité de désactiver le mode 10 bits, puis redémarrage de la machine. C'est très pratique...
Quant au iMac 5k bravo (avec quelques années de retard) pour le support du 10 bits, mais bon avec une dalle brillante c'est quand même pas ce qui ce fait de mieux pour faire de la photo. Et apparemment la sortie pour écran externe est limitée à 8 bits.
Citation de: olivier1010 le Décembre 16, 2015, 00:33:43
Quant au iMac 5k bravo (avec quelques années de retard) pour le support du 10 bits, mais bon avec une dalle brillante c'est quand même pas ce qui ce fait de mieux pour faire de la photo. Et apparemment la sortie pour écran externe est limitée à 8 bits.
🤔
L'as-tu essayé ???
Citation de: Dub le Décembre 16, 2015, 06:34:27
🤔
L'as-tu essayé ???
Non mais bon faux pas s'attendre à des miracles avec une calibration software, une dalle brillante, des LED blanches en rétroéclairage, et pas de LUT 3D. Surtout si on désire ramener l'écran en D50 alors qu'à l'origine il se trouverait plutôt vers les 7200k, il y a aura certainement apparition de banding dans les dégradés. Le 10 bits dans ces conditions est plutôt un argument commercial.
Etant donné qu'il faut une LUT 14 bits pour traiter correctement la correction gamma en 10 bits, et l'imac utilisant la lut de la carte vidéo, donc réduite à 10 bits maximum, je ne vois pas comment on peut s'approcher des performances d'un écran photo avec LUT 14 bits, LUT3D et rétro éclairage GB-R.
L'absence de LUT 3D empêche également l'émulation précise d'espaces couleurs autres que l'espace natif de l'écran.
Belle petite machine très classe mais bon au niveau technique pour l'écran bof... Jusqu'à preuve du contraire c'est loin d'un écran photo, même d'un écran photo milieu de gamme comme un CS240 EIZO ou similaire en NEC (sauf pour la résolution bien sûr).
Un avis détaillé sur les écrans 4K / 5K et l'Imac 5K :
http://forum.nikonpassion.com/index.php?topic=111742.25;wap2
Citation de: olivier1010 le Décembre 16, 2015, 10:31:52
Non mais bon faux pas s'attendre à des miracles avec une calibration software, une dalle brillante, des LED blanches en rétroéclairage, et pas de LUT 3D. Surtout si on désire ramener l'écran en D50 alors qu'à l'origine il se trouverait plutôt vers les 7200k, il y a aura certainement apparition de banding dans les dégradés. Le 10 bits dans ces conditions est plutôt un argument commercial.
Etant donné qu'il faut une LUT 14 bits pour traiter correctement la correction gamma en 10 bits, et l'imac utilisant la lut de la carte vidéo, donc réduite à 10 bits maximum, je ne vois pas comment on peut s'approcher des performances d'un écran photo avec LUT 14 bits, LUT3D et rétro éclairage GB-R.
L'absence de LUT 3D empêche également l'émulation précise d'espaces couleurs autres que l'espace natif de l'écran.
Belle petite machine très classe mais bon au niveau technique pour l'écran bof... Jusqu'à preuve du contraire c'est loin d'un écran photo, même d'un écran photo milieu de gamme comme un CS240 EIZO ou similaire en NEC (sauf pour la résolution bien sûr).
J'ai un viel imac 27" et c'est vrai qu'à coté le nec c'est aute chose, moins flatteur, moins brillant mais certainement plus précis.
La bonne nouvelle c'est que le mac pro est aussi passé aux 10bits et au rythme ou ovnt les choses, mon pc de compétition va finir sur le bon coin pour un gameur et un mac pro va se poser sur mon bureau...
Citation de: gebulon le Décembre 16, 2015, 21:59:11
J'ai un viel imac 27" et c'est vrai qu'à coté le nec c'est aute chose, moins flatteur, moins brillant mais certainement plus précis.
La bonne nouvelle c'est que le mac pro est aussi passé aux 10bits et au rythme ou ovnt les choses, mon pc de compétition va finir sur le bon coin pour un gameur et un mac pro va se poser sur mon bureau...
Cela m'intéresserait de voir un test sérieux de l'écran d'un Imac 5k 27", avec l'uniformité de la dalle, le temps de chauffe, la stabilité thermique, le détail des DeltaE, la moyenne et le maxi sur une gamme d'échantillons large, ainsi que la réaction en cas de réglage en D50.
J'ai cherché sur le net mais je n'ai pas trouvé grand chose.
Citation de: olivier1010 le Décembre 17, 2015, 23:31:40
Cela m'intéresserait de voir un test sérieux de l'écran d'un Imac 5k 27", avec l'uniformité de la dalle, le temps de chauffe, la stabilité thermique, le détail des DeltaE, la moyenne et le maxi sur une gamme d'échantillons large, ainsi que la réaction en cas de réglage en D50.
J'ai cherché sur le net mais je n'ai pas trouvé grand chose.
Parce que ce n'est pas forcément ce que recherche un acheteur de 5k !
J'ai longtemps hésité pour ce dernier, j'i mis des images sur une clef usb et j'ai comparé en magasin le standard et le 5K,
le gain de résolution est à tomber, les couleurs sont vives, contrastées et flatteuses, pas vraiment l'idéal pour du print mais quel pied de visualiser ses images dans cette définition !!!!
Bref, je crois qu'un 5k s'approche plus de ce que recherche monsieur "tout le monde" et je le dis sans mesquinerie (c'est du très très bon produit grand public avertis)
mais ce n'est pas fait pour de la retouche photo dans un soucis de justesse des couleurs.
Encore que je serrai curieux de voir ce qu'un bon imprimeur fera de de deux raws traités sur différents ordi pour peu qu'ils soient calibrés.
La seule chose qui m'avait arrêté, c'était la carte vidéo faiblarde pour l'ajout d'un second écran 27".
J'ai finalement opté pour l'achat d'un écran supplémentaire, mais mon imac ne gérait pas la couleur sur les 2 en simultané.
Au final, j'ai remonté un PC pas trop mal qui fonctionnait, j'ai donc mis le paquet cette fois dans une config au top et depuis je n'ai que des problèmes...
Je viens de le résoudre après 2 mois d'essais et de galère: j'ai acheté un mac pro et je retourne les composants pour test, ensuite je vend le pc !
Et comme le capitaine est en 10bits, du coup c'est 10 bits partout sur mon Nec !!!
reste juste à gérer les raccordements, j'ai quelques soucis de résolution liés au câble minidisplay/displayport semble t-il :D
Citation de: gebulon le Décembre 19, 2015, 21:36:56
Parce que ce n'est pas forcément ce que recherche un acheteur de 5k !
J'ai longtemps hésité pour ce dernier, j'i mis des images sur une clef usb et j'ai comparé en magasin le standard et le 5K,
le gain de résolution est à tomber, les couleurs sont vives, contrastées et flatteuses, pas vraiment l'idéal pour du print mais quel pied de visualiser ses images dans cette définition !!!!
Bref, je crois qu'un 5k s'approche plus de ce que recherche monsieur "tout le monde" et je le dis sans mesquinerie (c'est du très très bon produit grand public avertis)
mais ce n'est pas fait pour de la retouche photo dans un soucis de justesse des couleurs.
Encore que je serrai curieux de voir ce qu'un bon imprimeur fera de de deux raws traités sur différents ordi pour peu qu'ils soient calibrés.
La seule chose qui m'avait arrêté, c'était la carte vidéo faiblarde pour l'ajout d'un second écran 27".
J'ai finalement opté pour l'achat d'un écran supplémentaire, mais mon imac ne gérait pas la couleur sur les 2 en simultané.
Au final, j'ai remonté un PC pas trop mal qui fonctionnait, j'ai donc mis le paquet cette fois dans une config au top et depuis je n'ai que des problèmes...
Je viens de le résoudre après 2 mois d'essais et de galère: j'ai acheté un mac pro et je retourne les composants pour test, ensuite je vend le pc !
Et comme le capitaine est en 10bits, du coup c'est 10 bits partout sur mon Nec !!!
reste juste à gérer les raccordements, j'ai quelques soucis de résolution liés au câble minidisplay/displayport semble t-il :D
Monter un PC sois même n'est pas forcément la meilleure solution si on recherche une machine stable. Surtout si on compare cela à un Mac qui par nature sera beaucoup plus verrouillé au niveau de sa configuration et de sa construction.
Les config maison "au top" sont d'ailleurs souvent celles qui posent le plus de problèmes :)
Citation de: olivier1010 le Décembre 20, 2015, 15:33:31
Monter un PC sois même n'est pas forcément la meilleure solution si on recherche une machine stable.
Le mien est justement monté
à la main par un pote (mais il s'y connait).
Je suis souvent étonné par les problèmes rencontrés ici, qui me sont souvent totalement étrangers...
Citation de: olivier1010 le Décembre 20, 2015, 15:33:31
Monter un PC sois même n'est pas forcément la meilleure solution si on recherche une machine stable. Surtout si on compare cela à un Mac qui par nature sera beaucoup plus verrouillé au niveau de sa configuration et de sa construction.
Les config maison "au top" sont d'ailleurs souvent celles qui posent le plus de problèmes :)
Je pense tout l'inverse, j'ai monté plusieurs machine, ce sont celles qui ont le moins d'emmerde.
pas de protection partout, de programmes inutiles, pas de piège qui empêche l'évolutivité, bref, pour moi rine ne vaut un PC monté avec des composants top.
La j'ai visiblement voulu aller trop loin, config et os trop recent pour que ce soit stable.
A Vendre :p
Citation de: gebulon le Décembre 20, 2015, 16:51:10
Je pense tout l'inverse, j'ai monté plusieurs machine, ce sont celles qui ont le moins d'emmerde.
pas de protection partout, de programmes inutiles, pas de piège qui empêche l'évolutivité, bref, pour moi rine ne vaut un PC monté avec des composants top.
La j'ai visiblement voulu aller trop loin, config et os trop recent pour que ce soit stable.
A Vendre :p
Pour moi aussi, je préfère les machines maison, à condition de bien choisir les composants pour justement ne pas tomber dans les pièges. Cela dit il faut du temps pour arriver à une bonne maîtrise de la situation du moment et il y a toujours une part d'inconnu à moins de monter plusieurs machines par mois, ce qui est plus la situation d'un assembleur... Des pièges il y en a, c'est certain, et à chaque fois différents selon les produits et les OS du moment.
Il y a une solution intermédiaire qui consiste à faire confiance à un spécialiste proposant des machines PC optimisées pour une activité particulière.
A ce que j'ai pu entendre par ci par là, les PC workstations des leaders des fabricants leaders sont quand même très fiables. Évidemment il ne faut pas acheter du PC bureautique ou pire du portable bureautique (y compris de grande marque) si on veut de la stabilité, de la puissance et de l'évolutivité.
Désolé, on dévie un peu du fil...
CitationEt comme le capitaine est en 10bits, du coup c'est 10 bits partout sur mon Nec !!!
petite précision : c'est valable que pour les applications qui prennent en compte le 10 bits. Après l'application Photo et Preview, Photoshop a été mis à jour y'a 3 semaines (+ d'autres...).
L'avantage du Mac par rapport au Pc c'est qu'ils ont un hardware contrôlé et donc plus simple à gérer coté pilote CG.
Après c'est purement de l'arnaque, toutes les cartes peuvent faire du 10bits depuis longtemps, c'est juste que nos amis nvidia et Ati veulent vendre de la carte PRO en bridant leurs pilotes des GTX/Radeon...
Pour info: NVIDIA Geforce graphics cards have offered 10-bit per color out to a full screen Direct X surface since the Geforce 200 series GPUs...
Et pour les experts (à leur risque et péril), il y a des "mod" qui transforme une simple GTX en Quadro pour afficher du 10 bits...ou du 0 bits si la manip foire ;D
Citation de: gebulon le Décembre 19, 2015, 21:36:56
Et comme le capitaine est en 10bits, du coup c'est 10 bits partout sur mon Nec !!!
Tiens, j'ai zappé ça : j'ai un MacBook Pro sous El Capitan (carte graphique NVIDIA GeForce GT 750M) et un second écran NEC en 3x10 bits, est-ce que ça veut dire que j'ai du 10 bits partout ?
Citation de: fr [at] nck le Janvier 02, 2016, 03:22:50
Après c'est purement de l'arnaque, toutes les cartes peuvent faire du 10bits depuis longtemps, c'est juste que nos amis nvidia et Ati veulent vendre de la carte PRO en bridant leurs pilotes des GTX/Radeon...
Oui : il y a longtemps que la plupart des CG ont une architecture matérielle 3 x 10 bits en sortie. C'est juste le pilote qui est bridé.
CitationTiens, j'ai zappé ça : j'ai un MacBook Pro sous El Capitan (carte graphique NVIDIA GeForce GT 750M) et un second écran NEC en 3x10 bits, est-ce que ça veut dire que j'ai du 10 bits partout ?
Non, sur mon Pc j'ai aussi du 10 bits pilote+écran mais rien dans Photoshop car c'est une GTX 780...et cela va dépendre aussi du bon vouloir du couple nvidia/Apple et du software...
Le plus gros avantage du 10 bits c'est sur la retouche des photos N&B qui peut utiliser 1024 niveaux de gris contre 256 sur du 8 bits
Citation de: tenmangu81 le Janvier 02, 2016, 12:10:04
Tiens, j'ai zappé ça : j'ai un MacBook Pro sous El Capitan (carte graphique NVIDIA GeForce GT 750M) et un second écran NEC en 3x10 bits, est-ce que ça veut dire que j'ai du 10 bits partout ?
Pour moi oui, vu que c'est le système d'exploitation et plus le logiciel qui gère.
Mais bon, je ne suis pas assez bon techniquement pour affirmer cela.
Une chose est sure, le rendu de mon écran me semble meilleur maintenant, l'écran affiche la réso et 10 bits au démarrage, mais je ne sais pas si cette info est valable...
Citation de: gebulon le Janvier 02, 2016, 13:11:43
Pour moi oui, vu que c'est le système d'exploitation et plus le logiciel qui gère.
Mais bon, je ne suis pas assez bon techniquement pour affirmer cela.
Une chose est sure, le rendu de mon écran me semble meilleur maintenant, l'écran affiche la réso et 10 bits au démarrage, mais je ne sais pas si cette info est valable...
Pour vérifier que l'affichage 3 x 10 bits est bien pris en compte, télécharge le fichier "ramp.psd" et affiche le dans Photoshop (configuré successivement en 3 x 8 puis 3 x 10 bits).
CitationPour moi oui, vu que c'est le système d'exploitation et plus le logiciel qui gère.
Tu as oublié le pilote CG ;)
Je vais migrer sur El Capitan, je verrai bien.
HS : chose étonnante, dans les benchmark que j'ai fait, à iso hardware, l'os d'Apple est plus performant (CPU perf +10% minimum). Windows 10, comment dire, c'est vraiment de la m... ;D
Citation de: fr [at] nck le Janvier 02, 2016, 14:13:25
HS : chose étonnante, dans les benchmark que j'ai fait, à iso hardware, l'os d'Apple est plus performant (CPU perf +10% minimum). Windows 10, comment dire, c'est vraiment de la m... ;D
Ils en sont déjà à la version 10, chez MS... mazette !
;-)
Sur PC, il suffit de mettre une carte spécifique, type Quadro (la K1200 est très bien, et gère le 4K), avec un écran qui gère bien entendu le 3x10 bits. Windows n'a pas d'entrave, il suffit de bien configurer l'ensemble.
Sur OSX c'est plus "sport" :
Oubliez le 3x10 bits (et parait-il le 3x8 ...) sur un MacBook/Pro (et Mac Mini). Les hardware ET software sont bridés. Certains testeurs outre-atlantique on même affirmé que c'est un pauvre 3x6 bits qui sortirait des entrailles (mais je leur laisse la responsabilité de leur découverte).
Sur le MacPro, il paraitrait (mais c'est une information marketing), que El Capitan aurait été mise à jour pour la gestion du 3x10 bits. Toutefois, je ne suis pas arrivé à trouver l'information que les CG FirePro série D des MacPro sortent bien en 3x10 bits (tout du moins sur les fiches techniques chez AMD). Certaines série V ou W supportent elles le 3 x 10 bits.
Si quelqu'un a des infos je suis preneur :)
Citation de: Will95 le Janvier 08, 2016, 11:40:28
Sur PC, il suffit de mettre une carte spécifique, type Quadro (la K1200 est très bien, et gère le 4K), avec un écran qui gère bien entendu le 3x10 bits. Windows n'a pas d'entrave, il suffit de bien configurer l'ensemble.
Sur OSX c'est plus "sport" :
Oubliez le 3x10 bits (et parait-il le 3x8 ...) sur un MacBook/Pro (et Mac Mini). Les hardware ET software sont bridés. Certains testeurs outre-atlantique on même affirmé que c'est un pauvre 3x6 bits qui sortirait des entrailles (mais je leur laisse la responsabilité de leur découverte).
Sur le MacPro, il paraitrait (mais c'est une information marketing), que El Capitan aurait été mise à jour pour la gestion du 3x10 bits. Toutefois, je ne suis pas arrivé à trouver l'information que les CG FirePro série D des MacPro sortent bien en 3x10 bits (tout du moins sur les fiches techniques chez AMD). Certaines série V ou W supportent elles le 3 x 10 bits.
Si quelqu'un a des infos je suis preneur :)
Le 3x6 bits peut être une limitation de la dalle LCD (plutot sur les dalles TN apparemment) et non de la carte graphique. Certaines dalles bas de gamme ou anciennes sont effectivement en technologie 6 bits + 2 bits FRC (frame rate control). Il y aurait beaucoup de dalles de ce type encore en circulation selon des articles que j'ai vu récemment.
En théorie un bon 6+2 FRC devrait délivrer 8 bits, sauf en vidéo où des artefacts liés au multiplexage temporel se produisent.
Même combat pour les dalles 10 bits, qui sont souvent des dalles 8+2, sauf sur certains écrans photo haut de gamme ou sur les écrans de monitoring vidéo dont le prix dépasse souvent 15 000 euros.
Cela dit le 10 bits réel deviendra de plus en plus courant avec l'arrivée des nouvelles normes HDMI qui incluent un espace couleurs plus large et le support natif du 10 et 12 bits. Le tout surtout destiné au marché TV, mais la photo et la bureautique en bénéficiera certainement aussi à moyen terme, surtout avec l'arrivée des dalles OLED plus contrastées qu'il sera intéressant de gérer plus finement au niveau de la gradation tonale. Voir Dell qui vient de sortir un moniteur OLED 4K.
Citation de: Will95 le Janvier 08, 2016, 11:40:28
Sur PC, il suffit de mettre une carte spécifique, type Quadro (la K1200 est très bien, et gère le 4K), avec un écran qui gère bien entendu le 3x10 bits. Windows n'a pas d'entrave, il suffit de bien configurer l'ensemble.
Sur OSX c'est plus "sport" :
Oubliez le 3x10 bits (et parait-il le 3x8 ...) sur un MacBook/Pro (et Mac Mini). Les hardware ET software sont bridés. Certains testeurs outre-atlantique on même affirmé que c'est un pauvre 3x6 bits qui sortirait des entrailles (mais je leur laisse la responsabilité de leur découverte).
Sur le MacPro, il paraitrait (mais c'est une information marketing), que El Capitan aurait été mise à jour pour la gestion du 3x10 bits. Toutefois, je ne suis pas arrivé à trouver l'information que les CG FirePro série D des MacPro sortent bien en 3x10 bits (tout du moins sur les fiches techniques chez AMD). Certaines série V ou W supportent elles le 3 x 10 bits.
Si quelqu'un a des infos je suis preneur :)
toutes les firepro sont compatible 10 bits.
Mon écran indique 10bits ainsi que la résolution au démarrage et mes yeux trouvent les images plus profondes, mais bon, mes yeux sont pas habitués à voir desbits :D
Citation de: gebulon le Janvier 08, 2016, 20:25:44
Mon écran indique 10bits ainsi que la résolution au démarrage et mes yeux trouvent les images plus profondes, mais bon, mes yeux sont pas habitués à voir desbits :D
Bravo !
De toutes manières en 2016 la plupart des nouveaux écrans "widegamut" seront d'office en 10 bits
Citation de: Quirole le Janvier 15, 2016, 23:33:12
De toutes manières en 2016 la plupart des nouveaux écrans "widegamut" seront d'office en 10 bits
Le mien (début 2014) est déjà an 3x10 bits. Le tout est d'avoir la CG et son driver qui suivent !!
Citation de: tenmangu81 le Janvier 16, 2016, 12:39:06
Le mien (début 2014) est déjà an 3x10 bits. Le tout est d'avoir la CG et son driver qui suivent !!
Et que les logiciels suivent aussi. Pour l'instant en photo seuls Photoshop et Zoner Photo Studio savent sortir en 10 bits à ma connaissance.
Tous les autres utilisent une méthode de dithering (ajout de bruit) pour masquer le banding qui pourrait apparaître sur certaines images de synthèse, ou sur les dégradés crées artificiellement.
Certains RIP aussi permettent d'ajouter du bruit d'une manière ou d'une autre, pour masquer la misère qui aurait pu passer inaperçue en amont.
au fait, si j'ai bien lu, après 6 pages et plusieurs années de discussion: on a répondu à la question qu'il ya bien une différence entre le 8 et le 10 bits (banding du test RAMP), mais personne n'a encore vraiment répondu à la question: voit-on vraiment une différence entre un "8 bits+FRC" et un vrai "10 bits per color component"
Sony Samsung et Dell sont les marques qui l'utilisent le plus le FRC et quand c'est du 8 bits+FRC c'est indiqué 8 bits, pas 10.
Par exemple le Dell U2413 est en 8 bits avec FRC alors que le U2415 est en "vrai" 10 bits. Idem pour les NEC entre le PA241w et le PA242w. Tous ont une dalle AH-IPS. En fait très rares doivent être les personnes ayant déjà vu les 2 côtes à côtes sauf peut-être des vendeurs de la FNAC (est-ce le bon exemple?) ou des graphistes professionnels ...
Citation de: Quirole le Janvier 16, 2016, 22:13:16
au fait, si j'ai bien lu, après 6 pages et plusieurs années de discussion: on a répondu à la question qu'il ya bien une différence entre le 8 et le 10 bits (banding du test RAMP), mais personne n'a encore vraiment répondu à la question: voit-on vraiment une différence entre un "8 bits+FRC" et un vrai "10 bits per color component"
Sony Samsung et Dell sont les marques qui l'utilisent le plus le FRC et quand c'est du 8 bits+FRC c'est indiqué 8 bits, pas 10.
Par exemple le Dell U2413 est en 8 bits avec FRC alors que le U2415 est en "vrai" 10 bits. Idem pour les NEC entre le PA241w et le PA242w. Tous ont une dalle AH-IPS. En fait très rares doivent être les personnes ayant déjà vu les 2 côtes à côtes sauf peut-être des vendeurs de la FNAC (est-ce le bon exemple?) ou des graphistes professionnels ...
Perso je vois une différence dé que l'écran est calibré, quelque soit le nombre de bits...
Maintenant, quand je regarde mes images (logiquement en 10bits par l'os et confirmé par l'écran) les dégradés dans le ciel sont plus "lisses"
et je trouve les couleus sombres plus profondes.
L'idéal serait d'avoir 2 écrans identiques et calibrés tous les 2 avec chacun un affichage différent 8/10 bits pour vraiment "voir" la différence.
Ensuite, il y a simplement la démarche: c'est très bon en 8 bits, j'ai un écran WG, je fais ce qu'il faut pour afficher en 10bits pour optimiser
sans chercher forcément les différences.
Je fonctionne un peu comme ça, j'essaie d'être cohérent dans un ensemble, j'avoue que ce n'est pas toujours facile...
Citation de: Quirole le Janvier 16, 2016, 22:13:16
au fait, si j'ai bien lu, après 6 pages et plusieurs années de discussion: on a répondu à la question qu'il ya bien une différence entre le 8 et le 10 bits (banding du test RAMP), mais personne n'a encore vraiment répondu à la question: voit-on vraiment une différence entre un "8 bits+FRC" et un vrai "10 bits per color component"
Sony Samsung et Dell sont les marques qui l'utilisent le plus le FRC et quand c'est du 8 bits+FRC c'est indiqué 8 bits, pas 10.
Par exemple le Dell U2413 est en 8 bits avec FRC alors que le U2415 est en "vrai" 10 bits. Idem pour les NEC entre le PA241w et le PA242w. Tous ont une dalle AH-IPS. En fait très rares doivent être les personnes ayant déjà vu les 2 côtes à côtes sauf peut-être des vendeurs de la FNAC (est-ce le bon exemple?) ou des graphistes professionnels ...
En ce qui me concerne, j'ai fait la comparaison en validant puis dévalidant le 10 bits (PA241w + W7 + CS6).
On voit la différence en visualisant le fichier ramp, mais sur les photos, pas vu, pour ma part.
ok donc si je résume pour la photo :
1) Le 10bits ne sert à rien (seulement pour la l'image de synthèse en DAO)
2) Le widegamut en AdobeRVB offre un léger confort supplémentaire pour retoucher des nuances, mais pas au final, puisque tout est souvent visionné en sRGB ou imprimé.
La précision des couleurs et l'uniformité de la dalle semblent être les facteurs les plus essentiels donc.
Citation de: Quirole le Janvier 18, 2016, 09:53:07
ok donc si je résume pour la photo :
1) Le 10bits ne sert à rien (seulement pour la l'image de synthèse en DAO)
2) Le widegamut en AdobeRVB offre un léger confort supplémentaire pour retoucher des nuances, mais pas au final, puisque tout est souvent visionné en sRGB ou imprimé.
La précision des couleurs et l'uniformité de la dalle semblent être les facteurs les plus essentiels donc.
Quelques nuances :
1) Le 10 bits :
-il est indispensable en monitoring vidéo dès lors qu'on veut atteindre le rang reference classe 1.
voir : http://www.incospec.com/resources/downloads/CTID2010/Files/Incospec_reference_monitors.pdf
- il est utilisé sur les appareils d'imagerie médicale, afin de délivrer ce que l'œil peut discerner. Ce ne serait pas le cas en 8 bits. Voir la norme DICOM qui donne beaucoup d'infos à ce sujet.
- il est utile en cinéma, qui fait abondamment usage d'images de synthèse ou de scans de haute qualité à partir de film argentique 35mm
2)
De toutes façons tous les écrans photo dignes de ce nom sont en wide gamut, et il y aura certainement un glissement vers des espaces larges avec la mise en place des nouvelles normes 4k ainsi que le HDMI qui supporte désormais le wide gamut.
Qui peut le plus peu le moins. Un écran wide gamut est plus polyvalent. Ce n'est pas tellement une question de confort, mais plus la question de savoir si on peut contrôler correctement ou pas des photos qui dépassent sRGB. Aujourd'hui l'impression jet d'encre est plutôt Adobe RGB voir plus large.
Il faut savoir aussi qu'une photo qui rentre initialement dans sRGB, peut se retrouver en dehors de sRGB après retouche, si par exemple on augmente la saturation des couleurs. Il est donc utile de disposer d'un écran widegamut, si on veut pouvoir contrôler la retouche dans le but de bénéficier correctement d'un espace plus large.
Oui la précision des couleurs et l'uniformité de la dalle. J'ajouterais la stabilité des couleurs. Les écrans bureautiques sont parfois désastreux sur ce point, ou nécessitent une phase de chauffe de 30 minutes voir 1 heure avant de se stabiliser, quand ils se stabilisent... Ou alors ils dévient avec la température de la pièce.
Les écrans photo se stabilisent sur une période de 15 minutes au plus, 7 minutes sur un EIZO CG277, et 3 minutes pour les derniers 4K (CG248-4K). Et ils sont plus ou moins compensés en température pour ne pas dévier avec la température de la pièce. Là on peut parler de confort.
Citation de: olivier1010 le Janvier 18, 2016, 13:20:08
Quelques nuances :
1) Le 10 bits :
-il est indispensable en monitoring vidéo dès lors qu'on veut atteindre le rang reference classe 1.
voir : http://www.incospec.com/resources/downloads/CTID2010/Files/Incospec_reference_monitors.pdf
- il est utilisé sur les appareils d'imagerie médicale, afin de délivrer ce que l'œil peut discerner. Ce ne serait pas le cas en 8 bits. Voir la norme DICOM qui donne beaucoup d'infos à ce sujet.
- il est utile en cinéma, qui fait abondamment usage d'images de synthèse ou de scans de haute qualité à partir de film argentique 35mm
2)
De toutes façons tous les écrans photo dignes de ce nom sont en wide gamut, et il y aura certainement un glissement vers des espaces larges avec la mise en place des nouvelles normes 4k ainsi que le HDMI qui supporte désormais le wide gamut.
Qui peut le plus peu le moins. Un écran wide gamut est plus polyvalent. Ce n'est pas tellement une question de confort, mais plus la question de savoir si on peut contrôler correctement ou pas des photos qui dépassent sRGB. Aujourd'hui l'impression jet d'encre est plutôt Adobe RGB voir plus large.
Il faut savoir aussi qu'une photo qui rentre initialement dans sRGB, peut se retrouver en dehors de sRGB après retouche, si par exemple on augmente la saturation des couleurs. Il est donc utile de disposer d'un écran widegamut, si on veut pouvoir contrôler la retouche dans le but de bénéficier correctement d'un espace plus large.
Oui la précision des couleurs et l'uniformité de la dalle. J'ajouterais la stabilité des couleurs. Les écrans bureautiques sont parfois désastreux sur ce point, ou nécessitent une phase de chauffe de 30 minutes voir 1 heure avant de se stabiliser, quand ils se stabilisent... Ou alors ils dévient avec la température de la pièce.
Les écrans photo se stabilisent sur une période de 15 minutes au plus, 7 minutes sur un EIZO CG277, et 3 minutes pour les derniers 4K (CG248-4K). Et ils sont plus ou moins compensés en température pour ne pas dévier avec la température de la pièce. Là on peut parler de confort.
De ce que je lis, tu as l'air assez branché eizo.
Que me conseilles tu?
J'ai un Nec sw272r, je voudrai un second écran, comme nec m'a gonflé avec son histoire de compatibilité de câble MDP/DP et qu'ils n'ont pas répondu du tout à mon problème,
je n'ai franchement pas envie de les faire bosser à nouveau.
Quell est selon ton la meilleure alternative. (j'ai une colormunki photo, j'imprime chez moi avec profil écran et papier)
Citation de: gebulon le Janvier 19, 2016, 18:50:45
De ce que je lis, tu as l'air assez branché eizo.
Que me conseilles tu?
J'ai un Nec sw272r, je voudrai un second écran, comme nec m'a gonflé avec son histoire de compatibilité de câble MDP/DP et qu'ils n'ont pas répondu du tout à mon problème,
je n'ai franchement pas envie de les faire bosser à nouveau.
Quell est selon ton la meilleure alternative. (j'ai une colormunki photo, j'imprime chez moi avec profil écran et papier)
A mon avis pour la photo CX241 ou CX271 pour le rapport performance/prix/confort d'utilisation (capteur intégré pour maintenir le point blanc et la luminance automatiquement).
CG247 ou CG277 voir les modèles 4K CG quand on peut se le permettre, c'est quand plutôt pour un usage pro vu le prix. Cela dit on voit pas mal d'amateurs avec des boitiers 5D, 1D, et des optiques haut de gamme... conclusion ?
La Colormunki n'est pas ce se fait de mieux pour calibrer un écran, si problème de budget j'aurais tendance à dire qu'il faut mieux prendre un écran de la gamme en dessous, comme un CS240 ou CS270, et se payer une sonde i1 Display pro, qui est vraiment optimisée pour la mesure des écrans.
Je suis pas trop pour avoir deux écrans différents. Il est impossible d'avoir exactement la même colorimétrie avec deux dalles différentes. Si possible préférer deux écrans identiques.
Je pense que EIZO est un petit cran au dessus par rapport à NEC en terme de performances, notamment le temps de préchauffage sur lequel NEC ne communique pas du tout.
EIZO a réussi à descendre à 3 minutes sur les derniers écrans 4K CG248 et CG318, contre 7 minutes pour la génération précédente (CG247 et CG277).
Par contre NEC propose une option que EIZO n'a pas, comme la possibilité de mettre un module pour une entrée supplémentaire, ce qui offre la possibilité d'avoir une entrée SDI, indispensable pour la vidéo pro. Inutile en photo. Et aussi un design peut être plus sympa ainsi qu'une qualité de fabrication qui semble meilleure vue de l'extérieure. Mais est ce qu'on achète un écran pour le trimballer ou pour le montrer ? Pour certains cela aura peut être de l'importance.
Le logiciel de calibration EIZO, Colornavigator, est certe sobre, mais il est performant et fonctionne parfaitement. Il est à la fois facile à utiliser tout en offrant des fonctions très pro. C'est ce qui fait que j'aime bien EIZO. C'est pas très sexy mais ça fait ce qu'on demande sans broncher, avec les meilleures performances.
Cela dit si on m'offre des NEC spectraview, je les prends :)
Citation de: olivier1010 le Janvier 19, 2016, 20:19:14
A mon avis pour la photo CX241 ou CX271 pour le rapport performance/prix/confort d'utilisation (capteur intégré pour maintenir le point blanc et la luminance automatiquement).
CG247 ou CG277 voir les modèles 4K CG quand on peut se le permettre, c'est quand plutôt pour un usage pro vu le prix. Cela dit on voit pas mal d'amateurs avec des boitiers 5D, 1D, et des optiques haut de gamme... conclusion ?
La Colormunki n'est pas ce se fait de mieux pour calibrer un écran, si problème de budget j'aurais tendance à dire qu'il faut mieux prendre un écran de la gamme en dessous, comme un CS240 ou CS270, et se payer une sonde i1 Display pro, qui est vraiment optimisée pour la mesure des écrans.
Je suis pas trop pour avoir deux écrans différents. Il est impossible d'avoir exactement la même colorimétrie avec deux dalles différentes. Si possible préférer deux écrans identiques.
Je pense que EIZO est un petit cran au dessus par rapport à NEC en terme de performances, notamment le temps de préchauffage sur lequel NEC ne communique pas du tout.
EIZO a réussi à descendre à 3 minutes sur les derniers écrans 4K CG248 et CG318, contre 7 minutes pour la génération précédente (CG247 et CG277).
Par contre NEC propose une option que EIZO n'a pas, comme la possibilité de mettre un module pour une entrée supplémentaire, ce qui offre la possibilité d'avoir une entrée SDI, indispensable pour la vidéo pro. Inutile en photo. Et aussi un design peut être plus sympa ainsi qu'une qualité de fabrication qui semble meilleure vue de l'extérieure. Mais est ce qu'on achète un écran pour le trimballer ou pour le montrer ? Pour certains cela aura peut être de l'importance.
Le logiciel de calibration EIZO, Colornavigator, est certe sobre, mais il est performant et fonctionne parfaitement. Il est à la fois facile à utiliser tout en offrant des fonctions très pro. C'est ce qui fait que j'aime bien EIZO. C'est pas très sexy mais ça fait ce qu'on demande sans broncher, avec les meilleures performances.
Cela dit si on m'offre des NEC spectraview, je les prends :)
Merci pour tes infos, ma sonde a des années et pour le print à la maison, c'est top.
Je ne crois pas qu'il y est une autre solution, sauf à acheter une pour l'écran et l'autre pour la papier.
Je note pour les écrans ;)