Bonjour!
voilà, ça y est, ça marche!
Suite à nos discussions de comptoir, et ayant un besoin impérieux (à mes yeux) d'une nouvelle
carte graphique, j'ai opté pour l'achat d'une ATI Firepro 4800.
Donc voici la liste du matériel installé:
CPU Intel Core I7-870 2,93GHz x 8 coeurs
8 Go de DDR3
CG ATI Firepro V4800
Moniteur NEC Spectraview Reference 241w
Cable Display Port
Logiciels:
Windows 7 Pro 64 bits
Photoshop CS5
LR3
Modus Operandi:
Désinstaller les logiciels et drivers de votre CG actuelle.
Eteindre l'ordi.
Procéder à l'échange de la CG.
Redémarrer l'ordi.
Insérer le CD livré avec la CG dans le lecteur.
Installer ATI Catalyst Pro ainsi que les drivers.
Ouvrir Catalyst Control Center (CCC).
Dans l'onglet Graphique choisir Poste de Travail
Dans Poste de Travail cocher Activer la prise en charge du
format 10 bits par pixel.
Sous CS5, aller dans édition, préférences et cocher Activer le dessin Open GL.
Et alors là, vous aurez l'immense privilège de voir le sublime dégradé de M. Métairie sans aucun applat.
Vous aurez aussi l'incommensurable honneur de faire partie de la caste, le mot n'est pas trop fort, des
gens du monde, voire même de France, regardant leurs images en 10 bits (20 coui..es) sous Cs5.
A mon humble avis, qui n'est que le mien: aucun intérêt pour la retouche photo, ou alors ça se saurait...
PS: j'avais vraiment besoin d'une nouvelle CG.
Re PS: n'oubliez surtout pas de commander le cable DP en même temps que votre CG, car on n'en trouve pas
chez l'épicier du coin.
Amitiés.
A+.
J-F.
Merci pour le retour, J-F !
Donc, selon toi, rafale, le "10 bits" serait un mirage...
Vraiment pas d'amélioration à ton avis sur des photos présentant des aplats ou dégradés subtils (parce que la mire CMP, c'est bien, mébon...) ?
Désolé,
perso, je n'ai pas de photo présentant des cassures dans les dégradés en 8 bits pour pouvoir l' "ausculter" en 10 bits.
Une image lisse en 8 bits sera forcément lisse en 10 bits.
Je ne pense pas que ça vaille la peine de changer de configuration pour cela, sinon les commerciaux de tous poils nous auraient déjà convaincus
de dépenser quelques milliers d'€ dans ce système.
Je les vois défilant dans la rue avec leur pancarte "Hors le 10 bits, point de salut".
En parlant de rafale et de mirage, je n'ai guère que ça:
(http://img827.imageshack.us/img827/940/raf2000jagweb.jpg) (http://imageshack.us/photo/my-images/827/raf2000jagweb.jpg/)
Et un tagazou qui date d'avant la traversée de la Manche par Blériot. ;)
En arrère plan, ce sont différentes lignes d'arbres.
Aller, c'est l'heure de l'apéro.
Amitiés.
A+.
J-F.
Citation de: rafale52 le Septembre 13, 2011, 19:51:02
Je ne pense pas que ça vaille la peine de changer de configuration pour cela, sinon les commerciaux de tous poils nous auraient déjà convaincus
de dépenser quelques milliers d'€ dans ce système.
En fait, dans mon cas, j'ai déjà l'écran 10 bits, et le pote qui m'a monté mon PC est prêt à me reprendre l'ATI qu'il m'a vendu d'occase lors de la MàJ de mon UC. Le changement de CG devrait donc se chiffrer à quelques dizaines d'euros... reste le câble DP, et puis la manip d'ouvrir le PC !
Maintenant, j'étais déjà (presque) convaincu que la différence doit être minime, surtout qu'il n'y a que CS5 qui en profitera, au bout du compte...
Je parle pour quelqu'un qui part de zéro.
J'ai payé 150 € la CG + 40 € le cable.
Mais bon, ma CG, une ATI 4850 était au bout du rouleau.
J'ai essayé, par curiosité, de monter la 2ème CG en DVI,
et bien ça marche; il suffit de sélectionner la CG dans le panneau
de configuration et de sélectionner l'entrée de l'écran avec le bouton Input .
Amitiés.
A+.
J-F.
Citation de: rafale52 le Septembre 13, 2011, 20:17:57
Je parle pour quelqu'un qui part de zéro.
J'ai payé 150 € la CG + 40 € le cable.
Mais bon, ma CG, une ATI 4850 était au bout du rouleau.
C'est justement une ATI HD 4850 qui est actuellement montée dans mon PC... mais elle est en pleine forme !
Bravo Rafale52.
Il fallait oser essayer et investir.
Mais pour tester le 30 bits il faut: des images qui contiennent les nuances + les présenter( calculer) de façon à être viusualisables + mettent leur moniteur dans une pénombre adhoc + que l'oeil de l'observateur soit trés expérimenté ++. Avec un tel matériel çà vaut le coup de mettre toutes les chances de son côté.
On a fait le test dans une équipe de 15 personnes (sur images générées spécialement): certes c'est peu mais c'est leur métier:
-dans la première minute 1 seul a vu une différence et capable de la décrire . Impressionant le gars.
-5 on vus spontannément aprés leur avoir dit d'attendre une accoutumance et d'entraîner leur oeil-cerveau sur la recherche de nuances ulta fines ( ce n'est pas inné)
-Aprés " éducation" du reste du groupe 5 ont vu de façon contrôlée deux ont déclarés voir mais pas sûr
-5 n'ont rien vus dont trois avec lunettes ( peut être un pb de filtage UV anti reflet etc) et deux aucune explication autre que leur non performance.
Je passe les croisements selon l'âge etc. jeunes middle + de 40. Les plus jeunes ne sont pas sortis forcémment les meilleurs. Il y a un facteur entrainement qui joue beaucoup.
Bref avant de passer au 30 bits çà vaut le coup de tester sa vue , mais aucun ohptalmo généraliste n'est équipé pour, me semble t-il ( AC).
C'est un peu comme la vraie stéréo dans certains métiers : quand on a vu une fois on ne peut plus s'en passer mais avant ...
finalement on en revient a discussion avec olivier-p: on voit pas tellement la diff au final
Non Masterkun, ce qu'il faut dire c'est : pour certains non effectivement pas de diff pour de multiples raisons. Mais pour d'autres c'est définitivement un progrés irréversible.
Un amateur de hard rock n'aura pas la sensibilité d'oreille d'un grand prof de musique.
Personne ne peut conclure à la place de son voisin s'agissant de facteurs humains.
Et puis c'est comme 24 MP au lieu de 6 Mega pixels, il y en a qui ne voient toujours pas de différence .
Un deuxième test va être conduit avec une population de métiers visuels : d'artistes peintres ,pastelistes, coloristes et graphistes. donc des yeux "éduqués et sensibles" etc. Il est probable que les stats vont remonter.
Moi ce qui me plait bien c'est que l'âge ( sauf maladie visuelle) n'est pas semblet-il un facteur limitant sur cet aspect ! (AC sur une population plus large).
Citation de: restoc le Septembre 14, 2011, 07:39:40
Un amateur de hard rock n'aura pas la sensibilité d'oreille d'un grand prof de musique.
Même si c'est un grand prof de musique hard rock ? ;D
Pour ceux qui ont du matériel capable d'exploiter 10bits d'affichage par canal il serait idiot de s'en priver (que cela se voit ou non pour le propriétaire) ;)
(je vais essayer, ma carte annonce du 32 bits en sortie, je vais recevoir un moniteur qui semble pouvoir afficher 30bits de couleur, après il faut que les drivers, soft et câbles le supporte...pas gagné)
Citation de: MarcF44 le Septembre 14, 2011, 08:24:24
je vais essayer, ma carte annonce du 32 bits en sortie [...]
32 ?
Citation de: Verso92 le Septembre 14, 2011, 08:43:36
32 ?
Oui, 32 bits de couleur (*), je t'accorde que c'est pas facile à diviser en 3 canaux ;D
Ca laisse espoir non ? :
-Sorties DVI dual-link pour les résolutions 2560x1600 des écrans plats
-Deux RAMDAC à 400 MHz intégrées pour les résolutions jusqu'à 2048x1536 à 85 Hz des écrans analogiques
-Codeur HDTV intégré fournissant une sortie TV analogique (Composant/Composite/S-Video) jusqu'à 1080i/1080) de résolution.
-Technologie multi-écran NVIDIA nView®
-Traitement de l'affichage en 10 bits.
(*) c'est ce qu'indique le périphérique dans MacOsX : Profondeur de pixels : Couleurs 32 bits
Il me semble que le 4ème, c'est la couche alpha, utilisée, entre autres, pour la transparence (windows aéro etc...)...Sous réserves...
Citation de: MarcF44 le Septembre 14, 2011, 12:58:43
Oui, 32 bits de couleur (*), je t'accorde que c'est pas facile à diviser en 3 canaux ;D
Pour moi, c'est 32 = 8 x (3 + 1).
(avec comme explication celle donnée par Patounet9, qui est aussi celle qui me vient à l'esprit)
Citation de: restoc le Septembre 13, 2011, 22:21:13
On a fait le test dans une équipe de 15 personnes (sur images générées spécialement): certes c'est peu mais c'est leur métier[...]
C'est un peu comme la vraie stéréo dans certains métiers : quand on a vu une fois on ne peut plus s'en passer mais avant ...
De fait, ce sont plutôt les commentaires sur un "retour arrière" qui me paraitraient intéressants : une fois que l'oeil s'est habitué à la richesse des nuances, quel est le ressenti lorsqu'on revient sur un écran 24 bits...
Citation de: restoc le Septembre 14, 2011, 07:39:40
Non Masterkun, ce qu'il faut dire c'est : pour certains non effectivement pas de diff pour de multiples raisons. Mais pour d'autres c'est définitivement un progrés irréversible.
Un amateur de hard rock n'aura pas la sensibilité d'oreille d'un grand prof de musique.
Personne ne peut conclure à la place de son voisin s'agissant de facteurs humains.
Et puis c'est comme 24 MP au lieu de 6 Mega pixels, il y en a qui ne voient toujours pas de différence .
Un deuxième test va être conduit avec une population de métiers visuels : d'artistes peintres ,pastelistes, coloristes et graphistes. donc des yeux "éduqués et sensibles" etc. Il est probable que les stats vont remonter.
Moi ce qui me plait bien c'est que l'âge ( sauf maladie visuelle) n'est pas semblet-il un facteur limitant sur cet aspect ! (AC sur une population plus large).
sachant que vous avez utilisé des images spécifiques générées pour l'occasion, je dirais tout de même que sur des photos classiques, la différence est encore plus difficile à percevoir. Pour comparaison, l'affichage wide gamut se voit beaucoup plus facilement sans chercher la petite bête et avoir un oeil expérimenté.
a la difference d'un affichage non calibré ou très dénaturant d'un point de nombre de couleurs (je pense aux vieilles dalles LCD <8 bits), l'écart n'est pas évident même si présent et "humainement détectable".
Après, si l'on a les moyens, why not mais à mettre en parallèle le fait que l'affichage est très contraignant (chaîne graphique 10 bit + CS5 uniquement + PC car MacOS ne supporte pas affichage 10bit) au vu du gain.
D'ailleurs, les tables de LUT des écrans de qualité étant supérieures à affichage 10 bits, les pb de dégradés qui démontrent l'intéret du 10 bit ne sont-ils pas attenués ? (via fonction de correction de gamma)
Citation de: masterkun le Septembre 14, 2011, 16:28:08
...MacOS ne supporte pas affichage 10bit...
Tu es sûr ? :-\
Citation de: MarcF44 le Septembre 14, 2011, 19:44:52
Tu es sûr ? :-\
C'est probable : les Mac ne sont pas vraiment adaptés à la photo dès qu'on veut travailler sérieusement...
Citation de: Verso92 le Septembre 14, 2011, 19:54:47
C'est probable : les Mac ne sont pas vraiment adaptés à la photo dès qu'on veut travailler sérieusement...
On dirait ;) Mais je ne suis qu'amateur donc ce n'est pas un drame 8)
Citation de: MarcF44 le Septembre 14, 2011, 20:01:28
On dirait ;) Mais je ne suis qu'amateur donc ce n'est pas un drame 8)
Koâ ? Tu travailles pas en 10 bits par couleur ?
Pfff... amateur, va !
Citation de: Verso92 le Septembre 14, 2011, 20:02:31
Koâ ? Tu travailles pas en 10 bits par couleur ?
Paraît qu'une dalle LCD de portable est en 6 bits maxi sur chaque canal ;D
Mais j'attends un beau 27" Wide Gamut ;)
Citation de: Verso92 le Septembre 14, 2011, 20:02:31
Pfff... amateur, va !
CQFD 8)
PS : c'est vrai que tu négliges les smileys en ce moment 8)
Citation de: MarcF44 le Septembre 14, 2011, 20:04:24
Paraît qu'une dalle LCD de portable est en 6 bits maxi sur chaque canal ;D
Y parait...
Citation de: MarcF44 le Septembre 14, 2011, 20:04:24
Mais j'attends un beau 27" Wide Gamut ;)
Whaou !
Citation de: MarcF44 le Septembre 14, 2011, 20:04:24
PS : c'est vrai que tu négliges les smileys en ce moment 8)
Je sais plus qui écrivait ça : "quand c'est énorme, le smiley est implicite"...
(un jour, j'ai écrit que le M9 était fabriqué au Japon par Cosina (sans smiley)... me suis fait engueuler par JMS ! ;-)
;-)
Bonsoir,
un scoop: LR3 gère le 10 bits. La très célèbre image ( je n'est pas dit Sainte ) de CMP apparait lisse,
sans aucune aspérité. Comment cela ce n'est pas un scoop ?
Même pas un petit ?
Aller, une image, je n'ai pas dit une photo, afin d'éviter les insultes:
(http://img717.imageshack.us/img717/8383/gaby232560x35.jpg) (http://imageshack.us/photo/my-images/717/gaby232560x35.jpg/)
En 8 bits, présence de bandes verticales.
10 bits pareil.
Cette image a été imprimée en 35 x 60 cm par une machine à projeter des gouttes d'encre Canon ( le terme imprimante étant réservé à Epson ;) ) sur
Canvas Hahnemuhle Leonardo, monté avec un passe-partout noir mat, le tout dans dans un cadre doré mat.Je peux vous dire que ça en jette.
J'ai presqu'envie de me l'offrir.
Et les cassures de tons disparaissent à l'impression.
Qu'en penser ?
Je crois que pour la majorité des photographes, cela reste un gadget.
Toutefois, pour les gens qui pensent à trois décimales après la virgule, cette résolution est obligatoire.
Voili, voilou, j'espère n'avoir froissé personne.
Le système étant installé, je vais le garder, mais bon...
Amitiés.
A+.
J-F.
Tout à fait masterkhun.
En photo classique 10 bits çà peut être du luxe totalement inutile (et cher) si on a un APN qui a un capteur moyen ou nul en entrée ou bien selon le sujet ou son éclairement.
Entre celui qui n'aime que faire des photos de damiers noir et blancs avec une source monochromatique ( si si çà doit bien exister !! ;D) et ceux qui traquent la petite bête en repro d'oeuvre d'art les exigences ne sont pas les mêmes.
Enfin ouf je suis sur PC pas sur Mac. Pas étonnant qu'il y en a qui ne voient pas la différence ... ; ;D ;D ( Provocation éhontée Ndlr).
Citation de: restoc le Septembre 14, 2011, 21:49:34
Tout à fait masterkhun.
En photo classique 10 bits çà peut être du luxe totalement inutile (et cher) si on a un APN qui a un capteur moyen ou nul en entrée ou bien selon le sujet ou son éclairement.
Entre celui qui n'aime que faire des photos de damiers noir et blancs avec une source monochromatique ( si si çà doit bien exister !! ;D) et ceux qui traquent la petite bête en repro d'oeuvre d'art les exigences ne sont pas les mêmes.
Enfin ouf je suis sur PC pas sur Mac. Pas étonnant qu'il y en a qui ne voient pas la différence ... ; ;D ;D ( Provocation éhontée Ndlr).
bah je t'avouerais que pour mon cas précis, j'ai un écran eizo non wide gamut et je suis sur mac
après je ne suis qu'un humble amateur qui essaie de cadrer/régler mon boîtier du mieux qu'il peut et que je fais principalement du portrait en n&b
donc pour moi le 10 bit et le wide gamut... c'est tout de suite moins grave ;)
je comprends par contre tout à fait qu'en repro d'art, tu aies absolument besoin d'un affichage le plus fidèle/complet possible.
par contre pour photo, je reste franchement dubitatif: par ailleurs, la qualité d'une photo ne se juge pas à mon sens prioritairement sur ces subtilités de nuance de couleur (perceptibles 8bit/10bit).
en tout cas à mon humble avis, il y a foule de critères qui passent bien avant.
si en plus, on considère que l'affichage écran n'est qu'un moyen de diffusion/contrôle avec pour objectif final le tirage, je trouve vraiment qu'il n'y a pas mort d'homme.
après comme le dit rafale, si on a le matos qui va bien, autant en profiter!
sinon pour l'histoire des 10bit sur mac, je me dois de corriger ce que j'ai dit.
en fait cela fonctionne sur Mac Pro avec carte professionnelle ATI ou Nvidia (comme sur PC finalement) mais pas sur du mac grand public qui n'ont d'ailleurs pas d'interface directe display port. (logique)
comme sur PC, pour afficher en 10 bit, le driver utilise OpenGL.
PS: je sais pas si tu considères que j'ai un APN nul en entrée (j'ai un simple D7000 que j'apprécie beaucoup :D) ... mais je suis myope :P (ca compense peut être)
Pas de pb masterkun, je ne parlai pas de votre D7000 que je ne connais pas mais d'une manière générale bp d'appareils un peu anciens de type entrée de gamme ou tous les petits capteurs des petits compacts. par ex. Feu mon D80 peinait à faire du 8 bits significatif et c'est pas vieux.
On est tout à fait d'accord une "bonne " photo d'art ou de reportage n'est pas liée forcémment au nb de bits , de pixels et de tous les criteres techniques.
Je n'ai d'ailleurs même pas encore testé mon D3s perso sur ce point. Je ne veux même pas savoir. Mais là c'est en usage perso.
Bon si les macs peuvent faire 10 bits vous avez fait économiser quelques terraoctets de fils sur le disque du forum :D :D
Citation de: restoc le Septembre 15, 2011, 06:59:20
Pas de pb masterkun, je ne parlai pas de votre D7000 que je ne connais pas mais d'une manière générale bp d'appareils un peu anciens de type entrée de gamme ou tous les petits capteurs des petits compacts. par ex. Feu mon D80 peinait à faire du 8 bits significatif et c'est pas vieux.
On est tout à fait d'accord une "bonne " photo d'art ou de reportage n'est pas liée forcémment au nb de bits , de pixels et de tous les criteres techniques.
Je n'ai d'ailleurs même pas encore testé mon D3s perso sur ce point. Je ne veux même pas savoir. Mais là c'est en usage perso.
Bon si les macs peuvent faire 10 bits vous avez fait économiser quelques terraoctets de fils sur le disque du forum :D :D
dans la théorie le D7000 supporte 14 bit mais je t'avouerais que j'ai configuré en 12bit pour rester raisonnable en terme d'espace pris pour les fichiers RAW mais peut etre ai-je tort?
peut etre en effet, aurais je plus de nuances subtiles sur la peau dans mes portraits... il faudra que j'essaie à l'occasion (mais comme je n'ai qu'un écran eizo d'amateur, pas sûr de m'en apercevoir ;))
Citation de: masterkun le Septembre 15, 2011, 00:37:30
sinon pour l'histoire des 10bit sur mac, je me dois de corriger ce que j'ai dit.
en fait cela fonctionne sur Mac Pro avec carte professionnelle ATI ou Nvidia (comme sur PC finalement) mais pas sur du mac grand public qui n'ont d'ailleurs pas d'interface directe display port. (logique)
Mon "vieux" mac a déjà une carte nVidia qui prends en charges les 10 bits, sa sortie DVI dual link peut les faire passer sur le papier, les portables apple plus récent ont une interface display port, j'ai donc du mal à comprendre ce que le MacPro change là dedans ::)
Tu es vraiment sûr de ton coup là ?
Citation de: MarcF44 le Septembre 15, 2011, 08:03:32
Mon "vieux" mac a déjà une carte nVidia qui prends en charges les 10 bits, sa sortie DVI dual link peut les faire passer sur le papier [...]
NVidia est plutôt prudent sur ce coup-là...
Un extrait d'une de leur doc :
Citation de: Verso92 le Septembre 15, 2011, 08:15:13
NVidia est plutôt prudent sur ce coup-là...
Entre les limitations des cartes, des connecteurs, de l'OS, des logiciels c'est assez difficile de s'y retrouver, par contre est-ce que le moniteur va afficher en quel profondeur de couleur il reçoit le signal ?
Citation de: MarcF44 le Septembre 15, 2011, 08:19:42
Entre les limitations des cartes, des connecteurs, de l'OS, des logiciels c'est assez difficile de s'y retrouver, par contre est-ce que le moniteur va afficher en quel profondeur de couleur il reçoit le signal ?
+1000
en investiguant un peu plus, il existe des adaptateurs minidisplay port -> displayport qui permettent (parfois) de maintenir la compatibilité 10bit
certains constructeurs comme Nec vendent à priori des cables minidisplay port <-> display port
ensuite pour les drivers, bah c'est la croix et la bannière semble-t-il.
comme sur PC, les modèles pro marchent quasiment tout le temps sur du récent.
pour les cartes grand public, c'est beaucoup plus variable et varie aussi au fil des releases OS suivant le driver packagé par Apple (de temps à autre, support 10 bit disparaît temporairement pour certains modèles)
bref galère finalement (contraire à la philosophie apple pourtant) mais bon, le support 10 bit n'est pas un pb "grand public" donc je pense qu'Apple/Microsoft s'intéressent au sujet de loin (marché de niche car la majorité des utilisateurs n'achetera pas un écran 10 bit)
Des retours sur une éventuelle utilisation du "10 bits" sur un Mac m'intéressent...
En N&B je pense que c'est intéressant !
Voici un sujet très intéressant....
J'ai opté pour un Dell U2410 il y a quelques jours et comme ma CG HD5450 n'a pas de port display je me suis dit que j'allais en changer.
Lorsque j'ai commencé à me renseigner j'ai entendu parlé de la compatibilité 10 bit..... mais est ce que la différence de prix vaut vraiment le coups ?
Aujourd'hui, la différence entre 10 bits et 8 bits ne me saute toujours pas aux yeux.
Amitiés.
A+.
J-F.
Citation de: rafale52 le Septembre 29, 2011, 11:42:56
Aujourd'hui, la différence entre 10 bits et 8 bits ne me saute toujours pas aux yeux.
Amitiés.
A+.
J-F.
Je ne pense avoir encore ce privilège pour comparer par contre entre un écran normal et un écran WideGamut la différence me saute TROP aux yeux ;D ...Je ne sais pas si en 10 bits les choses seraient plus simples, je crois que ça n'a pas de rapport ::)
Entre gamut et 10 bits il n'y a pas de rapport.
Pour info le display port à qqs avantages:
-C'est le seul à pouvoir passer à des résolutions de 2560*1600 en 10 bits et plus si affinité. Il a donc une polyvalence plus importante pour l'avenir si on envisage d'avoir par exemple un écran 30 pouces en 10 bits.
-Il supporte des longueurs de câble plus importante que le DVI qui est en gros limité à 2 m. Connecteur et câbles plus petits et maniables.
Pour voir la différence entre entre 10 et 8 bits il y a bp de conditions à additionner: déjà au moins une de base : avoir diverses images ayant 30 bits rééllement remplis et signicatifs ( pas juste 20 pixels dans un coin dans les bits de poids faibles !) et les visionner en simultanné avec un écran 8 bits à côté Là çà commence à sauter aux yeux. Mais si les images de départ n'en n'ont que 8 ... pas de chance de voir une diff.
Citation de: restoc le Septembre 29, 2011, 17:16:11
Pour info le display port à qqs avantages:
-C'est le seul à pouvoir passer à des résolutions de 2560*1600 en 10 bits et plus si affinité. Il a donc une polyvalence plus importante pour l'avenir si on envisage d'avoir par exemple un écran 30 pouces en 10 bits.
Tu es certain ? En DVI Dual link j'ai lu que cela pouvait monter (en théorie) jusque 48 bits par pixel
Je n'ai aucuns problème pour passer du 2560x1440 en 8 bits via une DVI.
En 8 bits le double DVI-I passe 2560*1600 à 60 hz . En 10 bits c'est hors norme ou alors limite limite donc incertain. Il vaut mieux assurer le coup avec le Display port. Avoir des frisotis sur un écran hors de prix passant le 10 bits pour une histoire de connecteur çà doit faire mal aux neurones aprés avoir vidé le compte en banque.
un extrait des notices Nvidia des toutes dernières cartes professionelles quadro
Table 3. Maximum Resolutions for Native Display Connectors
Display Connector
Maximum Resolution
Single-link DVI
1920 x 1200 at 60 Hz (24 bits per pixel)
Dual-link DVI
2560 x 1600 at 60 Hz (24 bits per pixel) or
1920 x 1080 at 120Hz (24 bits per pixel)
VGA
2048 x 1536 at 85 Hz (24 bits per pixel)
DisplayPort
2560 x 1600 at 60 Hz (30 bits per pixel)
Une bonne config qui fait bien çà : une Nvidia quadro 2000 ou 4000 et le Nec Spectraview 303 par ex. Bon certes çà fait cher!
Citation de: MarcF44 le Septembre 29, 2011, 19:08:20
Tu es certain ? En DVI Dual link j'ai lu que cela pouvait monter (en théorie) jusque 48 bits par pixel
Je n'ai aucuns problème pour passer du 2560x1440 en 8 bits via une DVI.
En tout cas, sur le Nec PA241w, il est clairement spécifié que le 3x10 bits n'est possible qu'en DisplayPort...
Citation de: Verso92 le Septembre 29, 2011, 23:12:37
En tout cas, sur le Nec PA241w, il est clairement spécifié que le 30 bits n'est possible qu'en DisplayPort...
Ok, il semblerait que les Macs soient limités à 24 de toutes façons même en DisplayPort, tu arrives à exploiter du 30 bits toi ?
Citation de: MarcF44 le Septembre 29, 2011, 23:15:34
Ok, il semblerait que les Macs soient limités à 24 de toutes façons même en DisplayPort, tu arrives à exploiter du 30 bits toi ?
Je n'ai pas la CG qui va bien, mais il n'y a aucun soucis en principe (cf expérience de rafale52)...
Citation de: Verso92 le Septembre 29, 2011, 23:16:33
...mais il n'y a aucun soucis en principe (cf expérience de rafale52)...
Je crois comprendre qu'il n'a ce résultat que dans CS5...Pas le meilleur soft de diaporama ;)
Citation de: MarcF44 le Septembre 29, 2011, 23:21:38
Je crois comprendre qu'il n'a ce résultat que dans CS5...Pas le meilleur soft de diaporama ;)
C'est la principale lacune du système...
Il semblerait qu'il ne me manque plus que la garte graphique ad hoc, je vise la ATI firepro V3800 (100 €)
http://www.amd.com/cn/Documents/48108-B_ATI_FirePro_Adobe_10-Bit_FAQ_R5_Final.pdf
voici ma config:
moniteur: DELL U2711 connecté en DisplayPort
OS: Win 7 64 bit
software: CS 5
je pense que je vais faire le saut, à moins que vous ne voyez un piège,
l'écran est dans la liste agréée par ATI Firepro (voir le lien ci-dessus)
le DisplayPort supporte le 10 bit par canal
Photoshop CS5 aussi
Des problemes avec les LUT/profils a envisager ?
Citation de: SimCI le Septembre 30, 2011, 14:42:58
Des problemes avec les LUT/profils a envisager ?
Mon Nec SV241 est calibré en hardware, donc aucun problème de ce côté.
Citation de: ClaudeSch le Septembre 30, 2011, 14:23:55
Il semblerait qu'il ne me manque plus que la garte graphique ad hoc, je vise la ATI firepro V3800 (100 )
http://www.amd.com/cn/Documents/48108-B_ATI_FirePro_Adobe_10-Bit_FAQ_R5_Final.pdf
voici ma config:
moniteur: DELL U2711 connecté en DisplayPort
OS: Win 7 64 bit
software: CS 5
je pense que je vais faire le saut, à moins que vous ne voyez un piège,
l'écran est dans la liste agréée par ATI Firepro (voir le lien ci-dessus)
le DisplayPort supporte le 10 bit par canal
Photoshop CS5 aussi
Si le moniteur est reconnu en 10 bits par la CG, normalement, il n'y a pas
de problème au vu de la configuration utilisée.
Bien penser à désinstaller le
Catalyst
Control
Center si une CG ATI était installée
et installer le CCC à partir du cd fourni.
Amitiés.
A+.
J-F.
Merci J-F pour ces infos!
Citation de: Verso92 le Septembre 29, 2011, 23:16:33
Je n'ai pas la CG qui va bien, mais il n'y a aucun soucis en principe (cf expérience de rafale52)...
ATI FirePro V4800 commandée auprès de mon pote... bientôt en 3x10 bits ?
;-)
Citation de: restoc le Septembre 29, 2011, 22:29:38En 8 bits le double DVI-I passe 2560*1600 à 60 hz . En 10 bits c'est hors norme ou alors limite limite donc incertain.
De mémoire, il n'y a pas de mode "10 bits" en DVI. On peut faire du 16 bits sur du dual-dvi (8 bits sur chaque lien) mais jusqu'en 1920x1200.
Citation de: Verso92 le Septembre 30, 2011, 15:38:31
ATI FirePro V4800 commandée auprès de mon pote... bientôt en 3x10 bits ?
;-)
Je trouve le 3x10 bits très séduisant pour le N&B, tu me diras si tu vois une différence, moi je "LUT" toujours avec le WideGamut couleur, chaque chose en son temps ;D
Bonsoir,
j'ai écrit que je ne remarquais pas de différence entre le 8 bits et le 16.
Aujourd'hui j'en vois une énorme; impossible de calibrer l'écran en hardware...
Erreur 43 qu'il est écrit. Voili voilou. Problème de dialogue entre la sonde et l'écran?
Malgré une réinstallation du logiciel et des pilotes de la CG, rien n'y fait.
Dépose de la Firepro 4800, repose de la Radeon 4850 et là, tout fonctionne,
sauf le 10 bits, œuf corse.
Contact d'AMD par mail, j'attends la réponse. Je vous tiens au courant.
Si cela vient d'un problème de compatibilité entre ce type de CG et l'écran, mon choix
est vite fait: je garde la calbration hardware et je rends les 10 bits.
Amitiés.
A+.
J-F.
Arghhh... et dire que j'ai passé commande (par mon pote) d'un ATI Firepro V4800 !
:-(
Quel sonde ? quel OS ? quelle connexion pour la calibration ?
Sinon, as-tu essayé de dévalider le 10 bits dans le CCC, pour voir ?
Bonjour à tous,
quel dommage, on se demande pourquoi les constructeurs d'écran mettent en avant le 10 bit par canal s'il est inexploitable.
Quid de la calibration purement software? Je suppose qu'elle reste possible.
Rafale52 l'as tu tentée?
Je comprend que quand on dispose de la calibration hardware ce soit rédhibitoire de devoir s'en passer.
Je pose la question égoïstement, mon écran écran ne disposant pas de la calibration hardware.
Je n'ai pas encore craqué pour la firepro V3800, il est donc urgent d'attendre.
Cordialement
Citation de: ClaudeSch le Octobre 04, 2011, 07:39:46
quel dommage, on se demande pourquoi les constructeurs d'écran mettent en avant le 10 bit par canal s'il est inexploitable.
Oui, enfin... pour l'instant, il ne s'agit que d'un retour d'utilisateur. Il y a peut-être un truc qui coince (je l'espère)...
je l'espère aussi, tiens nous au courant quant tu auras reçu ta V4800.
Citation de: ClaudeSch le Octobre 04, 2011, 07:46:56
je l'espère aussi, tiens nous au courant quant tu auras reçu ta V4800.
Je l'aurais sans doute en début de semaine prochaine...
(apparemment, ce type de carte est assez confidentiel, et le vendeur chez lequel s'approvisionne mon pote a dû la commander)
Bonjour,
je vois qu'il y a du monde ce matin.
Je vais faire des essais avec l'une, l'autre, les deux.
Je vous tiens au courant.
A+.
Amitiés.
J-F.
Différents essais:
-Firepro 4800
Calibration 10 bits DP
Début étalonnage > connexion de l'écran > 30" l'erreur 43 s'est produite
Calibration 8 bits DP
Idem 10 bits
Calibration 10 bits sur DP + DVI, affichage écran en DP > Err 43
Calibration 8 bits sur DP +DVI, affichage écran en DP > Err 43
Calibration 8 bits sur DP +DVI, affichage écran en DVI > Err 43
-Firepro 4800 (en DP) et Radeon 4850 (en DVI)
Calibration 10 bits sur DP > Err 43
Calibrations 8 bits sur DVI > connexion de l'écran > 30" 0 début de l'étalonnage
Il semble que l'écran n'arrive pas à communiquer avec le PC au travers de la Firepro
4800. Est-ce ma CG qui est défectueuse ou est-ce ce type de CG qui est incompatible,
j'attends la réponse d'AMD.
Amitiés.
A+.
J-F.
Je vais peut-être dire une connerie... et si tu essayais de connecter l'USB entre l'UC et l'écran ?
(peut-être ce lien prendrait-il la main sur celui du DP pour la communication avec l'écran ?)
Avec l' usb, ça marche. :D :D :D
Je n'ai jamais branché d'usb avant sur cet écran.
Il faudrait que nos constructeurs l'écrive en rouge dans leur mode d'emploi.
Amitiés.
A+.
J-F.
C'est une bonne nouvelle!
Je te remercie de nous avoir tenus informés.
Cordialement
Claude
Citation de: rafale52 le Octobre 04, 2011, 11:49:13
Avec l' usb, ça marche. :D :D :D
Ouf !
(comme quoi, ça vaut le coup, des fois, de dire des conneries... ;-)
Citation de: ClaudeSch le Octobre 04, 2011, 12:13:52
C'est une bonne nouvelle!
Pas du tout, si le 10 bits est réellement exploitable dans une configuration même improbable il va falloir que je repasse sous Windows ;D 8)
A chacun sa croix ;D
non en fait, sérieusement, je ne sais pas si le 10 bit vaut le coup, (ou le coût ;)), son intérêt doit être très marginal.
A mon prochain changement de carte graphique, je prendrai une firepro juste pour compléter ma chaîne graphique en 10 bit, c'est surtout par curiosité scientifique, cela n'améliorera en rien la qualité de mes impressions sur papier.
Je connais les limites de la vision humaine, le 8 bit lui suffit si le fichier final a été bien préparé pour l'impression ou l'affichage.
Dans certains cas extrêmes on peut mettre en évidence les limites du 8 bit, mais c'est probablement dû aux défauts du matériel ou du soft provoquant des artefacts, (cassure de dégradés par exemple).
Maintenant, cela n'enlève pas l'intéret d'un écran 10 bit, car sa conception permet de penser que même en 8 bit son rendu sera de qualité. (pas garanti quand même).
De même qu'une autoroute prévue pour un traffic à 150 km/h, ne sera pas une limite pour des véhicules roulant à 130 km/h
Citation de: ClaudeSch le Octobre 05, 2011, 08:15:07
A chacun sa croix ;D
non en fait, sérieusement, je ne sais pas si le 10 bit vaut le coup, (ou le coût ;)), son intérêt doit être très marginal.
A mon prochain changement de carte graphique, je prendrai une firepro juste pour compléter ma chaîne graphique en 10 bit, c'est surtout par curiosité scientifique, cela n'améliorera en rien la qualité de mes impressions sur papier.
Je connais les limites de la vision humaine, le 8 bit lui suffit si le fichier final a été bien préparé pour l'impression ou l'affichage.
Dans certains cas extrêmes on peut mettre en évidence les limites du 8 bit, mais c'est probablement dû aux défauts du matériel ou du soft provoquant des artefacts, (cassure de dégradés par exemple).
Maintenant, cela n'enlève pas l'intéret d'un écran 10 bit, car sa conception permet de penser que même en 8 bit son rendu sera de qualité. (pas garanti quand même).
De même qu'une autoroute prévue pour un traffic à 150 km/h, ne sera pas une limite pour des véhicules roulant à 130 km/h
+1
Citation de: ClaudeSch le Octobre 05, 2011, 08:15:07
Je connais les limites de la vision humaine, le 8 bit lui suffit si le fichier final a été bien préparé pour l'impression ou l'affichage.
Dans certains cas extrêmes on peut mettre en évidence les limites du 8 bit, mais c'est probablement dû aux défauts du matériel ou du soft provoquant des artefacts, (cassure de dégradés par exemple).
Maintenant, cela n'enlève pas l'intéret d'un écran 10 bit, car sa conception permet de penser que même en 8 bit son rendu sera de qualité. (pas garanti quand même).
De même qu'une autoroute prévue pour un traffic à 150 km/h, ne sera pas une limite pour des véhicules roulant à 130 km/h
Raté mon post précédent Claude Sch
Tout à fait d'accord sur le deuxième point "cela n'enlève pas l'intéret d'un écran 10 bit, car sa conception permet de penser que même en 8 bit son rendu sera de qualité" . C'est vrai q'un écran 10 bits certifié permet de voir un 8 bits quasi parfait sans banding par ex En celà c'est déjà un progrés. Ce que j'en vois c'est que depuis que je suis en full 10bits j'ai du mal à repasser pour la photo sur mes écrans 8 bits pourtant de trés bonne qualité et tous calibrés évidemment. Il y a une vraie différence ressentie même si je ne peux pas la quantifier.
Ce qui est vrai c'est que pour apprécier du full 10 bits il faut réunir un ensemble de conditions ( de toute la chaine y compris des images sources) . La mise en évidence impose un cahier ds charges bp plus contraignant que du 3*8 puis qu'on est sur les bits de poids les plus faible.
Le fameux " je ne vois aucune différence" devra supporter en retour une question " Vous étes vous mis dans les conditions pour voir la différence ? ". Et là la check list est longue et contraignate avant de voir la différence. .
Attention pas d'accord sur 8 bits/canal c'est la limite de la vision humaine. Heureusement elle est bp plus fine et subtile que çet espace imposé par la techo du numèrique depuis 20 ans : on ressent tellement plus, en voyant en direct un vrai coucher de soleil ou une fleur. Et c'est pour çà que l'industrie nous fera passer à 10 , 12, 16 bits ou autre chose quand elle le pourra/voudra et ensuite quand le numèrique sera mort on aura des surfaces bios / nano dans 10 ans.
Citation de: restoc le Octobre 05, 2011, 11:16:50
Attention pas d'accord sur 8 bits/canal c'est la limite de la vision humaine. Heureusement elle est bp plus fine et subtile que çet espace imposé par la techo du numèrique depuis 20 ans : on ressent tellement plus, en voyant en direct un vrai coucher de soleil ou une fleur. Et c'est pour çà que l'industrie nous fera passer à 10 , 12, 16 bits ou autre chose quand elle le pourra/voudra et ensuite quand le numèrique sera mort on aura des surfaces bios / nano dans 10 ans.
très bien vu Restoc
cela peut sembler paradoxal vu mon post précédent, mais je suis entièrement d'accord sur ce point.
Le fonctionnement physiologique de nos sens: vue, ouie et autres est beaucoup plus complexe qu'une interface numérique, des compensations jouent en permanence, c'est pour cela que par exemple nos essais de HDR ne sont qu'une piètre tentative de récupérer les infos que nous percevons (oeil + cerveau) dans une ambiance à fort contraste, il n'en est pas moins vrai que dans l'état actuel de la technique (sur le marché) ce n'est pas le passage de 8 à 10 bit qui sera la panacée. Mais j'ai aussi confiance dans les progrès possibles dans le domaine de la reproduction de l'image (et du son que j'apprécie aussi beaucoup).
Enfin le fait que je désire mettre en place une chaîne graphique 10 bit n'est pas un hasard total, mais je reste réaliste.
cordialement
Claude
tout bon Claude.
Le pb actuel c'est aussi que le passage de 8 à 10 et pendant qu'on y est de 1920*1200 à 2560*1600 vient de me coûter un D4 + un D800 ! Parce qu'en plus de la CG haut de gamme, il faut un vrai spectro et un écran à LUts 3D câblées.
Mais quel plaisir de voir ses photos en soft proof sur un écran 30 pouces (à peu prés un format A2) en 10 bits bien calibré et homogène en surface. On redécouvre ses photos.
Manque plus qu'une résolution d'écran à 150 DPI ! là çà sera carrément le prix d'un Moyen Format avec trois dos et quatre objectifs!
Bonsoir,
AMD vient de me répondre concernant le PB de calibration.
Réponse documentée et rapide dont je vous mets un lien.
http://update.necdisplay.com/spectraview/readmewindows_v1_1_08.html (http://update.necdisplay.com/spectraview/readmewindows_v1_1_08.html)
Amitiés.
A+.
J-F.
Citation de: rafale52 le Octobre 05, 2011, 17:45:52
Bonsoir,
AMD vient de me répondre concernant le PB de calibration.
Réponse documentée et rapide dont je vous mets un lien.
http://update.necdisplay.com/spectraview/readmewindows_v1_1_08.html (http://update.necdisplay.com/spectraview/readmewindows_v1_1_08.html)
Amitiés.
A+.
J-F.
Et en clair, que faut-il comprendre ?
Que l'ATI FirePro V4800 n'arrive pas à dialoguer avec l'écran via le canal DDD/CI quand on utilise le câble DisplayPort ?
Citation de: Verso92 le Octobre 05, 2011, 19:08:34
Et en clair, que faut-il comprendre ?
Que l'ATI FirePro V4800 n'arrive pas à dialoguer avec l'écran via le canal DDD/CI quand on utilise le câble DisplayPort ?
Ce qu'AMD m'a écrit en français:
Je cite:
"Nous accusons réception de votre mail et vous en remercie.
Concernant la compatibilité de Spectraview et des cartes graphiques FirePro, il semblerait que votre carte ne soit pas supportée (Car il ne parle que des modèles Radeon et FireGL) :
http://update.necdisplay.com/spectraview/readmewindows_v1_1_08.html
Cependant il se pourrait que votre problème soit dû à une installation erronée des pilotes (Car même si votre carte n'est pas officiellement supportée par Spectraview, il se peut qu'elle puisse fonctionner).
Veuillez suivre les instructions ci-dessous :
-Mettre à jour le BIOS de votre carte mère (Sur le site du fabricant de la carte mère)
-Mettre à jour le chipset de votre carte mère (Sur le site du fabricant de la carte mère)
-Redémarrer
- Désinstaller votre ancien pilote graphiqueà Dans le panneau de configuration à programmes et fonctionnalitésàATI Install Manager àDésinstaller tous les fichiers ATI ... graphique
- Redémarrer
- Faire une analyse de base de registre et disque dur avec Driver Sweeper puis nettoyer (vérifier la présence physique de fichiers ATI sur le lecteur C puis dans program files puis supprimez les) (http://www.clubic.com/telecharger-fiche249310-driver-sweeper.html)
-Télécharger puis installer les dernières mises à jour du Framework.NET (3.5 et 4.0)
http://www.microsoft.com/technet/security/bulletin/ms10-060.mspx
- Télécharger puis installer le Direct X 11
http://windows.microsoft.com/fr-FR/windows7/products/features/directx-11
http://www.microsoft.com/downloads/fr-fr/details.aspx?familyid=2da43d38-db71-4c1b-bc6a-9b6652cd92a3&displaylang=fr
- Redémarrer
- Télécharger puis installer les derniers pilotes graphiques:
- Installation des pilotes graphiques sur le site suivant
(http://support.amd.com/fr/gpudownload/Pages/index.aspx)
a) Choisir desktop graphics
b) Choisir FirePro 3D Series
c) FirePro V4800
d) Windows 7 64 bits
Et enfin affichage des résultats...sur la page des résultats télécharger ATI FirePro Software Suite puis installer *(Désactiver n'importe quel logiciel d'antivirus ou malware déjà installé sur le système d'exploitation Windows 7 avant l'installation du Catalyst)*
Voici les caractéristiques de votre carte graphique ATI FIREPRO V4800:
http://www.amd.com/FR/PRODUCTS/WORKSTATION/GRAPHICS/ATI-FIREPRO-3D/V4800/Pages/v4800.aspx
PS : Si le problème persiste encore, veuillez nous envoyer un rapport complet (en format PDF de plus de 10 pages) de votre configuration à l'aide de ce lien :
http://www.ma-config.com/fr/demarrer/1-1,demarrer-la-detection.html
Veuillez également nous communiquer la marque et puissance de votre alimentation.
Merci de nous tenir au courant de l'évolution de votre problème.
Cordialement, "
Donc voilà, pour les cartes non supportées, il faut l'usb.
Amitiés.
A+.
J-F.
Bon, si ça marche avec l'USB il vaut mieux en rester là.
Parceque la procédure qu'ils préconisent c'est le marteau pilon pour enfoncer un clou (je reste poli)
à leur décharge ce n'est parfois pas évident de désinstaller complètement un pilote de carte graphique, pour en réinstaller un nouveau.
Citation de: rafale52 le Octobre 05, 2011, 19:31:37
Donc voilà, pour les cartes non supportées, il faut l'usb.
Hi, hi... je crois que je vais adopter la même solution que Claude en cas de soucis avec le DP !
;-)
Je leur ai répondu que je n'ai plus de problème en branchant l'usb,
et je vais en rester là.
Amitiés.
A+.
J-F.
Bonjour,
ça y est j'ai reçu la Carte Graphique Firepro V4800
avec l'écran Dell U2711 connecté via DisplayPort
Win 7 64 bit
Photoshop CS5
j'ai tous les éléments nécessaires pour activer l'affichage en 3x10 bit
et ça marche si j'en crois l'affichage sous photoshop du fichier ramp.psd (disponible sur le site ATI support firepro)
tout va bien donc, juste un petit bémol l'interface Aéro de Win 7 se désactive quand le 3*10 bit est activé, on rebascule vers l'interface classique sans transparence.
Bravo Claude, et bienvenu au club !
;-)
:D :D :D
merki
bonjour !
je pensais pouvoir afficher en 10 bits avec le matériel suivant : Eizo CX271 + cable display port + nvidia GTX660. déception ! Le fameux fichier "Ramp" de Christophe Métairie s'affiche toujours avec des bandes sur le dégradé... Et c'est là que j'ai cru comprendre que la carte "peux" le faire, mais seuls les pilotes Quadro de Nvidia (et donc avec une carte Quadro) "peuvent" l'afficher ce fameux 10 Bits... J'ai bon ?
Ps : j'ai bien activé le "dessin OpenGL" dans CS5 et les paramètres avancés.
Citation de: chaosphere le Mai 02, 2014, 14:24:28
bonjour !
je pensais pouvoir afficher en 10 bits avec le matériel suivant : Eizo CX271 + cable display port + nvidia GTX660. déception ! Le fameux fichier "Ramp" de Christophe Métairie s'affiche toujours avec des bandes sur le dégradé... Et c'est là que j'ai cru comprendre que la carte "peux" le faire, mais seuls les pilotes Quadro de Nvidia (et donc avec une carte Quadro) "peuvent" l'afficher ce fameux 10 Bits... J'ai bon ?
Ps : j'ai bien activé le "dessin OpenGL" dans CS5 et les paramètres avancés.
Bonjour,
je sais qu'on peut bricoler pour faire croire au pilote Quadro que la carte en est bien une, mais je ne sais plus exactement. Il faudra se lancer dans la recherche ici (perso, j'utilise de l'ATI).
Par contre, le 10 bits ne sert pas à grand chose en image fixe (en vidéo, oui).
merci Pgrat :)
Citation de: chaosphere le Mai 02, 2014, 14:24:28
bonjour !
je pensais pouvoir afficher en 10 bits avec le matériel suivant : Eizo CX271 + cable display port + nvidia GTX660. déception ! Le fameux fichier "Ramp" de Christophe Métairie s'affiche toujours avec des bandes sur le dégradé... Et c'est là que j'ai cru comprendre que la carte "peux" le faire, mais seuls les pilotes Quadro de Nvidia (et donc avec une carte Quadro) "peuvent" l'afficher ce fameux 10 Bits... J'ai bon ?
Ps : j'ai bien activé le "dessin OpenGL" dans CS5 et les paramètres avancés.
Oui : c'est un bridage logiciel que l'on retrouve aussi chez ATI...
Merci Verso92. Bon ben tant pis ! Je me "rassure" en me disant que ce n'est pas non plus rédhibitoire (même si j'aurais bien aimé voir la différence...) ::)
Citation de: chaosphere le Mai 14, 2014, 23:56:46
Merci Verso92. Bon ben tant pis ! Je me "rassure" en me disant que ce n'est pas non plus rédhibitoire (même si j'aurais bien aimé voir la différence...) ::)
Voir la différence demande aussi qqs conditions :
-Avoir une vue très entrainée. On ne voit pas forcément le 10 bits d'emblée mais avec un certain entrainement çà vient . si pas de pb oculaire notamment le début de cataracte qu'on ne voit pas forcément venir ou simplement un cristallin un peu opaque par rapport à celui d'un pilote de chasse
-Se placer dans des conditions d'éclairage ou l'œil ne se ferme pas mais ne reste pas non plus pleinement ouvert : réglage du moniteur vs ambiance. Le noir complet n'est finalement pas le meilleur.
-Il faut que la lum moyenne de l'écran, gamma et le contraste soient exactement conformes... à ce que peut voir l'œil de l'observateur. Autrement dit un réglage parfait pour un œil n'est peut être pas le meilleur réglage pour l'autre. Il faut donc après calibrage sérieux tester toutes les conditions pour son œil.
Bref çà se mérite, çà ne tombe pas tout cuit. Mais quand on aime difficile de revenir en arrière.
Avec un œil dé-cataraté, et l'autre pas encore, j'ai une différence majeure entre les deux. L'un est à 5500/6500K et l'autre à moins de 4000K maintenant.
Il est très instructif de regarder en cran blanc avec un seul œil puis avec l'autre pour constater à quel point nos sens des couleurs peuvent être troublés.
Tiens. j'ai monté une GTX 760, relié mon eizo 2433W et...j'ai l'option 30 bits dans les prefs. est ce à dire que j'ai l'affichage en 30 bits ?
Citation de: belnea le Novembre 06, 2014, 10:38:06
Tiens. j'ai monté une GTX 760, relié mon eizo 2433W et...j'ai l'option 30 bits dans les prefs. est ce à dire que j'ai l'affichage en 30 bits ?
Si tu as une case à cocher pour valider le 3 x 10 bits, c'est qu'il est activable...
Si tu as un doute, ouvre le fichier "ramp.psd" dans Photoshop*, et tu seras tout de suite fixé...
http://www.chassimages.com/forum/index.php/topic,137922.msg2734411.html#msg2734411
*ne pas oublier de configurer
aussi Photoshop pour le 3 x 10 bits...
Citation de: Verso92 le Novembre 11, 2014, 16:58:24
Si tu as une case à cocher pour valider le 3 x 10 bits, c'est qu'il est activable...
Si tu as un doute, ouvre le fichier "ramp.psd" dans Photoshop*, et tu seras tout de suite fixé...
http://www.chassimages.com/forum/index.php/topic,137922.msg2734411.html#msg2734411
Tu as fait le test ? Je cherche aussi à remplacer ma CG pour actionner le 3x10b sur mon écran NEC.
*ne pas oublier de configurer aussi Photoshop pour le 3 x 10 bits...
Salut,
A ceux qui utilisent le 10bits depuis un moment:
Avez vous vu une différence au fil du temps?
Cela vaut-il la peine d'y passer?
Merci d'avance
Citation de: Altho le Novembre 13, 2014, 14:40:54
Tu as fait le test ?
Ben vi (cf lien)...
Citation de: gebulon le Novembre 13, 2014, 14:50:29
Salut,
A ceux qui utilisent le 10bits depuis un moment:
Avez vous vu une différence au fil du temps?
Cela vaut-il la peine d'y passer?
Merci d'avance
Difficile à dire*... la différence, si différence il y a, est subtile sur des photos.
*on ne peut pas comparer en simultané...
Citation de: Verso92 le Novembre 13, 2014, 15:10:56
Ben vi (cf lien)...
Difficile à dire*... la différence, si différence il y a, est subtile sur des photos.
*on ne peut pas comparer en simultané...
Merci pour l'info ;)
Citation de: gebulon le Novembre 13, 2014, 21:03:35
Merci pour l'info ;)
En ce qui me concerne, j'ai bénéficié d'un gros coup de bol quand j'ai
upgradé ma CG pour passer sur une ATI FirePro permettant le 3 x 10 bits, et ça m'a coûté une somme finalement très raisonnable pour "profiter" pleinement des possibilités de mon écran (disons savoir que j'avais une configuration "en ligne" avec les possibilités intrinsèques de l'écran).
Maintenant, s'il faut rajouter 300€ dans le commerce pour en profiter, je ne suis pas convaincu que ça en vaille le coup... je pousse pas à la consommation, hein !
Citation de: Verso92 le Novembre 13, 2014, 21:55:35
En ce qui me concerne, j'ai bénéficié d'un gros coup de bol quand j'ai upgradé ma CG pour passer sur une ATI FirePro permettant le 3 x 10 bits, et ça m'a coûté une somme finalement très raisonnable pour "profiter" pleinement des possibilités de mon écran (disons savoir que j'avais une configuration "en ligne" avec les possibilités intrinsèques de l'écran).
Maintenant, s'il faut rajouter 300€ dans le commerce pour en profiter, je ne suis pas convaincu que ça en vaille le coup... je pousse pas à la consommation, hein !
entre 500 et 600 € pour une FirePro Quadro K2200. Je ne sais pas si ça vaut le coup car, quand je compare les caractéristiques avec une carte haut de gamme NVidia, ça me semble largement en dessous, notamment pour le nombre de Cuda.
Citation de: Altho le Novembre 13, 2014, 22:12:19
entre 500 et 600 € pour une FirePro Quadro K2200. Je ne sais pas si ça vaut le coup car, quand je compare les caractéristiques avec une carte haut de gamme NVidia, ça me semble largement en dessous, notamment pour le nombre de Cuda.
En ce qui me concerne, une ATI FirePro V5800.
Citation de: Altho le Novembre 13, 2014, 22:12:19
entre 500 et 600 € pour une FirePro Quadro K2200. Je ne sais pas si ça vaut le coup car, quand je compare les caractéristiques avec une carte haut de gamme NVidia, ça me semble largement en dessous, notamment pour le nombre de Cuda.
j'ai vu et lu pour l'nvidia quadro K2200 (500€),
elle aide aussi pour les calculs de sc6 et libère le proc.
Adobe et Nvidia recommande ces cartes pour le travail sur les images et se sont les seules qui supportent le 10bits canal pour une application,
alors que les modèles grands publics affichent en 10BT mais ce n'ai pas utilisable pour une application. (éléments site nvidia)
Pour ma part, la question se pose autrement: mac 8BT => pc 10BT.
(j'ai un pc que je n'utilise pas sur lequel je n'ai qu'à glisser la CG)
y'a un testeur de 10 bits chez nec. alors que photoshop me propose le 10 bits, lui dit que la carte graphique n'est pas compatible (gtx760)
Citation de: belnea le Novembre 14, 2014, 00:19:20
y'a un testeur de 10 bits chez nec. alors que photoshop me propose le 10 bits, lui dit que la carte graphique n'est pas compatible (gtx760)
As-tu visualisé le fichier
ramd.psd ?
oui mais ce n'est pas lisse.
Citation de: belnea le Novembre 14, 2014, 00:19:20
y'a un testeur de 10 bits chez nec. alors que photoshop me propose le 10 bits, lui dit que la carte graphique n'est pas compatible (gtx760)
De ce que j'ai lu chez nvidia, seule les cg quadro sont compatibles 10bits pour sc.
Voir sur leur site (recherche 10bits ou Adobe)
Citation de: belnea le Novembre 14, 2014, 08:05:07
oui mais ce n'est pas lisse.
Ce n'est pas tout à fait lisse, en effet... mais tu dois voir une différence entre l'affichage 3 x 8 bits et 3 x 10 bits (si ce dernier est actif).
Citation de: gebulon le Novembre 14, 2014, 08:21:48
De ce que j'ai lu chez nvidia, seule les cg quadro sont compatibles 10bits pour sc.
Sous windows. Sous Linux, les Geforce affichent sans problème du 10 bits.
C'est avant tout un problème de support à contourner (genre il faut passer par openGL pour accéder au mode 10 bits aussi bien pour les drivers graphiques que pour les applications) et seuls les Quadro ont le support 30 bits pour directdraw/direct2d et opengl.
Citation de: fantec le Novembre 14, 2014, 15:31:13
C'est avant tout un problème de support à contourner (genre il faut passer par openGL pour accéder au mode 10 bits aussi bien pour les drivers graphiques que pour les applications) et seuls les Quadro ont le support 30 bits pour directdraw/direct2d et opengl.
Ma carte graphique (Nvidia GeForce GT750 M) est considérée par Photoshop CS6 comme permettant l'OpenGL. Est-ce pour autant que j'ai 3x10 bits sous OSX Mac (Yosemite) ? Il ne semble pas. Sauf si astuce, dont je suis preneur ;D
Citation de: gebulon le Novembre 14, 2014, 08:21:48
De ce que j'ai lu chez nvidia, seule les cg quadro sont compatibles 10bits pour sc.
Voir sur leur site (recherche 10bits ou Adobe)
Je confirme. J'ai eu un long entretien sur le sujet aujourd'hui au Salon avec le spécialiste Graphic Réseau. Le bon compromis est la Nvidia Quadro K2200. On la trouve à 470€ dans les magasins informatique à Paris.