Quelle carte graphique Quadro --> Eizo CG 277

Démarré par PM, Février 23, 2018, 17:37:57

« précédent - suivant »

PM

Bonjour,

Pour accompagner un Eizo CG 277 finalement quelles seraient les meilleures cartes graphiques "quadro" ?

Merci

;)



PM

Merci depuis septembre il y a 6 mois d'écoulés  ;D 

;)

paul.AU

Toute carte pro qui supporte le 3x10 bits. En gros toutes les nvidia quadro neuves en vente il me semble.
Pour faire tourner l'écran en lui même, pas besoin d'y mettre le prix du tout.
Après vous pouvez regarder ce que vous utilisez comme applis et si oui et comment elles utilisent le gpu, ce qui pourrait alors vous être utile. (Adobe,  C1, encodage vidéo, 3d ?)

Verso92

Citation de: PM le Février 23, 2018, 17:37:57
Pour accompagner un Eizo CG 277 finalement quelles seraient les meilleures cartes graphiques "quadro" ?

Si tu n'en dis pas plus sur tes attendus, sur les applications que tu utilises, etc, comment veux-tu qu'on te réponde ?

PM

Photoshop, C1 et bien d'autres... mais pas de 3D et vraiment peu de vidéo...
Impressions du matin au soir !  ;D

;)

paul.AU


PM

#7
Merci paul.AU

Sans vouloir faire le "ch...t" pourquoi celle-là plutôt qu'une autre ?

;)

paul.AU

Parce qu'une p6000 ne changera rien à votre affichage sur votre écran.
Ce qui changera c'est la puissance de calcul pour les rendus principalement (3d), également de meilleurs performances sur les logiciels qui utilisent un peu de calcul gpu aussi (Adobe LR, C1, etc). Mais à moins de cibler certaines performances précises très importantes pour vous dans votre flux de production, une p400 fera très bien l'affaire, et il y a d'autres postes de dépenses importants pour gagner en vitesse sur son ordi (ssd en particulier).

PM

Merci paul.AU

Pas de 3D, seulement du développement de Raw/Nef dans C1, travail de fichiers assez lourds dans CC, manipulations de gros dossiers remplis de fichiers assez costauds, pour mon activité d'impression.
Le but un affichage précis, de beaux dégradés...

Tiens entre Nvidia est-elle supérieure face à une PNY ?

Merci.

;)


PM


asak

Si tu fais que de l affichage en mode tataginette une k620 peut suffire.
Mais si tu fais des lots avec paquet de filtre etc et que tu utilises l accélération matériel la K2000 ou 2200 s imposent
Il me semble que C Métairie a fait un test entre les différentes cartes

paul.AU

Vous trouverez pas d'autres constructeurs que PNY qui fait les nvidia quadro (série pro des Nvidia) il me semble.
Pourquoi carte pro ? Car 3x10bits, nuances et dégradés biens meilleurs que les cartes grand pulics qui ne sont que 3x8bits.
Série pro car vous demandez le meilleur.
Sinon votre Gpu embarqué pourra toujours afficher qqchose (même si moins haut de gamme et en 3x8bits) sur votre écran cg277...
Donc l'optimal pour faire de l'affichage pour impression, c'est une petite carte graphique pro, (ou une grosse, mais si vous n'avez pas besoin d'un gain énorme de puissance coté logiciel, même pas besoin de se ruiner).

Je ne connais pas les gamme chez ATI, et je ne sais pas trop la manière de gérer le 30bits chez eux.
Sur photoshop vous avez une option pour activer le 30bits.

Et entre nous, le 30 bits c'est déjà over optimal, voir même du luxe pour du softproofing.

PM

Merci Asak et paul.AU pour vos bons conseils.

J'y vois plus clair dans mon choix le tout est de trouver la bonne adresse car dans les magasins de matériel info, ils sont très mal fournis !
Il faudra passer par le virtuel...

;)

Verso92

#14
Citation de: paul.AU le Février 24, 2018, 13:12:32
Vous trouverez pas d'autres constructeurs que PNY qui fait les nvidia quadro (série pro des Nvidia) il me semble.
Pourquoi carte pro ? Car 3x10bits, nuances et dégradés biens meilleurs que les cartes grand pulics qui ne sont que 3x8bits.

Sauf qu'à l'écran, aucune différence visible en photo...

Citation de: paul.AU le Février 24, 2018, 13:12:32
Je ne connais pas les gamme chez ATI, et je ne sais pas trop la manière de gérer le 30bits chez eux.
Sur photoshop vous avez une option pour activer le 30bits.

Chez ATi (AMD), les cartes "30 bits" sont en général les FirePro.

Mais ce n'est qu'une question de bridage logiciel : toutes les cartes ATi sont en 30 bits en hardware. Mais seules les FirePro (à la louche) permettent le 30 bits.

PM


olivier1010

Citation de: Verso92 le Février 24, 2018, 13:42:59
Sauf qu'à l'écran, aucune différence visible en photo...

Chez ATi (AMD), les cartes "30 bits" sont en général les FirePro.

Mais ce n'est qu'une question de bridage logiciel : toutes les cartes ATi sont en 30 bits en hardware. Mais seules les FirePro (à la louche) permettent le 30 bits.

Il y a une différence visible avec des dégradées générés par une application (et à condition de désactiver le dithering 8 bits dans cette application). Et à condition bien sur qu'elle sache utiliser le 30 bits à l'affichage. Ce qui n'est pas le cas de LR ni de C1 qui ajoutent automatiquement un dithering 8 bits pour l'affichage et ne sont donc pas capable d'envoyer un vrai 30 bits.

Il suffit d'utiliser un fichier de test ramp en 16 bits sous Photoshop en mode 30 bits (avec un moniteur arts graphiques connecté en Display Port pour activer réellement le 30 bits) pour s'apercevoir qu'il y a une différence notable en 8 et 10 bits. En 8 bits, on distingue des marches d'escalier, en 10 bits c'est parfaitement lisse.

Photoshop en mode 30 bits ou application 3D supportant le 30 bits indispensable pour voir la différence.

Pour les images en provenance d'un capteur, à moins d'appliquer certaines retouches qui pourraient mener à une différence visible, le rapport signal / bruit d'une telle image n'est généralement pas suffisant pour générer des artefacts dans les dégradés. En fait un capteur produit une image naturellement bruitée (dithering "naturel") qui empêche normalement l'apparition du banding même en 8 bits RGB.
Certaines cartes non pro peuvent supporter le 10 bits, de mémoire. Mais uniquement en Direct X. La plupart des applications de retouche et de 3D utilisant OpenGL, en pratique seules les cartes pro sont utilisables pour obtenir du 30 bits.

Conclusion : le 30 bits est intéressant dans certains cas, principalement pour le monitoring en postprod cinéma où les effects 3D sont générés numériquement et seront projetés en salle avec 10 ou 12 bits de profondeur par canal. Il faut être capable de contrôler en amont que les effets spéciaux ou les retouches ne produiront pas d'artefacts à la projection en salle.

En photo, pour affichage final en sRGB, le 30 bits n'apporte pas, dans 99.9 % des cas, un bénéfice réel. Cela changera peut être dans les années à venir, avec l'apparition des écrans HDR disposant également d'un espace couleur plus large comme le REC-2100. Mais il y a encore de la marge avant que cela ne se généralise sur les écrans informatiques. Pour l'instant seules les TV haut de gamme en sont dotées.

Un moniteur arts graphique avec calibration hardware, utilisant une courbe tonale sRGB ou L* est bien plus important que le 30 bits en photo courante. C'est d'autant plus important que les applications couramment utilisés en photo (principalement LR et C1) sont 8 bits.

L'utilisation d'une courbe tonale sRGB ou L* permet de bien déboucher et linéariser perceptuellement les noirs (sRGB et L* sont des courbes gamma dont la partie des bas niveaux est fortement retravaillée pour s'approcher de la caractéristique perceptuelle de la vision humaine). La calibration hardware est indispensable pour profiter correctement de L*, sinon sur un moniteur bureautique, en calibration software, il est plus que probable que sRGB donne de meilleurs résultats car c'est théoriquement la courbe tonale native de l'écran.

L* débouche un peu plus que sRGB, sRGB étant déjà un progrès très significatif par rapport à une courbe simple gamma 2.2, qu'on ne devrait plus utiliser aujourd'hui.

(Attention : ne pas confondre espace couleur sRGB et courbe tonale sRGB. Ce sont deux choses différentes, même si normalement un moniteur sRGB utilise une courbe tonale sRGB. La courbe tonale sRGB, ou L*, ou gamma 2.2 par exemple, ou DICOM, est la façon dont les niveaux sont mappés pour chaque canal RGB, depuis l'interface numérique DVI, HDMI ou DP, vers la dalle).

Tenter d'utiliser une courbe tonale ou un espace couleur autre que le natif de l'écran en calibration software, revient à introduire de fortes erreurs d'arrondi binaire surtout visibles dans les bas niveaux (marches d'escalier dans les dégradés), mais aussi dans la précision colorimétrique (par exemple apparition de légères dominantes dans une rampe de gris), à cause de la communication en 8 bits par composante RGB avec l'écran.

Les écrans à calibration hardware, permettent de maximiser la communication en 8 bits, (et donc d'utiliser les applications 8 bits de façon optimale), les erreurs d'arrondi binaire disparaissant grâce à des tables de correspondance couleur en 14 bits ou plus, internes au moniteur.

Pour résumer, avec un écran à calibration hardware, la précision d'affichage, tant en terme de niveaux que de précision colorimétrique, est pratiquement parfaite. Ce qu'on envoi dessus en 8 bits est donc affiché sans aucune erreur d'arrondi.

En calibration software, il suffit d'envoyer une rampe de gris vers l'écran, pour se rendre compte (sauf coup de chance) que le gris est loin d'être pur tout au long du dégradé.

Donc, au lieu de chercher à avoir du 30 bits en photo, il faut mieux investir dans un bon écran arts graphiques à calibration hardware, quitte à l'utiliser avec une carte vidéo qui ne supporte pas le mode 30 bits.

Cela dit, spécialement avec C1, une grosse carte vidéo pro permet de fortement accélérer les exports de fichiers jpg, grâce à la puissance du ou des GPU. A voir si vous devez exporter des centaines de fichier dans un minimum de temps.

C'est surtout là je pense l'intérêt d'une grosse carte pro, onéreuse. Bien plus que pour le support du 30 bits, en photo tout du moins.


PM

Merci oliver1010 pour ces explications.
A vous lire une bonne carte et le CG277 sont deux alliés...Logique.

;)


paul.AU

#18
Citation de: PM le Février 24, 2018, 15:25:11
A vous lire une bonne carte et le CG277 sont deux alliés...Logique.
Vous êtes sur d'avoir compris ? ::)

Ce qu'on vous dit c'est qu'une carte pro 10bits par canal apporte peu pour de l'affichage photo.
Et que le choix de la gamme de puissance et prix n'est pas à faire en fonction de l'écran, mais en fonction du besoin pour vos applications.
Prenez une carte quadro à 170balles, et si vous sentez que c'est pas suffisant, vous pourrez toujours en racheter une grosse et revendre la précédente. Mais à mon avis pour une station d'impression softproofing vous serez très très larges...

Dub

Citation de: paul.AU le Février 24, 2018, 16:58:51
Vous êtes sur d'avoir compris ? ::)

Ce qu'on vous dit c'est qu'une carte pro 10bits par canal apporte peu pour de l'affichage photo.

C'est pourtant bien ce que tu conseilles...

Citation de: paul.AU le Février 23, 2018, 20:37:05
Toute carte pro qui supporte le 3x10 bits. En gros toutes les nvidia quadro neuves en vente il me semble.

;D

PM


PM

Citation de: olivier1010 le Février 24, 2018, 15:18:09
.......
Il suffit d'utiliser un fichier de test ramp en 16 bits sous Photoshop en mode 30 bits (avec un moniteur arts graphiques connecté en Display Port pour activer réellement le 30 bits) pour s'apercevoir qu'il y a une différence notable en 8 et 10 bits. En 8 bits, on distingue des marches d'escalier, en 10 bits c'est parfaitement lisse.
........

Donc 3x10 !

J'avais donc bien compris  ;D

Merci pour vos interventions

;)

asak

8 bits 256 niveaux;  10 bits 1064
Quand on zoom à 500% ou plus sur les zones progressive on voit l effet de bande en 8bits
Quand on fait du picking ou des mesures à la pipette le 8bits c est pas très pratique.
Le cg est 10 bits avec lut 16 bits  ;)

voxpopuli

Citation de: olivier1010 le Février 24, 2018, 15:18:09
...

Merci pour ces précisions. Suite à ce fil j'avais cherché ce matin des infos sur les quadro et je suis tombé sur l'article A. Frisch
https://www.guide-gestion-des-couleurs.com/affichage-10-bits.html
Vos conclusions convergent.
Ça va rester chaud

Verso92

Citation de: olivier1010 le Février 24, 2018, 15:18:09
Il y a une différence visible avec des dégradées générés par une application (et à condition de désactiver le dithering 8 bits dans cette application). Et à condition bien sur qu'elle sache utiliser le 30 bits à l'affichage. Ce qui n'est pas le cas de LR ni de C1 qui ajoutent automatiquement un dithering 8 bits pour l'affichage et ne sont donc pas capable d'envoyer un vrai 30 bits.

Il suffit d'utiliser un fichier de test ramp en 16 bits sous Photoshop en mode 30 bits (avec un moniteur arts graphiques connecté en Display Port pour activer réellement le 30 bits) pour s'apercevoir qu'il y a une différence notable en 8 et 10 bits. En 8 bits, on distingue des marches d'escalier, en 10 bits c'est parfaitement lisse.

Photoshop en mode 30 bits ou application 3D supportant le 30 bits indispensable pour voir la différence.

C'est un sujet qui était un marronnier il y a quelques années (c'est un peu retombé depuis...).

Bien sûr qu'on voit une différence en visualisant sous Photoshop le fichier test d'AMD (RamP.psd) respectivement en 8 et 10 bits. Après, sur des vraies photos, bien malin qui verra la différence...


Ou alors, si c'est vraiment visible, il ne devrait y avoir aucune difficulté à le montrer ici.