Carte graphique pour PC en 2013

Démarré par jmlaf, Mai 17, 2013, 14:28:16

« précédent - suivant »

Verso92

#50
Citation de: remyphoto75 le Novembre 14, 2013, 08:07:19
Le display port n'est qu'un port il n'est pas lié à la résolution. Erreur qu'on retrouve souvent sur ce forum et dont je me demande bien d'où ce mythe tiens son origine.

Le Display Port n'est pas qu'un "port", bien évidemment. En ce qui concerne le terme résolution employé ci-dessus, c'est une erreur souvent faite sur les forum : ici, il s'agit, entre autre, de définition, et de profondeur d'affichage des couleurs.
Sur certains moniteurs (par exemple le Nec PA241w), seul le DP permet d'afficher en 3 x 10 bits. Le DVI ne le permet pas (voir MdE).
Citation de: remyphoto75 le Novembre 14, 2013, 08:07:19
Quand au 3x10 bits je l'ai déjà expliqué plus haut, il n'est pas réservé aux seules Quadro et FirePro, toutes les cartes graphiques nvidia (au moins j'ignore pour les amd) sont capables d'afficher 3x10 bits.

Chez AMD, seules certaines cartes (en principe les Fire Pro) permettent l'affichage en 3 x 10 bits. Ce sont les seules CG AMD avec lesquelles le pilote (Catalyst) permet l'affichage dans ce mode...

remyphoto75

Citation de: Verso92 le Décembre 08, 2013, 23:06:51
Le Display Port n'est pas qu'un "port", bien évidemment. En ce qui concerne le terme résolution employé ci-dessus, c'est une erreur souvent faite sur les forum : ici, il s'agit, entre autre, de définition, et de profondeur d'affichage des couleurs.
Bah si c'est comme le port-salut hein. Ca n'est qu'un port. Et il n'y a pas d'erreur, résolution (implicitement d'affichage supporté)/définition c'est la même chose à moins que tu estimes que les constructeurs se trompent quand ils parlent de résolution. Si tu prends le temps de lire correctement mon intervention, je ne parle que de la résolution d'affichage supporté, parce que certains sous-entendait qu'il fallait impérativement disposer d'une sortie DP pour des résolution d'affichage de 2560x1600 ou plus ce qui est là bien une erreur souvent faite sur les forum.
Cela est du au fait qu'en dehors du DVI-D qui est un port entièrement digital comme le DP, les autres variantes elles requiert l'utilisation d'un RAMDAC limitant le signal de sortie.
Pour ce qui est du 3x10 bits c'est pareil, c'est essentiellement une limitation du moniteur et en rien une spécification exclusive du DP (le signal de sortie du DVI-D étant identique à celui du DP).

Verso92

#52
Citation de: remyphoto75 le Décembre 09, 2013, 08:34:11
Bah si c'est comme le port-salut hein. Ca n'est qu'un port. Et il n'y a pas d'erreur, résolution (implicitement d'affichage supporté)/définition c'est la même chose à moins que tu estimes que les constructeurs se trompent quand ils parlent de résolution. Si tu prends le temps de lire correctement mon intervention, je ne parle que de la résolution d'affichage supporté, parce que certains sous-entendait qu'il fallait impérativement disposer d'une sortie DP pour des résolution d'affichage de 2560x1600 ou plus ce qui est là bien une erreur souvent faite sur les forum.
Cela est du au fait qu'en dehors du DVI-D qui est un port entièrement digital comme le DP, les autres variantes elles requiert l'utilisation d'un RAMDAC limitant le signal de sortie.
Pour ce qui est du 3x10 bits c'est pareil, c'est essentiellement une limitation du moniteur et en rien une spécification exclusive du DP (le signal de sortie du DVI-D étant identique à celui du DP).

Si tu jettes une œil à la norme DVI (elle est disponible sur le net), tu constateras que c'est une interface qui est conçue pour une profondeur de couleur de 8 bits (largeur du bus de données). Il n'y a pas de possibilité d'afficher 3 x 10 bits (avec les moniteurs qui le permettent, bien sûr) avec cette interface.

Le seul moyen d'afficher en 3 x 10 bits avec le Nec PA241w (que je possède), par exemple, c'est d'utiliser l'interface DisplayPort, qui, elle, peut véhiculer les signaux en 3 x 10 bits, comme indiqué dans le mode d'emploi (voir ci-dessous).
Sinon, il faut également disposer d'une carte graphique le permettant : mon ATI n'étant pas capable de le faire, malgré son architecture matérielle 3 x 10 bits, j'ai dû la changer pour une Fire Pro (V5800). Il s'agit de toute évidence d'un bridage logiciel de la part du fabricant, mais sauf à cracker le firmware de la carte, il n'y a pas de contournement possible.

Enfin, il ne faut pas perdre de vue que seul Photoshop permet d'exploiter les 3 x 10 bits dans les programmes courants...
Remarque en passant : par définition [sic], une résolution est forcément liée à un nombre de points/pixels par unité de longueur, comme chacun sait (300 dpi, etc). Que certains fabricants se mélangent les crayons dans les termes techniques (les traductions n'améliorent souvent pas les choses) n'y change rien...

remyphoto75

Bien si je prend justement la norme DVI-D en dual link nous avons ceci :
http://en.wikipedia.org/wiki/Digital_Visual_Interface
"Bits per pixel:

    24 bits per pixel support is mandatory in all resolutions supported.
    Less than 24 bits per pixel is optional.
    Up to 48 bits per pixel are supported in dual link DVI, and is optional. If a mode greater than 24 bits per pixel is desired, the least significant bits are sent on the second link."

Il ne faut pas confondre l'implémentation que font les constructeurs d'une norme et ce qu'elle supporte réellement.
Pour avoir utilisé une GTX460 moddée en 2650x1600 en 3x10 bits relié à un U3011 via une connectique DVI Dual Link, je peux te certifier que je ne sors pas des théories pompeuses mais que c'est du vécu.
La norme DVI-D ayant été mise au point tardivement, beaucoup de gens sont restées sur des idées préconçues liées aux restrictions des premières versions de la norme et pensent à tort que seul le DP permet l'affichage 10 bits ou la résolution WQXGA

Verso92

Citation de: remyphoto75 le Décembre 09, 2013, 10:49:59
   24 bits per pixel support is mandatory in all resolutions supported.
   Less than 24 bits per pixel is optional.
   Up to 48 bits per pixel are supported in dual link DVI, and is optional. If a mode greater than 24 bits per pixel is desired, the least significant bits are sent on the second link."

Pour le 3 x 10 bits, la possibilité décrite au-dessus consistant en envoyer les deux bits supplémentaires (le DVI ne passant que 3 x 8 bits en "natif") sur le second lien est évoquée dans la norme 1.0, effectivement (je l'avais lue, à l'époque).

Mais cela n'est possible, bien sûr, que pour les définitions les plus faibles (à savoir celles qui n'utilisent qu'un lien). Pour les définitions les plus élevées (QXGA, par exemple), qui vont obligatoirement utiliser les deux liens, ce sera 3 x 8 bits max.
De toute façon, une chose est sûre : le Nec PA241w n'affiche en 3 x 10 bits que s'il est connecté à la CG via l'interface DP, comme clairement stipulé dans le MdE...


Verso92

Pour illustration, un synoptique du contrôleur DVI :

remyphoto75

Je pense que tu ne sembles pas vouloir comprendre. L'illustration que tu donnes du contrôleur ne correspond pas à un contrôleur pour du DVI-D dual link.
Tu cites le NEC comme étant un exemple de moniteur ne supportant pas le 3x10 bits sur DVI-D, cela ne signifie pas que c'est le cas pour tous les moniteurs puisque sur un DELL U3011 cela est pris en charge.
Ensuite, non, le fait d'être en WQXGA n'empêche pas le 3x10 bits.
Il suffit toujours de lire la norme (du lien que j'ai posté plus haut) :
WQXGA (2,560 × 1,600)  [at]  60 Hz with CVT-RB blanking (269 MHz) (This is for high end monitors when operating at greater than 24 bits per pixel.)


Verso92

#57
Citation de: remyphoto75 le Décembre 09, 2013, 14:40:07
Ensuite, non, le fait d'être en WQXGA n'empêche pas le 3x10 bits.
Il suffit toujours de lire la norme (du lien que j'ai posté plus haut) :
WQXGA (2,560 × 1,600)  [at]  60 Hz with CVT-RB blanking (269 MHz) (This is for high end monitors when operating at greater than 24 bits per pixel.)

En fait, ce qui serait intéressant, ce serait d'avoir un lien vers la norme (le lien que tu donnes ne pointe que sur un article Wikipedia), car je ne comprends pas trop comment l'option "WQXGA (2,560 × 1,600)  [at]  60 Hz with CVT-RB blanking (269 MHz)" est possible en 3 x 10 bits...

Verso92

Et zut, édition du post au-delà des dix minutes...

Verso92

Citation de: Verso92 le Décembre 09, 2013, 15:27:06
En fait, ce qui serait intéressant, ce serait d'avoir un lien vers la norme (le lien que tu donnes ne pointe que sur un article Wikipedia), car je ne comprends pas trop comment l'option "WQXGA (2,560 × 1,600)  [at]  60 Hz with CVT-RB blanking (269 MHz)" est possible en 3 x 10 bits...

Non seulement je ne comprends pas trop comment cela pourrait être possible*, mais je constate de plus que même sur les tous derniers modèles 3 x 10 bits que Nec vient de sortir (par exemple le PA302w), seuls le DisplayPort (et le HDMI) permet de fonctionner à la définition de 2 560 x 1 600 à 60Hz en 3 x 10 bits (soit 1 milliard de couleurs).

En DVI, c'est obligatoirement 3 x 8 bits (16 millions de couleurs)... va comprendre Charles ?
Plus sérieusement, existe-t-il seulement sur le marché des moniteurs qui sont capables d'afficher en 3 x 10 bits en 2 560 x 1 600 à 60Hz à partir de l'interface (dual) DVI ?
*mais je veux bien qu'on m'explique, bien sûr...

remyphoto75

Le DVI est une norme appelée à disparaitre. Il est probable que NEC ne fait qu'anticiper cela. Vas savoir, en tout cas pour répondre à ta question il suffit de lire mon message plus haut, sur un Dell U3011 c'est le cas. J'ai fait le test avec une GTX460 avec driver moddé qui ne dispose que d'une sortie DVI Dual Link et j'ai pu vérifié avec le fichier ramp fournit par Christophe Métairie que j'avais bien un affichage 10 bits.
http://www.cmp-color.fr/affichage_10_bits.html

Mais j'ai pu constaté qu'hormis DELL tous les autres fabricants orienté pro ont cessé pour la plupart de supporter le DVI. D'ailleurs la page wiki que j'ai cité le dit explicitement :
"In December 2010, Intel, AMD, and several computer and display manufacturers announced they would stop supporting DVI-I, VGA and LVDS-technologies from 2013/2015, and instead speed up adoption of DisplayPort and HDMI."

Verso92

Citation de: remyphoto75 le Décembre 09, 2013, 16:19:30
[...] en tout cas pour répondre à ta question il suffit de lire mon message plus haut, sur un Dell U3011 c'est le cas. J'ai fait le test avec une GTX460 avec driver moddé qui ne dispose que d'une sortie DVI Dual Link et j'ai pu vérifié avec le fichier ramp fournit par Christophe Métairie que j'avais bien un affichage 10 bits.

Bon, dans ce cas, cela signifie au moins que c'est que c'est possible* (comment, cela restera sans doute un mystère... cela doit sans doute être du bricolage astucieux).

*j'imagine que le Dell U3011 est un 30", dont la définition par défaut est 2 650 x 1 600 à 60Hz...

remyphoto75

Bricolage pas vraiment, il suffit de prendre le driver des Quadro et de modifier le fichier .inf pour que le driver accepte de s'installer sur une Geforce.
Et effectivement le U3011 est un 30" de définition 2 650 x 1 600  [at]  60Hz
J'avais fait le test parce que j'étais moi même pas sûr que le DVI dual link permette l'affichage 10 bits. Et c'était en attendant de commander une quadro.

Nikojorj

En tous cas, ça confirme bien un truc : pour savoir comment obtenir 10 bits par couleur de façon sûre avec un matériel donné, c'est le bordel.

Verso92

Citation de: remyphoto75 le Décembre 09, 2013, 16:34:56
Bricolage pas vraiment [...]

J'évoquais juste l'aspect "spécifications". En fonction de ce que j'ai cru comprendre de ma lecture de la norme à l'époque, le DVI est une interface organisée sur un bus de données de 3 x 8 bits.

Passer les deux bits supplémentaires est facile pour les faibles définitions (celles qui ne nécessite qu'un seul lien) : il suffit d'envoyer les deux bits supplémentaires sur le second lien. Pour les définitions monopolisant de fait les deux liens, il y a forcément une astuce... sans intérêt, bien sûr, à par en terme de curiosité intellectuelle...
Citation de: remyphoto75 le Décembre 09, 2013, 16:34:56
[...] il suffit de prendre le driver des Quadro et de modifier le fichier .inf pour que le driver accepte de s'installer sur une Geforce.

Peut-être existe-t-il une manip de ce genre pour forcer les ATI non Fire Pro a fonctionner en 3 x 10 bits ? une chose est sûre : par défaut, elles ne le veulent pas !

remyphoto75

Je m'étais renseigné à l'époque pour les ATI pour un ami et je n'ai pas trouvé d'astuce similaire.

Pour l'organisation du flux j'imagine que le 2eme link n'est pas dédié exclusivement à la transmission du surplus de pixels nécessaire à l'affichage mais qu'il y a de la place disponible pour envoyer les 2 bits supplémentaires.

[at] Nikojorj : ouais surtout que pour la photo, le gain n'est pas forcément perceptible.

Verso92

Citation de: Nikojorj le Décembre 09, 2013, 16:42:57
En tous cas, ça confirme bien un truc : pour savoir comment obtenir 10 bits par couleur de façon sûre avec un matériel donné, c'est le bordel.

Pour les Nec, c'est simple : avec les CG ATI, il faut juste choisir dans la gamme Fire Pro (vérifier, quand même, qu'il n'y ait pas d'exception) et connecter l'écran à la CG en DisplayPort.
Mébon, d'accord avec Rémy : difficile de voir vraiment une différence sur les photos, autrement qu'avec le fichier AMD spécialement dédié...

apn2436

Citation de: Verso92 le Décembre 09, 2013, 19:30:47
Pour les Nec, c'est simple : avec les CG ATI, il faut juste choisir dans la gamme Fire Pro (vérifier, quand même, qu'il n'y ait pas d'exception) et connecter l'écran à la CG en DisplayPort.
Mébon, d'accord avec Rémy : difficile de voir vraiment une différence sur les photos, autrement qu'avec le fichier AMD spécialement dédié...
Ouais ouais, le seul pb, c'est que les firepro plante l'openGL sous CC alors que cela marchait tres bien sous CS6.
Plein de photographe americain se ralent sur les forums americains... Ils sembleraient meme indique que les 3x10 bits ne soient pas
effectif sous CC avec les carte Firepro.

Et bien sur Adobe s'en fout royalement

Comme quoi, payer 12€ par mois pour un logiciel qui ne fonctionnent pas correctement est une escroquerie...

Verso92

Citation de: apn2436 le Décembre 12, 2013, 20:22:06

Ouais ouais, le seul pb, c'est que les firepro plante l'openGL sous CC alors que cela marchait tres bien sous CS6.
Plein de photographe americain se ralent sur les forums americains... Ils sembleraient meme indique que les 3x10 bits ne soient pas
effectif sous CC avec les carte Firepro.

Et bien sur Adobe s'en fout royalement

Comme quoi, payer 12€ par mois pour un logiciel qui ne fonctionnent pas correctement est une escroquerie...

Là, je ne saurais pas te dire : en ce qui me concerne, je suis sous CS6 Extended...
(les fourches caudines d'Adobe, j'apprécie moyennement...)