Carte graphique pour PC en 2013

Démarré par jmlaf, Mai 17, 2013, 14:28:16

« précédent - suivant »

jmlaf

Pouvez vous me donner votre avis sur le choix de la carte graphique pour un très bon PC ( ma vieille machine vient de rendre l'âme après 6 ans de bons services )surtout pour la photo en tous genres ,moyen format , focus stacking .... certains parlent de carte simple d'autres vont vers des NVD 680 ,690 ,Titan en 4G 6G et même des quadro K4000 ,il me semble plutôt réservé au graphisme 3D ?  j'utilise 2 écrans , je ne suis pas un Gamer et j'ai pas l'intention de m'attaqué à " l'age de glace n°8 " des avis compétant me seront trés utile !!! :)
Jean-marc

fabco

tu utilises quoi comme logiciels de photo ?

Verso92

Affichage en 3 x 8 bits ou 3 x 10 bits ?

Nikojorj

Hirondelle d'Europe ou d'Afrique?

Certains logiciels comme DxO utilisent beaucoup la carte graphique pour les calculs, d'autres comme PS CS6 pas mal moins, d'autres comme LR pas du tout pour l'instant (hors sa fonction d'affichage bien sûr mais pour ça, une CG intégrée va très bien).

Inka

#4
Citation de: fabco le Mai 17, 2013, 17:43:35
tu utilises quoi comme logiciels de photo ?

Explicitons. Pour un affichage photo standard, de la 2D, la carte graphique importe peu, aujourd'hui elles savent toutes le faire. Pour la 3D il faut des cartes graphiques plus puissantes, avec des processeurs embarqués assez balaises et... certains softs photos en combinaison avec certains OS pas trop vieux, peuvent tirer parti de ces processeurs pour accélérer certains calculs.

Pas forcément obligatoire en 2D photographique...
Carolorégien

fabco

Citation de: Inka le Mai 18, 2013, 00:34:30
Explicitons. Pour un affichage photo standard, de la 2D, la carte graphique importe peu, aujourd'hui elles savent toutes le faire. Pour la 3D il faut des cartes graphiques plus puissantes, avec des processeurs embarqués assez balaises et... certains softs photos en combinaison avec certains OS pas trop vieux, peuvent tirer parti de ces processeurs pour accélérer certains calculs.

Pas forcément obligatoire en 2D photographique...

Avec dxo de dop, ce logiciel utilise le gpu de la carte graphique pour le traitement ( fonction opencl) .Dans cas il faut mieux prendre une moyenne gamme qui permettra de gagner un temps non négligeable surtout sur des configurations pas trop puissante.
LR n'utilise pas ce composant aujourd'hui, mais demain ? là il faut favoriser proc et mémoire
PS utilise les 2 proc et gpu suivant les fonctions.

Nikojorj

Citation de: fabco le Mai 18, 2013, 10:38:47
LR n'utilise pas ce composant aujourd'hui, mais demain ?
Pour LR, pas d'utilisation du GPU avant LR6 de ce qu'en dsent des gens bien infiormés comme Eric Chan : ça me semble une bonne raison, si on n'utilise que LR, pour reporter l'achat d'une CG à dans un ou deux ans, ou on aura bien plus pour le même prix.

Le Tailleur

Nikoniste, Fujiste et Sigiste

Nikojorj

Argh il manque un accent désolé.... dans un ou deux ans où on en aura bien plus pour le même prix, désolé.

jmlaf

Merci pour vos avis à tous   ;  Verso92 3x8 ou 3x10 bits ? est une question bien au dessus de mes capacités techniques  désolé ! ,est-ce pour l'instant important dans le post traitement et dans l'aspect final de la photo ?; Fabco j'utilise pour l'instant LR et GIMP 2.6 et j'espère maintenant que j'ai tout mon temps me lancer dans PS SC5 ou 6 (que je n'ai pas ); je vais encore essayer de m'informer un peu .... 
Jean-marc

Nikojorj

Pour les 8 ou 10 bits par canal, si tu n'en sais trop rien c'est que 8 bits iront bien, à vue de nez. ;)

Pour LR il n'y a pas besoin d'une CG spécifique ; pour GIMP 2.8 il semble bien y avoir des fonctions (dépendant de GEGL) faisant appel à OpenCL (la situation semble être du même niveau que pour PS CS6), une carte moyenne gamme peut donc déjà accélérer ces fonctions.

Pierred2x

Citation de: Verso92 le Mai 17, 2013, 17:45:59
Affichage en 3 x 8 bits ou 3 x 10 bits ?

On le sait  comment ?
Les constructeurs n'ont pas l'air de donner facilement ces informations, ou alors je sais pas les trouver.
Des exemples SVP ?

Gérard_M

Je ne crois pas que tu as besoin de plus costaud que la GeForce GTX 650 avec 1 gigot de ram, ou la GTX 660...
Par contre, il n'y a pas  2 DVI sur les GTX 640 et 645
Boitiers Canon,bridge,

remyphoto75

Déjà il faut savoir qu'hormis utiliser certaines applis très particulières pour le calcul ou avoir un besoin absolu de l'affichage sur 10 bits, la gamme Quadro/Firegl ne te seras d'aucune utilité. Actuellement les logiciels photo ne savent pas tirer correctement partie de la puissance des cartes graphique, ce qui fait que la différence entre une carte d'entrée de gamme et une carte haut de gamme sera quasi imperceptible (sauf si tu joues ^^)
En anticipant un éventuel futur où la situation changerait, tu devrais t'orienter vers le milieu de gamme à 120-150 euros. Ca ne risque pas d'être un facteur limitant avant un long moment. Pour le choix orientes toi plutôt vers les cartes disposant d'une large connectivité (incluant display port et pas simplement dvi).

Nikojorj

Citation de: remyphoto75 le Octobre 03, 2013, 19:18:57
En anticipant un éventuel futur où la situation changerait,
On a peut-être meilleur temps d'attendre, avec deux avantages :
- on aura nettement plus de puissance de calcul que maintenant pour le même prix
- on sera aussi fixé sur les eventuelles incompatibilités (genre OpenCL, OpenGL, CUDA...) avec les logiciels du moment, et on saura mieux quoi acheter.

remyphoto75

Bah disons que d'une part les constructeurs de cartes graphiques ne sortiront pas une gamme dédiée. D'autre part les logiciels ont tout intérêt à privilégier un standard qui soit adapté aux 2 principaux fournisseur de chipset graphique à savoir Nvidia et AMD, ce qui orienterait en toute logique le choix sur OpenCL. A partir de là, pourquoi donc attendre ? Les cartes graphiques dans 1 ou 2 ans ne seront probablement pas plus performantes que les cartes graphiques actuelles pour les opérations d'accélération pour de l'image bitmap.
Les efforts des constructeurs de cartes graphiques se situant au niveau de la 3D avant tout.

Nikojorj

Citation de: remyphoto75 le Octobre 03, 2013, 21:06:29
D'autre part les logiciels ont tout intérêt à privilégier un standard qui soit adapté aux 2 principaux fournisseur de chipset graphique à savoir Nvidia et AMD, ce qui orienterait en toute logique le choix sur OpenCL.
Ca, c'est assez plausible... mais pas encore gagné. Ma boule de cristal rend les textures avec des bugs depuis la dernière mise à jour du pilote et je n'y vois plus très bien.

CitationLes cartes graphiques dans 1 ou 2 ans ne seront probablement pas plus performantes que les cartes graphiques actuelles pour les opérations d'accélération pour de l'image bitmap.
Les efforts des constructeurs de cartes graphiques se situant au niveau de la 3D avant tout.
Le fait d'avoir plus de GFlops, ça doit aider non quand même?

remyphoto75

Bah je suis pas spécialiste sur la question mais j'ai cru comprendre qu'il n'était pas évident de faire profiter les calculs de rendus bitmap de la puissance des gpu qui sont optimisés pour la 3D. Les gigaflops justement ne sont pas d'une grande utilité

fabco

A ma connaissance, il n'y a que dop de dxo qui tire profit de la puissance de la CG en utilisant pour le traitement raw vers jpeg ou tiff les fonctions opencl.
Je suis passé d'une carte entrée de gamme à une moyenne gamme, le gain de traitement a été diminué par plus de 2.Le proc que j'ai est un i5 750, le cg une hd6850 cyclone.

restoc

Citation de: Pierred2x le Septembre 05, 2013, 20:17:12
On le sait  comment ?
Les constructeurs n'ont pas l'air de donner facilement ces informations, ou alors je sais pas les trouver.
Des exemples SVP ?


Les constructeurs Nvidia, ATI le mentionnent quand c'est en 3 fois 10 bits car c'est encore rare.
Attention dans ce cas il faut également veiller à ce  que le moniteur le supporte aussi et qu'il y ait une connexion de moniteur /carte  en Display Port car le DVI même dual est limité ou pas trop stable.  Quitte à investir prendre le bon standard moderne. C'est généralement le cas dorénavant l'un allant avec l'autre dés qu'on dépasse 1920*1024 sur des écrans 27 et 30 pouces par ex..

Un exemple d'entrée de gamme 3* 10 bits et Display port Nvidia Quattro 2000. Supporte Open Gl  Open Cl Cuda etc. Après pour le calcul intensif Quattro 4000 6000 etc. Le prix est à la hauteur des performances pas de miracle.

Attention en logiciel photo seul à ma connaissance Photoshop supporte la visualisation en 3*10 bits en natif. Peut être Gimp aussi.

La question est juste : a t-on besoin de ce niveau d'exigence . Là la réponse est simple oui pour les trés très pros et le scientifique et à condition d'avoir une bonne vue. Non pour un usage courant de la photo et tout défaut de vision car la plupart des lunettes (et leur état de propreté !) annulent en gros les bénéfices des nuances supplémentaires . 

Un des cas les plus utiles paradoxalement est le Noir et Blanc pour ceux qui partent de clichés couleurs et utilisent une grande variété de papiers chauds, froids, avec Az  etc et de léger virages.

remyphoto75

En réalité toutes les cartes graphiques de chez nvidia ont une sortie en 3x10 bits. L'activation de la prise en charge de l'affichage 3x10 bits se fait via le driver qui détecte si la carte installé est une Quadro ou une Geforce et dans le cas d'une Geforce, il désactive le mode 10 bits.
Les Quadro sont strictement identique aux Geforce. C'est au niveau des drivers que se fait toute la différence.
La gamme de GPU qui possède une architecture réellement différentes des Geforce chez Nvidia c'est les Tesla.
Il est d'ailleurs tout à fait possible en modifiant le fichier nvidia.inf d'installer les drivers Quadro avec une simple Geforce et là miracle le mode 10 bits est activé.

restoc

Citation de: remyphoto75 le Octobre 04, 2013, 10:32:54
En réalité toutes les cartes graphiques de chez nvidia ont une sortie en 3x10 bits. L'activation de la prise en charge de l'affichage 3x10 bits se fait via le driver qui détecte si la carte installé est une Quadro ou une Geforce et dans le cas d'une Geforce, il désactive le mode 10 bits.
Les Quadro sont strictement identique aux Geforce. C'est au niveau des drivers que se fait toute la différence.
La gamme de GPU qui possède une architecture réellement différentes des Geforce chez Nvidia c'est les Tesla.
Il est d'ailleurs tout à fait possible en modifiant le fichier nvidia.inf d'installer les drivers Quadro avec une simple Geforce et là miracle le mode 10 bits est activé.


Et sous réserve qu'elles aient un connecteur displayport pour sortir le train 3*10 bits et donc l'écran aussi.

yaquinclic

Citation de: Verso92 le Mai 17, 2013, 17:45:59
Affichage en 3 x 8 bits ou 3 x 10 bits ?

Une question aux spécialistes, la différence est-elle flagrante aussi bien en affichage écran (encore faudrait-il que ce soit une dalles Wide Gamut ?) que en impression. Quel serait le pourcentage des gens qui variaient cette différence (moi, je ne crois pas :-\) et ceux qui en on besoin.
Vous me direz que l'œil s'éduque.
A+  

SimCI

Citation de: remyphoto75 le Octobre 04, 2013, 10:32:54

Les Quadro sont strictement identique aux Geforce. C'est au niveau des drivers que se fait toute la différence.

Il semble que sur les cartes recentes (GTX 660 etc) le firmware detecte le type de carte
en fonction d'un jeu de resistances (qui ne servent qu'a ca).
Je serais curieux de connaitre toute autre methode purement logicielle.
Un lien serait le bienvenu.

Verso92

Citation de: yaquinclic le Octobre 15, 2013, 23:00:47
Une question aux spécialistes, la différence est-elle flagrante aussi bien en affichage écran (encore faudrait-il que ce soit une dalles Wide Gamut ?) que en impression. Quel serait le pourcentage des gens qui variaient cette différence (moi, je ne crois pas :-\) et ceux qui en on besoin.
Vous me direz que l'œil s'éduque.
A+  

La différence est insignifiante, et ne mérite pas qu'on dépense des centaines d'euros supplémentaires, même avec un écran haut de gamme.
(pour ma part, j'ai eu l'opportunité de le faire à peu de frais (voire moins !), et j'ai franchi le pas. Pas de quoi fouetter un chat, en vérité !)