Carte graphique pour PC en 2013

Démarré par jmlaf, Mai 17, 2013, 14:28:16

« précédent - suivant »

jmlaf

Pouvez vous me donner votre avis sur le choix de la carte graphique pour un très bon PC ( ma vieille machine vient de rendre l'âme après 6 ans de bons services )surtout pour la photo en tous genres ,moyen format , focus stacking .... certains parlent de carte simple d'autres vont vers des NVD 680 ,690 ,Titan en 4G 6G et même des quadro K4000 ,il me semble plutôt réservé au graphisme 3D ?  j'utilise 2 écrans , je ne suis pas un Gamer et j'ai pas l'intention de m'attaqué à " l'age de glace n°8 " des avis compétant me seront trés utile !!! :)
Jean-marc

fabco

tu utilises quoi comme logiciels de photo ?

Verso92

Affichage en 3 x 8 bits ou 3 x 10 bits ?

Nikojorj

Hirondelle d'Europe ou d'Afrique?

Certains logiciels comme DxO utilisent beaucoup la carte graphique pour les calculs, d'autres comme PS CS6 pas mal moins, d'autres comme LR pas du tout pour l'instant (hors sa fonction d'affichage bien sûr mais pour ça, une CG intégrée va très bien).

Inka

#4
Citation de: fabco le Mai 17, 2013, 17:43:35
tu utilises quoi comme logiciels de photo ?

Explicitons. Pour un affichage photo standard, de la 2D, la carte graphique importe peu, aujourd'hui elles savent toutes le faire. Pour la 3D il faut des cartes graphiques plus puissantes, avec des processeurs embarqués assez balaises et... certains softs photos en combinaison avec certains OS pas trop vieux, peuvent tirer parti de ces processeurs pour accélérer certains calculs.

Pas forcément obligatoire en 2D photographique...
Carolorégien

fabco

Citation de: Inka le Mai 18, 2013, 00:34:30
Explicitons. Pour un affichage photo standard, de la 2D, la carte graphique importe peu, aujourd'hui elles savent toutes le faire. Pour la 3D il faut des cartes graphiques plus puissantes, avec des processeurs embarqués assez balaises et... certains softs photos en combinaison avec certains OS pas trop vieux, peuvent tirer parti de ces processeurs pour accélérer certains calculs.

Pas forcément obligatoire en 2D photographique...

Avec dxo de dop, ce logiciel utilise le gpu de la carte graphique pour le traitement ( fonction opencl) .Dans cas il faut mieux prendre une moyenne gamme qui permettra de gagner un temps non négligeable surtout sur des configurations pas trop puissante.
LR n'utilise pas ce composant aujourd'hui, mais demain ? là il faut favoriser proc et mémoire
PS utilise les 2 proc et gpu suivant les fonctions.

Nikojorj

Citation de: fabco le Mai 18, 2013, 10:38:47
LR n'utilise pas ce composant aujourd'hui, mais demain ?
Pour LR, pas d'utilisation du GPU avant LR6 de ce qu'en dsent des gens bien infiormés comme Eric Chan : ça me semble une bonne raison, si on n'utilise que LR, pour reporter l'achat d'une CG à dans un ou deux ans, ou on aura bien plus pour le même prix.

Le Tailleur

Nikoniste, Fujiste et Sigiste

Nikojorj

Argh il manque un accent désolé.... dans un ou deux ans où on en aura bien plus pour le même prix, désolé.

jmlaf

Merci pour vos avis à tous   ;  Verso92 3x8 ou 3x10 bits ? est une question bien au dessus de mes capacités techniques  désolé ! ,est-ce pour l'instant important dans le post traitement et dans l'aspect final de la photo ?; Fabco j'utilise pour l'instant LR et GIMP 2.6 et j'espère maintenant que j'ai tout mon temps me lancer dans PS SC5 ou 6 (que je n'ai pas ); je vais encore essayer de m'informer un peu .... 
Jean-marc

Nikojorj

Pour les 8 ou 10 bits par canal, si tu n'en sais trop rien c'est que 8 bits iront bien, à vue de nez. ;)

Pour LR il n'y a pas besoin d'une CG spécifique ; pour GIMP 2.8 il semble bien y avoir des fonctions (dépendant de GEGL) faisant appel à OpenCL (la situation semble être du même niveau que pour PS CS6), une carte moyenne gamme peut donc déjà accélérer ces fonctions.

Pierred2x

Citation de: Verso92 le Mai 17, 2013, 17:45:59
Affichage en 3 x 8 bits ou 3 x 10 bits ?

On le sait  comment ?
Les constructeurs n'ont pas l'air de donner facilement ces informations, ou alors je sais pas les trouver.
Des exemples SVP ?

Gérard_M

Je ne crois pas que tu as besoin de plus costaud que la GeForce GTX 650 avec 1 gigot de ram, ou la GTX 660...
Par contre, il n'y a pas  2 DVI sur les GTX 640 et 645
Boitiers Canon,bridge,

remyphoto75

Déjà il faut savoir qu'hormis utiliser certaines applis très particulières pour le calcul ou avoir un besoin absolu de l'affichage sur 10 bits, la gamme Quadro/Firegl ne te seras d'aucune utilité. Actuellement les logiciels photo ne savent pas tirer correctement partie de la puissance des cartes graphique, ce qui fait que la différence entre une carte d'entrée de gamme et une carte haut de gamme sera quasi imperceptible (sauf si tu joues ^^)
En anticipant un éventuel futur où la situation changerait, tu devrais t'orienter vers le milieu de gamme à 120-150 euros. Ca ne risque pas d'être un facteur limitant avant un long moment. Pour le choix orientes toi plutôt vers les cartes disposant d'une large connectivité (incluant display port et pas simplement dvi).

Nikojorj

Citation de: remyphoto75 le Octobre 03, 2013, 19:18:57
En anticipant un éventuel futur où la situation changerait,
On a peut-être meilleur temps d'attendre, avec deux avantages :
- on aura nettement plus de puissance de calcul que maintenant pour le même prix
- on sera aussi fixé sur les eventuelles incompatibilités (genre OpenCL, OpenGL, CUDA...) avec les logiciels du moment, et on saura mieux quoi acheter.

remyphoto75

Bah disons que d'une part les constructeurs de cartes graphiques ne sortiront pas une gamme dédiée. D'autre part les logiciels ont tout intérêt à privilégier un standard qui soit adapté aux 2 principaux fournisseur de chipset graphique à savoir Nvidia et AMD, ce qui orienterait en toute logique le choix sur OpenCL. A partir de là, pourquoi donc attendre ? Les cartes graphiques dans 1 ou 2 ans ne seront probablement pas plus performantes que les cartes graphiques actuelles pour les opérations d'accélération pour de l'image bitmap.
Les efforts des constructeurs de cartes graphiques se situant au niveau de la 3D avant tout.

Nikojorj

Citation de: remyphoto75 le Octobre 03, 2013, 21:06:29
D'autre part les logiciels ont tout intérêt à privilégier un standard qui soit adapté aux 2 principaux fournisseur de chipset graphique à savoir Nvidia et AMD, ce qui orienterait en toute logique le choix sur OpenCL.
Ca, c'est assez plausible... mais pas encore gagné. Ma boule de cristal rend les textures avec des bugs depuis la dernière mise à jour du pilote et je n'y vois plus très bien.

CitationLes cartes graphiques dans 1 ou 2 ans ne seront probablement pas plus performantes que les cartes graphiques actuelles pour les opérations d'accélération pour de l'image bitmap.
Les efforts des constructeurs de cartes graphiques se situant au niveau de la 3D avant tout.
Le fait d'avoir plus de GFlops, ça doit aider non quand même?

remyphoto75

Bah je suis pas spécialiste sur la question mais j'ai cru comprendre qu'il n'était pas évident de faire profiter les calculs de rendus bitmap de la puissance des gpu qui sont optimisés pour la 3D. Les gigaflops justement ne sont pas d'une grande utilité

fabco

A ma connaissance, il n'y a que dop de dxo qui tire profit de la puissance de la CG en utilisant pour le traitement raw vers jpeg ou tiff les fonctions opencl.
Je suis passé d'une carte entrée de gamme à une moyenne gamme, le gain de traitement a été diminué par plus de 2.Le proc que j'ai est un i5 750, le cg une hd6850 cyclone.

restoc

Citation de: Pierred2x le Septembre 05, 2013, 20:17:12
On le sait  comment ?
Les constructeurs n'ont pas l'air de donner facilement ces informations, ou alors je sais pas les trouver.
Des exemples SVP ?


Les constructeurs Nvidia, ATI le mentionnent quand c'est en 3 fois 10 bits car c'est encore rare.
Attention dans ce cas il faut également veiller à ce  que le moniteur le supporte aussi et qu'il y ait une connexion de moniteur /carte  en Display Port car le DVI même dual est limité ou pas trop stable.  Quitte à investir prendre le bon standard moderne. C'est généralement le cas dorénavant l'un allant avec l'autre dés qu'on dépasse 1920*1024 sur des écrans 27 et 30 pouces par ex..

Un exemple d'entrée de gamme 3* 10 bits et Display port Nvidia Quattro 2000. Supporte Open Gl  Open Cl Cuda etc. Après pour le calcul intensif Quattro 4000 6000 etc. Le prix est à la hauteur des performances pas de miracle.

Attention en logiciel photo seul à ma connaissance Photoshop supporte la visualisation en 3*10 bits en natif. Peut être Gimp aussi.

La question est juste : a t-on besoin de ce niveau d'exigence . Là la réponse est simple oui pour les trés très pros et le scientifique et à condition d'avoir une bonne vue. Non pour un usage courant de la photo et tout défaut de vision car la plupart des lunettes (et leur état de propreté !) annulent en gros les bénéfices des nuances supplémentaires . 

Un des cas les plus utiles paradoxalement est le Noir et Blanc pour ceux qui partent de clichés couleurs et utilisent une grande variété de papiers chauds, froids, avec Az  etc et de léger virages.

remyphoto75

En réalité toutes les cartes graphiques de chez nvidia ont une sortie en 3x10 bits. L'activation de la prise en charge de l'affichage 3x10 bits se fait via le driver qui détecte si la carte installé est une Quadro ou une Geforce et dans le cas d'une Geforce, il désactive le mode 10 bits.
Les Quadro sont strictement identique aux Geforce. C'est au niveau des drivers que se fait toute la différence.
La gamme de GPU qui possède une architecture réellement différentes des Geforce chez Nvidia c'est les Tesla.
Il est d'ailleurs tout à fait possible en modifiant le fichier nvidia.inf d'installer les drivers Quadro avec une simple Geforce et là miracle le mode 10 bits est activé.

restoc

Citation de: remyphoto75 le Octobre 04, 2013, 10:32:54
En réalité toutes les cartes graphiques de chez nvidia ont une sortie en 3x10 bits. L'activation de la prise en charge de l'affichage 3x10 bits se fait via le driver qui détecte si la carte installé est une Quadro ou une Geforce et dans le cas d'une Geforce, il désactive le mode 10 bits.
Les Quadro sont strictement identique aux Geforce. C'est au niveau des drivers que se fait toute la différence.
La gamme de GPU qui possède une architecture réellement différentes des Geforce chez Nvidia c'est les Tesla.
Il est d'ailleurs tout à fait possible en modifiant le fichier nvidia.inf d'installer les drivers Quadro avec une simple Geforce et là miracle le mode 10 bits est activé.


Et sous réserve qu'elles aient un connecteur displayport pour sortir le train 3*10 bits et donc l'écran aussi.

yaquinclic

Citation de: Verso92 le Mai 17, 2013, 17:45:59
Affichage en 3 x 8 bits ou 3 x 10 bits ?

Une question aux spécialistes, la différence est-elle flagrante aussi bien en affichage écran (encore faudrait-il que ce soit une dalles Wide Gamut ?) que en impression. Quel serait le pourcentage des gens qui variaient cette différence (moi, je ne crois pas :-\) et ceux qui en on besoin.
Vous me direz que l'œil s'éduque.
A+  

SimCI

Citation de: remyphoto75 le Octobre 04, 2013, 10:32:54

Les Quadro sont strictement identique aux Geforce. C'est au niveau des drivers que se fait toute la différence.

Il semble que sur les cartes recentes (GTX 660 etc) le firmware detecte le type de carte
en fonction d'un jeu de resistances (qui ne servent qu'a ca).
Je serais curieux de connaitre toute autre methode purement logicielle.
Un lien serait le bienvenu.

Verso92

Citation de: yaquinclic le Octobre 15, 2013, 23:00:47
Une question aux spécialistes, la différence est-elle flagrante aussi bien en affichage écran (encore faudrait-il que ce soit une dalles Wide Gamut ?) que en impression. Quel serait le pourcentage des gens qui variaient cette différence (moi, je ne crois pas :-\) et ceux qui en on besoin.
Vous me direz que l'œil s'éduque.
A+  

La différence est insignifiante, et ne mérite pas qu'on dépense des centaines d'euros supplémentaires, même avec un écran haut de gamme.
(pour ma part, j'ai eu l'opportunité de le faire à peu de frais (voire moins !), et j'ai franchi le pas. Pas de quoi fouetter un chat, en vérité !)

yaquinclic

Salut Verso,
C'est bien ce que pensais, a moins d'être graphiste et travailler avec des clients donc la couleur fait partie intégrant à la comme et reconnaissable de tous, ou faire de la repro d'œuvre d'art, je ne vois d'intérêt. Car pour moi afficer un rouge ferrari avec deux point de jaune de plus ou moins je ne verrais pas
donc ... Mais quelqu'un trouve ça utile qu'il me l'explique je suis curieux, vraiment.
A+ ;)

Nikojorj

Citation de: yaquinclic le Octobre 16, 2013, 23:53:00
Car pour moi afficer un rouge ferrari avec deux point de jaune de plus ou moins je ne verrais pas
donc ... Mais quelqu'un trouve ça utile qu'il me l'explique je suis curieux, vraiment.
C'est une question de tonalité ces 10bits, pas de couleur : ça n'aide pas vraiment à la précision des couleurs, juste à avoir des dégradés bien lisses.
Ca me semble, à moi aussi, un luxe dont on peut se passer.

remyphoto75

Citation de: SimCI le Octobre 16, 2013, 13:29:27
Il semble que sur les cartes recentes (GTX 660 etc) le firmware detecte le type de carte
en fonction d'un jeu de resistances (qui ne servent qu'a ca).
Je serais curieux de connaitre toute autre methode purement logicielle.
Un lien serait le bienvenu.
La méthode logiciel est vraiment très bête. Il suffit de télécharger le driver pour Quadro et le driver pour Geforce. Décompresser les driver dans des dossiers différents. Aller dans le dossier contenant le driver geforce décompresse et éditer le fichier nvidia.inf et rechercher les lignes concernant ton modèle de carte graphique. Il y a plusieurs lignes dans différentes sections si je me rappelle bien. Aller le dossier contenant le driver Quadro décompressé, éditer le ficher nvidia.inf et y coller dans les sections idoines les lignes pour faire reconnaître ta carte graphique. Et tu installes ensuite le driver Quadro modifié
Un lien expliquant plus en détail (mais en anglais) la procédure
http://forums.guru3d.com/showthread.php?t=377158
Si tu veux trouver un drivers tout prêt un recherche sur "nvidia quadro modded driver" devrait te donner quelques liens.

remyphoto75

Citation de: restoc le Octobre 15, 2013, 19:25:59
Et sous réserve qu'elles aient un connecteur displayport pour sortir le train 3*10 bits et donc l'écran aussi.
Le 3*10 bits ne nécessite pas de sortie DisplayPort, en Dual-DVI ça fonctionne très bien. Je peux en attester pour avoir fait le mod sur une GTX460 qui donne de meilleures perf que ma Quadro 4000 qui coûte pourtant 2 fois plus cher.

Nicolas Meunier

J'avais fait des recherches sur le sujet et donc pour LR aucun besoin d'une carte, pour CS6 ou CC une carte milieu de gamme dans les 200€ peut ammener un vrai plus, au delà c'est plutôt CaptureOne qui sait aller plus loin dans l'exploitation des cartes graphiques.
Les cartes pro en photo ne servent à rien c'est en effet plus pour la video ou la 3D.

Attention quand même tout bouge, et je rêve du moment où CC ira un peu plus loin dans la gestion OpenCL du flou de surface par exemple... là j'irais tout de suite chercher un Titan ou equivalent.

kochka

Qui aurait une idée de ce qu'il conviendrait avec Capture NX2, et un écran de 4mp?
J'ai une vieille Geforce 8800 GT
Technophile Père Siffleur

jolanisa

#31
Celle-ci fera très bien l'affaire http://www.grosbill.com/4-sapphire_ati_radeon_r7_260x_2g_gddr5_pci_e_dl_dvi_i_dl_dvi_d_hdmi_dp_oc-602715-informatique-_carte_graphique
Pour un PC récent c'est un choix cohérent et amplement suffisant pour une utilisation courante.
Mat du couloir

Nikojorj

Citation de: kochka le Octobre 22, 2013, 13:47:05
Qui aurait une idée de ce qu'il conviendrait avec Capture NX2, et un écran de 4mp?
J'ai une vieille Geforce 8800 GT
Une geforce 8800 GT, au hasard? ;)
Théoriquement, le 2560*1600 passe bien dessus, et même s'il y a déjà un peu de puissance de calcul dedans NX2 ne semble pas demander beaucoup au GPU.

kochka

Oui, elle y en montée depuis le début; mais n'y a-t-il pas mieux, pour NX2?
Technophile Père Siffleur

remyphoto75

Pour l'instant les applis sollicitant les GPU en photo ne sont limités qu'à quelques fonctionnalités assez marginales. Je pense que cela est en partie due à la manière dont les GPU font les calculs via OpenCL qui à été conçu à la base pour le rendu 3D.
Il faudra du temps avant que cela ne change et principalement l'investissement de Nvidia et AMD. Une vieille Geforce 8800GT fournit toujours plus de puissance de calcul que ce que les applis savent utiliser.

Nicolas Meunier

Des choses marginales comme l'affichage, le zoom et de zoom, tous les filtres flous, la fluidité, etc.. Sincerement même pour la simple fluidité de l'interface une bonne carte graphique s'impose. Zoomer et de zoomer ou scroller de manière fluide ans délai et sans saccade dans sa photo  et malheureusement les chip integrés sont encore un peu a la ramasse sur ce genre de chose.

Envoyé de mon Nexus 7 en utilisant Tapatalk

remyphoto75

Le zoom constant à la place du zoom par à coup auparavant est un luxe (comme tout luxe on s'y habitue vite) mais ça n'est pas à mon sens tellement important. Lorsque tous les filtres et effet de rendus seront complètement hardware là on verra un réel intérêt à avoir une CG performante.
Je pense qu'étant donné qu'il ne reste plus que 2 mois pour finir l'année 2013 il serait bien hasardeux d'acheter maintenant une carte graphique, alors qu'il serait mieux d'attendre que les soft exploitent vraiment les GPU pour pouvoir faire un choix en toute connaissance de cause.

restoc

Citation de: remyphoto75 le Octobre 17, 2013, 10:22:50
Le 3*10 bits ne nécessite pas de sortie DisplayPort, en Dual-DVI ça fonctionne très bien. Je peux en attester pour avoir fait le mod sur une GTX460 qui donne de meilleures perf que ma Quadro 4000 qui coûte pourtant 2 fois plus cher.


Vrai mais seulement jusqu'à 1920*1080 me semble t-il. Etant sur des écrans à plus haute definition seul le Display port répond à mon pb.

remyphoto75

Citation de: restoc le Octobre 25, 2013, 21:27:05
Vrai mais seulement jusqu'à 1920*1080 me semble t-il. Etant sur des écrans à plus haute definition seul le Display port répond à mon pb.
Il y a quoi qui n'est pas français quand je dis "ça fonctionne très bien" ??? Le DVI dual link supporte tout autant que le display port les hautes définitions. Je suis en 2560x1600 sur mon écran 30" connecté en DVI.
Je pense que tu confonds avec le hdmi qui lui est bien limité à 1920x1080 dans les normes actuelles.

Nicolas Meunier

Citation de: remyphoto75 le Octobre 25, 2013, 16:18:14
Le zoom constant à la place du zoom par à coup auparavant est un luxe (comme tout luxe on s'y habitue vite) mais ça n'est pas à mon sens tellement important.

Je serais incapable de tenir 4h devant un ordi a retoucher si a chaque fois que je me deplacer dans mon image j'avais des saccades. Bien plus qu'un confort, c'est aussi une efficacité. Je m'en suit rendu compte quand j'ai recu mon D800 et que j'avais un i5 avec une carte graphique très très light intégré... c'etait juste a se taper la tête contre les murs.

Si ca c'est du luxe, autant prendre un core i3, pas de SSD et un ecran 14 pouces, le reste c'est du luxe aussi ;)

remyphoto75

Pendant des années ça n'a jamais gêné personne le zoom par à coup. D'autant plus que beaucoup ne passent pas leur temps à zoomer/dézoomer donc ça n'est vraiment en rien un point si déterminant. Perdre du temps à attendre la barre de progression lorsqu'on applique un filtre ça par contre je trouve que c'est plus gênant. Enfin tu me diras ça dépend beaucoup des habitudes de chacun.
L'affichage via la carte graphique est géré pour tous les chip actuels même sur l'entrée de gamme. Donc, la question de prendre plus cher dans l'espoir éventuellement qu'une version ultérieure de PS/LR en tire parti a mon avis ne se pose pas. C'est un gaspillage sachant que le jour où PS/LR tireront pleinement partis des cartes graphiques, il y aura eut de nouvelles cartes qui en feront plus pour le même prix que les cartes actuelles.

Nicolas Meunier

Je retouche des photos de 36MP et malgré la bonne resolutions de mon 27pouces je dois quand même en permanance scoller quand je retouche a 100% et zoomer dezoomer pour faire des retouche tantot micro/tantot macro.

Il y a bien longtemps, mes photos ne faisait que 2,5 puis 3,4 puis 6 puis 8 puis 12MP et mes ordis sont montés en puissance et finalement il n'y avait pas d'accouts, le passage brusque de 12 à 36 a fait changer les choses.

A la maison j'ai un ordi sans carte graphique dédiée, un avec une carte à 70€ et un avec une carte à 200€. Sur mes fichiers le premier est vraiment pénible, le deuxieme c'est déjà un peu mieux sauf le filtre fluidité et les flous et le 3ième est vraiment mieux.

Je n'icite personne a acheter ajd une carte a 1000€ pour la photo, j'explique juste le sens de l'histoire.

Les nouveau MacPro par exemple visent à fond la carte biGPU de base.

remyphoto75

Les filtres tels que fluidité sont quand même vachement loin d'être les plus utilisés par la majorité des photographes.
Et avant je crois Photoshop CS4, le zoom/dezoom se faisait TOUJOURS par à-coup. Il n'y avait pas le système de zooming/dezooming fluide qui a été introduit avec CS4.
Sachant qu'entre une carte graphique d'entrée de gamme à 70 euros et une à 200 euros il y a plusieurs modèles intermédiaires qui peuvent convenir quasiment aussi bien que le modèle à 200 euros en l'état actuel des choses sur PS.
Plus que remettre en question l'utilité d'une carte graphique performante actuellement (tous dépends des besoins de tout un chacun). Je questionne plus la pertinence d'anticiper une future prise en charge des gpu par PS.
D'ici à ce que ce soit effectif une CG à 200 euros aura probablement été dépassé en terme de performance par une CG à 120 euros. En 2013, étant donné la prise en charge limitée des GPU par PS, je dirais qu'une carte graphique à 200 euros est un luxe inutile pour la majeure partie des gens. Par contre une carte graphique à 70 euros est un vrai plus par rapport au GPU intégré a la carte-mere.

Nicolas Meunier

Citation de: remyphoto75 le Novembre 12, 2013, 16:10:09
Les filtres tels que fluidité sont quand même vachement loin d'être les plus utilisés par la majorité des photographes.
Et avant je crois Photoshop CS4, le zoom/dezoom se faisait TOUJOURS par à-coup. Il n'y avait pas le système de zooming/dezooming fluide qui a été introduit avec CS4.
Sachant qu'entre une carte graphique d'entrée de gamme à 70 euros et une à 200 euros il y a plusieurs modèles intermédiaires qui peuvent convenir quasiment aussi bien que le modèle à 200 euros en l'état actuel des choses sur PS.
Plus que remettre en question l'utilité d'une carte graphique performante actuellement (tous dépends des besoins de tout un chacun). Je questionne plus la pertinence d'anticiper une future prise en charge des gpu par PS.
D'ici à ce que ce soit effectif une CG à 200 euros aura probablement été dépassé en terme de performance par une CG à 120 euros. En 2013, étant donné la prise en charge limitée des GPU par PS, je dirais qu'une carte graphique à 200 euros est un luxe inutile pour la majeure partie des gens. Par contre une carte graphique à 70 euros est un vrai plus par rapport au GPU intégré a la carte-mere.
Je suis desolé mais les tests montre un gain sensible sur CS6 déjà jusqu'au carte entre 150 et 250€, c'est après que ca ne bouge quasiment plus.
Utiliser une carte a 200 € c'est pas un pari sur l'avenir, c'est un gain dès ajd si on se sert beaucoup de CS6 ou CC.
Ca serait prendre une carte à 1000€ comme une Titan qui correspondrait à ce que tu decris.

Pour les citer les carte 7850/7870 d'ATI apportent encore un gain sensible et chez NVidia ce sont les 660/660ti.

Sinon si vous ne faite aucun flou, aucune fluidité, ne zoomez pas sur vos photos... vous faites quoi avec photoshop?

Enfin je n'aime pas qu'on tire tout le monde vers le bas et qu'on decrive "la plupart des gens"... Il n'y a pas deux cas identiques, on peut juste decrire notre besoin et comment on y repond.

C'est quoi un usage normal amateur? Moi amateur je faisais des photos de tennis pour le plaisir... jsuque 3000 par jours.
J'en connais ici qui assemble 10 vues de D800 et qui explosent leur 16Go de ram sans pb alors que c'est juste leurs photos de vacances. Madame Michu qui fait du jpeg avec son compact ans retouche, je ne pense pas qu'elle lise se forum.

Si tu relis ce que j'ai ecrit avant je dis que sans carte c'est nul avec une a 70 c'est mieux et à 200 c'est quasi le top... je ne dis nullement qu'en dessous de celle a 200 point de salut mais par contre NON celle a 200 a un vrai interet pour moi et retoucher une belle photo de studio ou un beau portrait sous photoshop n'est pas un besoin extraterrestre. A part lire un bench tu as essayé? Perso j'ai regardé le gain entre mon ancienne nvidia 7800 (ex très haut de gamme) et mon Ati 7870 et le gain n'est pas anodin du tout. la petite puce nvidia dédié de mon MBP elle est quasi intule et alors le chip intégré au proc est juste là pour la décoration.

Perso j'en suis a surveiller les update de CC (pas dans 10ans mais dans les 3 mois) pour savoir si desormais une 780Ti pourrait être utilise pour enfin utiliser le flou de surface.

remyphoto75

On a vraiment pas du lire les mêmes tests ou on ne les lit pas de la même manière mais justement tous les tests que j'ai lu mettent en avant que les cartes d'entrées de gammes se débrouille très bien face à des cartes graphiques valant 5 fois leur prix.
http://www.pugetsystems.com/labs/articles/Adobe-Photoshop-CS6-GPU-Acceleration-161/
Et je pense vraiment qu'un filtre comme le filtre de fluidité est loin très loin d'être un filtre très utilisé. Je veux bien que les photographes de mode ou beauté aiment s'en servir pour améliorer leurs images, pour les autres, ça n'a pas un gros intérêt.
Justement ton propos résumant l'utilisation de PS à flou, fluidité,zoom dézoom (qui au passage est supporté même sur les gpu intégrés pas besoin d'une carte à 200 euros pour ca) semble traduire de une vision uniquement centré sur ton utilisation personnelle.
Un photographe qui ne fait que du paysage par exemple, il n'aura aucun intérêt à investir dans une carte à 200 euros qui n'accélère que certaines fonctionnalités qu'il ne doit utiliser que très peu pour ne pas dire pas du tout.
Je le répète s'il s'agit de gagner 1 secondes sur une opération qui en prend 7 je peux comprendre à la rigueur l'intérêt. Si c'est pour gagner 1 secondes sur un traitement qui en prend 20, je doute que la plupart des gens y voient un réel gain. Mais les bench seront là pour le mettre en avant. Après il s'agit de savoir si on fait de la retouche ou du benchmark.

Nikojorj

Merci pour le lien Puget Systems, c'est une mine!
Et vu les systèmes qu'ils construisent, ils pourraient pourtant avoir intérêt à pousser à la course aux specs...

remyphoto75

Je trouve justement très honnête de leur part de montrer qu'une GTX650 à 80 euros est quasi aussi performante sous PS CS6 qu'une GTX680 à 350 euros. Si tu as des bench qui prouvent le contraire nicolas je suis preneur. Je te l'ai dit, j'ai parcouru une mine de bench et vraiment rien qui n'indique qu'une carte graphique à 80 euros ne suffit pas amplement pour tirer parti de CS6.

bencodrak

Affichage photo = 2D, n'importe quelle GPU même INTEL intégrée au processeur est suffisante, sauf dans les cas suivants :
+ écran de finition 2560 x ... => prise display Port obligatoire
+ écran sous 3x10 bits => carte NVDIA QUADRO ou équivalente prérequise
+ ensuite, selon les programmes (et les infos à ce sujet sont rares ... avis aux amateurs), le processeur de la carte graphique peut épauler les CPU via OPEN CL ou consorts.
Dans ce cas, inutile d'acquérir une carte graphique de prix supérieur à 160 €.
A contrario, toujours privilégier la mémoire vive (pas cher) jusqù à 16GB, les SSD pour le confort et des processeurs gamme I7 (45770) ou haut de gamme I5, selon budget.
Cela vous suffira pour être le photographe le plus heureux du monde !

remyphoto75

Le display port n'est qu'un port il n'est pas lié à la résolution. Erreur qu'on retrouve souvent sur ce forum et dont je me demande bien d'où ce mythe tiens son origine.
Pour info les hd graphics 5000/4600/4400 autorise une resolution max de 3840x2160 via display port mais 4k en hdmi (avec une fréquence chutant à 24hz).
Autrement quasi tous les gpu hd graphics sont capable d'afficher une résolution de 2560x1600 que ce soit via display port ou dvi. La limitation provient bien souvent de l'écran et non de la carte graphique.

Quand au 3x10 bits je l'ai déjà expliqué plus haut, il n'est pas réservé aux seules Quadro et FirePro, toutes les cartes graphiques nvidia (au moins j'ignore pour les amd) sont capables d'afficher 3x10 bits.

Rouquet

Le passage au D800 m'a contraint à remplacer ma machine.

Pour le moment , j'utilise uniquement la partie graphique d'un core I5 de dernière génération pour afficher sur un écran en 2560*1600. Quand je me sentirai limité , j'investirai dans une carte graphique.

Pour supporter de tel débit, j'ai été obligé de passer en display port. Ça aurait pu passer en double DVI mais la carte mère n'a pas de sortie double DVI (unique simple DVI sur la carte mère dont le débit est insuffisant). Ça aurait pu passer en HDMI (le débit est supporté par la carte mère) mais c'est  l'écran qui limite le débit HDMI. Bref, il faut que la carte mère et l'écran acceptent le haut  débit sur la même prise, dans mon cas seul de displayport était compatible des deux.

Mémoire vive : j'ai 8 Go et je n'utilise pas toute cette capacité, c'est un minimum mais  je ne suis pas sur que de passer à 16 Go change beaucoup les performances.

SSD : c'est 256 Go minimum pour bien en profiter.

Verso92

#50
Citation de: remyphoto75 le Novembre 14, 2013, 08:07:19
Le display port n'est qu'un port il n'est pas lié à la résolution. Erreur qu'on retrouve souvent sur ce forum et dont je me demande bien d'où ce mythe tiens son origine.

Le Display Port n'est pas qu'un "port", bien évidemment. En ce qui concerne le terme résolution employé ci-dessus, c'est une erreur souvent faite sur les forum : ici, il s'agit, entre autre, de définition, et de profondeur d'affichage des couleurs.
Sur certains moniteurs (par exemple le Nec PA241w), seul le DP permet d'afficher en 3 x 10 bits. Le DVI ne le permet pas (voir MdE).
Citation de: remyphoto75 le Novembre 14, 2013, 08:07:19
Quand au 3x10 bits je l'ai déjà expliqué plus haut, il n'est pas réservé aux seules Quadro et FirePro, toutes les cartes graphiques nvidia (au moins j'ignore pour les amd) sont capables d'afficher 3x10 bits.

Chez AMD, seules certaines cartes (en principe les Fire Pro) permettent l'affichage en 3 x 10 bits. Ce sont les seules CG AMD avec lesquelles le pilote (Catalyst) permet l'affichage dans ce mode...

remyphoto75

Citation de: Verso92 le Décembre 08, 2013, 23:06:51
Le Display Port n'est pas qu'un "port", bien évidemment. En ce qui concerne le terme résolution employé ci-dessus, c'est une erreur souvent faite sur les forum : ici, il s'agit, entre autre, de définition, et de profondeur d'affichage des couleurs.
Bah si c'est comme le port-salut hein. Ca n'est qu'un port. Et il n'y a pas d'erreur, résolution (implicitement d'affichage supporté)/définition c'est la même chose à moins que tu estimes que les constructeurs se trompent quand ils parlent de résolution. Si tu prends le temps de lire correctement mon intervention, je ne parle que de la résolution d'affichage supporté, parce que certains sous-entendait qu'il fallait impérativement disposer d'une sortie DP pour des résolution d'affichage de 2560x1600 ou plus ce qui est là bien une erreur souvent faite sur les forum.
Cela est du au fait qu'en dehors du DVI-D qui est un port entièrement digital comme le DP, les autres variantes elles requiert l'utilisation d'un RAMDAC limitant le signal de sortie.
Pour ce qui est du 3x10 bits c'est pareil, c'est essentiellement une limitation du moniteur et en rien une spécification exclusive du DP (le signal de sortie du DVI-D étant identique à celui du DP).

Verso92

#52
Citation de: remyphoto75 le Décembre 09, 2013, 08:34:11
Bah si c'est comme le port-salut hein. Ca n'est qu'un port. Et il n'y a pas d'erreur, résolution (implicitement d'affichage supporté)/définition c'est la même chose à moins que tu estimes que les constructeurs se trompent quand ils parlent de résolution. Si tu prends le temps de lire correctement mon intervention, je ne parle que de la résolution d'affichage supporté, parce que certains sous-entendait qu'il fallait impérativement disposer d'une sortie DP pour des résolution d'affichage de 2560x1600 ou plus ce qui est là bien une erreur souvent faite sur les forum.
Cela est du au fait qu'en dehors du DVI-D qui est un port entièrement digital comme le DP, les autres variantes elles requiert l'utilisation d'un RAMDAC limitant le signal de sortie.
Pour ce qui est du 3x10 bits c'est pareil, c'est essentiellement une limitation du moniteur et en rien une spécification exclusive du DP (le signal de sortie du DVI-D étant identique à celui du DP).

Si tu jettes une œil à la norme DVI (elle est disponible sur le net), tu constateras que c'est une interface qui est conçue pour une profondeur de couleur de 8 bits (largeur du bus de données). Il n'y a pas de possibilité d'afficher 3 x 10 bits (avec les moniteurs qui le permettent, bien sûr) avec cette interface.

Le seul moyen d'afficher en 3 x 10 bits avec le Nec PA241w (que je possède), par exemple, c'est d'utiliser l'interface DisplayPort, qui, elle, peut véhiculer les signaux en 3 x 10 bits, comme indiqué dans le mode d'emploi (voir ci-dessous).
Sinon, il faut également disposer d'une carte graphique le permettant : mon ATI n'étant pas capable de le faire, malgré son architecture matérielle 3 x 10 bits, j'ai dû la changer pour une Fire Pro (V5800). Il s'agit de toute évidence d'un bridage logiciel de la part du fabricant, mais sauf à cracker le firmware de la carte, il n'y a pas de contournement possible.

Enfin, il ne faut pas perdre de vue que seul Photoshop permet d'exploiter les 3 x 10 bits dans les programmes courants...
Remarque en passant : par définition [sic], une résolution est forcément liée à un nombre de points/pixels par unité de longueur, comme chacun sait (300 dpi, etc). Que certains fabricants se mélangent les crayons dans les termes techniques (les traductions n'améliorent souvent pas les choses) n'y change rien...

remyphoto75

Bien si je prend justement la norme DVI-D en dual link nous avons ceci :
http://en.wikipedia.org/wiki/Digital_Visual_Interface
"Bits per pixel:

    24 bits per pixel support is mandatory in all resolutions supported.
    Less than 24 bits per pixel is optional.
    Up to 48 bits per pixel are supported in dual link DVI, and is optional. If a mode greater than 24 bits per pixel is desired, the least significant bits are sent on the second link."

Il ne faut pas confondre l'implémentation que font les constructeurs d'une norme et ce qu'elle supporte réellement.
Pour avoir utilisé une GTX460 moddée en 2650x1600 en 3x10 bits relié à un U3011 via une connectique DVI Dual Link, je peux te certifier que je ne sors pas des théories pompeuses mais que c'est du vécu.
La norme DVI-D ayant été mise au point tardivement, beaucoup de gens sont restées sur des idées préconçues liées aux restrictions des premières versions de la norme et pensent à tort que seul le DP permet l'affichage 10 bits ou la résolution WQXGA

Verso92

Citation de: remyphoto75 le Décembre 09, 2013, 10:49:59
   24 bits per pixel support is mandatory in all resolutions supported.
   Less than 24 bits per pixel is optional.
   Up to 48 bits per pixel are supported in dual link DVI, and is optional. If a mode greater than 24 bits per pixel is desired, the least significant bits are sent on the second link."

Pour le 3 x 10 bits, la possibilité décrite au-dessus consistant en envoyer les deux bits supplémentaires (le DVI ne passant que 3 x 8 bits en "natif") sur le second lien est évoquée dans la norme 1.0, effectivement (je l'avais lue, à l'époque).

Mais cela n'est possible, bien sûr, que pour les définitions les plus faibles (à savoir celles qui n'utilisent qu'un lien). Pour les définitions les plus élevées (QXGA, par exemple), qui vont obligatoirement utiliser les deux liens, ce sera 3 x 8 bits max.
De toute façon, une chose est sûre : le Nec PA241w n'affiche en 3 x 10 bits que s'il est connecté à la CG via l'interface DP, comme clairement stipulé dans le MdE...


Verso92

Pour illustration, un synoptique du contrôleur DVI :

remyphoto75

Je pense que tu ne sembles pas vouloir comprendre. L'illustration que tu donnes du contrôleur ne correspond pas à un contrôleur pour du DVI-D dual link.
Tu cites le NEC comme étant un exemple de moniteur ne supportant pas le 3x10 bits sur DVI-D, cela ne signifie pas que c'est le cas pour tous les moniteurs puisque sur un DELL U3011 cela est pris en charge.
Ensuite, non, le fait d'être en WQXGA n'empêche pas le 3x10 bits.
Il suffit toujours de lire la norme (du lien que j'ai posté plus haut) :
WQXGA (2,560 × 1,600)  [at]  60 Hz with CVT-RB blanking (269 MHz) (This is for high end monitors when operating at greater than 24 bits per pixel.)


Verso92

#57
Citation de: remyphoto75 le Décembre 09, 2013, 14:40:07
Ensuite, non, le fait d'être en WQXGA n'empêche pas le 3x10 bits.
Il suffit toujours de lire la norme (du lien que j'ai posté plus haut) :
WQXGA (2,560 × 1,600)  [at]  60 Hz with CVT-RB blanking (269 MHz) (This is for high end monitors when operating at greater than 24 bits per pixel.)

En fait, ce qui serait intéressant, ce serait d'avoir un lien vers la norme (le lien que tu donnes ne pointe que sur un article Wikipedia), car je ne comprends pas trop comment l'option "WQXGA (2,560 × 1,600)  [at]  60 Hz with CVT-RB blanking (269 MHz)" est possible en 3 x 10 bits...

Verso92

Et zut, édition du post au-delà des dix minutes...

Verso92

Citation de: Verso92 le Décembre 09, 2013, 15:27:06
En fait, ce qui serait intéressant, ce serait d'avoir un lien vers la norme (le lien que tu donnes ne pointe que sur un article Wikipedia), car je ne comprends pas trop comment l'option "WQXGA (2,560 × 1,600)  [at]  60 Hz with CVT-RB blanking (269 MHz)" est possible en 3 x 10 bits...

Non seulement je ne comprends pas trop comment cela pourrait être possible*, mais je constate de plus que même sur les tous derniers modèles 3 x 10 bits que Nec vient de sortir (par exemple le PA302w), seuls le DisplayPort (et le HDMI) permet de fonctionner à la définition de 2 560 x 1 600 à 60Hz en 3 x 10 bits (soit 1 milliard de couleurs).

En DVI, c'est obligatoirement 3 x 8 bits (16 millions de couleurs)... va comprendre Charles ?
Plus sérieusement, existe-t-il seulement sur le marché des moniteurs qui sont capables d'afficher en 3 x 10 bits en 2 560 x 1 600 à 60Hz à partir de l'interface (dual) DVI ?
*mais je veux bien qu'on m'explique, bien sûr...

remyphoto75

Le DVI est une norme appelée à disparaitre. Il est probable que NEC ne fait qu'anticiper cela. Vas savoir, en tout cas pour répondre à ta question il suffit de lire mon message plus haut, sur un Dell U3011 c'est le cas. J'ai fait le test avec une GTX460 avec driver moddé qui ne dispose que d'une sortie DVI Dual Link et j'ai pu vérifié avec le fichier ramp fournit par Christophe Métairie que j'avais bien un affichage 10 bits.
http://www.cmp-color.fr/affichage_10_bits.html

Mais j'ai pu constaté qu'hormis DELL tous les autres fabricants orienté pro ont cessé pour la plupart de supporter le DVI. D'ailleurs la page wiki que j'ai cité le dit explicitement :
"In December 2010, Intel, AMD, and several computer and display manufacturers announced they would stop supporting DVI-I, VGA and LVDS-technologies from 2013/2015, and instead speed up adoption of DisplayPort and HDMI."

Verso92

Citation de: remyphoto75 le Décembre 09, 2013, 16:19:30
[...] en tout cas pour répondre à ta question il suffit de lire mon message plus haut, sur un Dell U3011 c'est le cas. J'ai fait le test avec une GTX460 avec driver moddé qui ne dispose que d'une sortie DVI Dual Link et j'ai pu vérifié avec le fichier ramp fournit par Christophe Métairie que j'avais bien un affichage 10 bits.

Bon, dans ce cas, cela signifie au moins que c'est que c'est possible* (comment, cela restera sans doute un mystère... cela doit sans doute être du bricolage astucieux).

*j'imagine que le Dell U3011 est un 30", dont la définition par défaut est 2 650 x 1 600 à 60Hz...

remyphoto75

Bricolage pas vraiment, il suffit de prendre le driver des Quadro et de modifier le fichier .inf pour que le driver accepte de s'installer sur une Geforce.
Et effectivement le U3011 est un 30" de définition 2 650 x 1 600  [at]  60Hz
J'avais fait le test parce que j'étais moi même pas sûr que le DVI dual link permette l'affichage 10 bits. Et c'était en attendant de commander une quadro.

Nikojorj

En tous cas, ça confirme bien un truc : pour savoir comment obtenir 10 bits par couleur de façon sûre avec un matériel donné, c'est le bordel.

Verso92

Citation de: remyphoto75 le Décembre 09, 2013, 16:34:56
Bricolage pas vraiment [...]

J'évoquais juste l'aspect "spécifications". En fonction de ce que j'ai cru comprendre de ma lecture de la norme à l'époque, le DVI est une interface organisée sur un bus de données de 3 x 8 bits.

Passer les deux bits supplémentaires est facile pour les faibles définitions (celles qui ne nécessite qu'un seul lien) : il suffit d'envoyer les deux bits supplémentaires sur le second lien. Pour les définitions monopolisant de fait les deux liens, il y a forcément une astuce... sans intérêt, bien sûr, à par en terme de curiosité intellectuelle...
Citation de: remyphoto75 le Décembre 09, 2013, 16:34:56
[...] il suffit de prendre le driver des Quadro et de modifier le fichier .inf pour que le driver accepte de s'installer sur une Geforce.

Peut-être existe-t-il une manip de ce genre pour forcer les ATI non Fire Pro a fonctionner en 3 x 10 bits ? une chose est sûre : par défaut, elles ne le veulent pas !

remyphoto75

Je m'étais renseigné à l'époque pour les ATI pour un ami et je n'ai pas trouvé d'astuce similaire.

Pour l'organisation du flux j'imagine que le 2eme link n'est pas dédié exclusivement à la transmission du surplus de pixels nécessaire à l'affichage mais qu'il y a de la place disponible pour envoyer les 2 bits supplémentaires.

[at] Nikojorj : ouais surtout que pour la photo, le gain n'est pas forcément perceptible.

Verso92

Citation de: Nikojorj le Décembre 09, 2013, 16:42:57
En tous cas, ça confirme bien un truc : pour savoir comment obtenir 10 bits par couleur de façon sûre avec un matériel donné, c'est le bordel.

Pour les Nec, c'est simple : avec les CG ATI, il faut juste choisir dans la gamme Fire Pro (vérifier, quand même, qu'il n'y ait pas d'exception) et connecter l'écran à la CG en DisplayPort.
Mébon, d'accord avec Rémy : difficile de voir vraiment une différence sur les photos, autrement qu'avec le fichier AMD spécialement dédié...

apn2436

Citation de: Verso92 le Décembre 09, 2013, 19:30:47
Pour les Nec, c'est simple : avec les CG ATI, il faut juste choisir dans la gamme Fire Pro (vérifier, quand même, qu'il n'y ait pas d'exception) et connecter l'écran à la CG en DisplayPort.
Mébon, d'accord avec Rémy : difficile de voir vraiment une différence sur les photos, autrement qu'avec le fichier AMD spécialement dédié...
Ouais ouais, le seul pb, c'est que les firepro plante l'openGL sous CC alors que cela marchait tres bien sous CS6.
Plein de photographe americain se ralent sur les forums americains... Ils sembleraient meme indique que les 3x10 bits ne soient pas
effectif sous CC avec les carte Firepro.

Et bien sur Adobe s'en fout royalement

Comme quoi, payer 12€ par mois pour un logiciel qui ne fonctionnent pas correctement est une escroquerie...

Verso92

Citation de: apn2436 le Décembre 12, 2013, 20:22:06

Ouais ouais, le seul pb, c'est que les firepro plante l'openGL sous CC alors que cela marchait tres bien sous CS6.
Plein de photographe americain se ralent sur les forums americains... Ils sembleraient meme indique que les 3x10 bits ne soient pas
effectif sous CC avec les carte Firepro.

Et bien sur Adobe s'en fout royalement

Comme quoi, payer 12€ par mois pour un logiciel qui ne fonctionnent pas correctement est une escroquerie...

Là, je ne saurais pas te dire : en ce qui me concerne, je suis sous CS6 Extended...
(les fourches caudines d'Adobe, j'apprécie moyennement...)