Carte graphique pour PC en 2013

Démarré par jmlaf, Mai 17, 2013, 14:28:16

« précédent - suivant »

yaquinclic

Salut Verso,
C'est bien ce que pensais, a moins d'être graphiste et travailler avec des clients donc la couleur fait partie intégrant à la comme et reconnaissable de tous, ou faire de la repro d'œuvre d'art, je ne vois d'intérêt. Car pour moi afficer un rouge ferrari avec deux point de jaune de plus ou moins je ne verrais pas
donc ... Mais quelqu'un trouve ça utile qu'il me l'explique je suis curieux, vraiment.
A+ ;)

Nikojorj

Citation de: yaquinclic le Octobre 16, 2013, 23:53:00
Car pour moi afficer un rouge ferrari avec deux point de jaune de plus ou moins je ne verrais pas
donc ... Mais quelqu'un trouve ça utile qu'il me l'explique je suis curieux, vraiment.
C'est une question de tonalité ces 10bits, pas de couleur : ça n'aide pas vraiment à la précision des couleurs, juste à avoir des dégradés bien lisses.
Ca me semble, à moi aussi, un luxe dont on peut se passer.

remyphoto75

Citation de: SimCI le Octobre 16, 2013, 13:29:27
Il semble que sur les cartes recentes (GTX 660 etc) le firmware detecte le type de carte
en fonction d'un jeu de resistances (qui ne servent qu'a ca).
Je serais curieux de connaitre toute autre methode purement logicielle.
Un lien serait le bienvenu.
La méthode logiciel est vraiment très bête. Il suffit de télécharger le driver pour Quadro et le driver pour Geforce. Décompresser les driver dans des dossiers différents. Aller dans le dossier contenant le driver geforce décompresse et éditer le fichier nvidia.inf et rechercher les lignes concernant ton modèle de carte graphique. Il y a plusieurs lignes dans différentes sections si je me rappelle bien. Aller le dossier contenant le driver Quadro décompressé, éditer le ficher nvidia.inf et y coller dans les sections idoines les lignes pour faire reconnaître ta carte graphique. Et tu installes ensuite le driver Quadro modifié
Un lien expliquant plus en détail (mais en anglais) la procédure
http://forums.guru3d.com/showthread.php?t=377158
Si tu veux trouver un drivers tout prêt un recherche sur "nvidia quadro modded driver" devrait te donner quelques liens.

remyphoto75

Citation de: restoc le Octobre 15, 2013, 19:25:59
Et sous réserve qu'elles aient un connecteur displayport pour sortir le train 3*10 bits et donc l'écran aussi.
Le 3*10 bits ne nécessite pas de sortie DisplayPort, en Dual-DVI ça fonctionne très bien. Je peux en attester pour avoir fait le mod sur une GTX460 qui donne de meilleures perf que ma Quadro 4000 qui coûte pourtant 2 fois plus cher.

Nicolas Meunier

J'avais fait des recherches sur le sujet et donc pour LR aucun besoin d'une carte, pour CS6 ou CC une carte milieu de gamme dans les 200€ peut ammener un vrai plus, au delà c'est plutôt CaptureOne qui sait aller plus loin dans l'exploitation des cartes graphiques.
Les cartes pro en photo ne servent à rien c'est en effet plus pour la video ou la 3D.

Attention quand même tout bouge, et je rêve du moment où CC ira un peu plus loin dans la gestion OpenCL du flou de surface par exemple... là j'irais tout de suite chercher un Titan ou equivalent.

kochka

Qui aurait une idée de ce qu'il conviendrait avec Capture NX2, et un écran de 4mp?
J'ai une vieille Geforce 8800 GT
Technophile Père Siffleur

jolanisa

#31
Celle-ci fera très bien l'affaire http://www.grosbill.com/4-sapphire_ati_radeon_r7_260x_2g_gddr5_pci_e_dl_dvi_i_dl_dvi_d_hdmi_dp_oc-602715-informatique-_carte_graphique
Pour un PC récent c'est un choix cohérent et amplement suffisant pour une utilisation courante.
Mat du couloir

Nikojorj

Citation de: kochka le Octobre 22, 2013, 13:47:05
Qui aurait une idée de ce qu'il conviendrait avec Capture NX2, et un écran de 4mp?
J'ai une vieille Geforce 8800 GT
Une geforce 8800 GT, au hasard? ;)
Théoriquement, le 2560*1600 passe bien dessus, et même s'il y a déjà un peu de puissance de calcul dedans NX2 ne semble pas demander beaucoup au GPU.

kochka

Oui, elle y en montée depuis le début; mais n'y a-t-il pas mieux, pour NX2?
Technophile Père Siffleur

remyphoto75

Pour l'instant les applis sollicitant les GPU en photo ne sont limités qu'à quelques fonctionnalités assez marginales. Je pense que cela est en partie due à la manière dont les GPU font les calculs via OpenCL qui à été conçu à la base pour le rendu 3D.
Il faudra du temps avant que cela ne change et principalement l'investissement de Nvidia et AMD. Une vieille Geforce 8800GT fournit toujours plus de puissance de calcul que ce que les applis savent utiliser.

Nicolas Meunier

Des choses marginales comme l'affichage, le zoom et de zoom, tous les filtres flous, la fluidité, etc.. Sincerement même pour la simple fluidité de l'interface une bonne carte graphique s'impose. Zoomer et de zoomer ou scroller de manière fluide ans délai et sans saccade dans sa photo  et malheureusement les chip integrés sont encore un peu a la ramasse sur ce genre de chose.

Envoyé de mon Nexus 7 en utilisant Tapatalk

remyphoto75

Le zoom constant à la place du zoom par à coup auparavant est un luxe (comme tout luxe on s'y habitue vite) mais ça n'est pas à mon sens tellement important. Lorsque tous les filtres et effet de rendus seront complètement hardware là on verra un réel intérêt à avoir une CG performante.
Je pense qu'étant donné qu'il ne reste plus que 2 mois pour finir l'année 2013 il serait bien hasardeux d'acheter maintenant une carte graphique, alors qu'il serait mieux d'attendre que les soft exploitent vraiment les GPU pour pouvoir faire un choix en toute connaissance de cause.

restoc

Citation de: remyphoto75 le Octobre 17, 2013, 10:22:50
Le 3*10 bits ne nécessite pas de sortie DisplayPort, en Dual-DVI ça fonctionne très bien. Je peux en attester pour avoir fait le mod sur une GTX460 qui donne de meilleures perf que ma Quadro 4000 qui coûte pourtant 2 fois plus cher.


Vrai mais seulement jusqu'à 1920*1080 me semble t-il. Etant sur des écrans à plus haute definition seul le Display port répond à mon pb.

remyphoto75

Citation de: restoc le Octobre 25, 2013, 21:27:05
Vrai mais seulement jusqu'à 1920*1080 me semble t-il. Etant sur des écrans à plus haute definition seul le Display port répond à mon pb.
Il y a quoi qui n'est pas français quand je dis "ça fonctionne très bien" ??? Le DVI dual link supporte tout autant que le display port les hautes définitions. Je suis en 2560x1600 sur mon écran 30" connecté en DVI.
Je pense que tu confonds avec le hdmi qui lui est bien limité à 1920x1080 dans les normes actuelles.

Nicolas Meunier

Citation de: remyphoto75 le Octobre 25, 2013, 16:18:14
Le zoom constant à la place du zoom par à coup auparavant est un luxe (comme tout luxe on s'y habitue vite) mais ça n'est pas à mon sens tellement important.

Je serais incapable de tenir 4h devant un ordi a retoucher si a chaque fois que je me deplacer dans mon image j'avais des saccades. Bien plus qu'un confort, c'est aussi une efficacité. Je m'en suit rendu compte quand j'ai recu mon D800 et que j'avais un i5 avec une carte graphique très très light intégré... c'etait juste a se taper la tête contre les murs.

Si ca c'est du luxe, autant prendre un core i3, pas de SSD et un ecran 14 pouces, le reste c'est du luxe aussi ;)

remyphoto75

Pendant des années ça n'a jamais gêné personne le zoom par à coup. D'autant plus que beaucoup ne passent pas leur temps à zoomer/dézoomer donc ça n'est vraiment en rien un point si déterminant. Perdre du temps à attendre la barre de progression lorsqu'on applique un filtre ça par contre je trouve que c'est plus gênant. Enfin tu me diras ça dépend beaucoup des habitudes de chacun.
L'affichage via la carte graphique est géré pour tous les chip actuels même sur l'entrée de gamme. Donc, la question de prendre plus cher dans l'espoir éventuellement qu'une version ultérieure de PS/LR en tire parti a mon avis ne se pose pas. C'est un gaspillage sachant que le jour où PS/LR tireront pleinement partis des cartes graphiques, il y aura eut de nouvelles cartes qui en feront plus pour le même prix que les cartes actuelles.

Nicolas Meunier

Je retouche des photos de 36MP et malgré la bonne resolutions de mon 27pouces je dois quand même en permanance scoller quand je retouche a 100% et zoomer dezoomer pour faire des retouche tantot micro/tantot macro.

Il y a bien longtemps, mes photos ne faisait que 2,5 puis 3,4 puis 6 puis 8 puis 12MP et mes ordis sont montés en puissance et finalement il n'y avait pas d'accouts, le passage brusque de 12 à 36 a fait changer les choses.

A la maison j'ai un ordi sans carte graphique dédiée, un avec une carte à 70€ et un avec une carte à 200€. Sur mes fichiers le premier est vraiment pénible, le deuxieme c'est déjà un peu mieux sauf le filtre fluidité et les flous et le 3ième est vraiment mieux.

Je n'icite personne a acheter ajd une carte a 1000€ pour la photo, j'explique juste le sens de l'histoire.

Les nouveau MacPro par exemple visent à fond la carte biGPU de base.

remyphoto75

Les filtres tels que fluidité sont quand même vachement loin d'être les plus utilisés par la majorité des photographes.
Et avant je crois Photoshop CS4, le zoom/dezoom se faisait TOUJOURS par à-coup. Il n'y avait pas le système de zooming/dezooming fluide qui a été introduit avec CS4.
Sachant qu'entre une carte graphique d'entrée de gamme à 70 euros et une à 200 euros il y a plusieurs modèles intermédiaires qui peuvent convenir quasiment aussi bien que le modèle à 200 euros en l'état actuel des choses sur PS.
Plus que remettre en question l'utilité d'une carte graphique performante actuellement (tous dépends des besoins de tout un chacun). Je questionne plus la pertinence d'anticiper une future prise en charge des gpu par PS.
D'ici à ce que ce soit effectif une CG à 200 euros aura probablement été dépassé en terme de performance par une CG à 120 euros. En 2013, étant donné la prise en charge limitée des GPU par PS, je dirais qu'une carte graphique à 200 euros est un luxe inutile pour la majeure partie des gens. Par contre une carte graphique à 70 euros est un vrai plus par rapport au GPU intégré a la carte-mere.

Nicolas Meunier

Citation de: remyphoto75 le Novembre 12, 2013, 16:10:09
Les filtres tels que fluidité sont quand même vachement loin d'être les plus utilisés par la majorité des photographes.
Et avant je crois Photoshop CS4, le zoom/dezoom se faisait TOUJOURS par à-coup. Il n'y avait pas le système de zooming/dezooming fluide qui a été introduit avec CS4.
Sachant qu'entre une carte graphique d'entrée de gamme à 70 euros et une à 200 euros il y a plusieurs modèles intermédiaires qui peuvent convenir quasiment aussi bien que le modèle à 200 euros en l'état actuel des choses sur PS.
Plus que remettre en question l'utilité d'une carte graphique performante actuellement (tous dépends des besoins de tout un chacun). Je questionne plus la pertinence d'anticiper une future prise en charge des gpu par PS.
D'ici à ce que ce soit effectif une CG à 200 euros aura probablement été dépassé en terme de performance par une CG à 120 euros. En 2013, étant donné la prise en charge limitée des GPU par PS, je dirais qu'une carte graphique à 200 euros est un luxe inutile pour la majeure partie des gens. Par contre une carte graphique à 70 euros est un vrai plus par rapport au GPU intégré a la carte-mere.
Je suis desolé mais les tests montre un gain sensible sur CS6 déjà jusqu'au carte entre 150 et 250€, c'est après que ca ne bouge quasiment plus.
Utiliser une carte a 200 € c'est pas un pari sur l'avenir, c'est un gain dès ajd si on se sert beaucoup de CS6 ou CC.
Ca serait prendre une carte à 1000€ comme une Titan qui correspondrait à ce que tu decris.

Pour les citer les carte 7850/7870 d'ATI apportent encore un gain sensible et chez NVidia ce sont les 660/660ti.

Sinon si vous ne faite aucun flou, aucune fluidité, ne zoomez pas sur vos photos... vous faites quoi avec photoshop?

Enfin je n'aime pas qu'on tire tout le monde vers le bas et qu'on decrive "la plupart des gens"... Il n'y a pas deux cas identiques, on peut juste decrire notre besoin et comment on y repond.

C'est quoi un usage normal amateur? Moi amateur je faisais des photos de tennis pour le plaisir... jsuque 3000 par jours.
J'en connais ici qui assemble 10 vues de D800 et qui explosent leur 16Go de ram sans pb alors que c'est juste leurs photos de vacances. Madame Michu qui fait du jpeg avec son compact ans retouche, je ne pense pas qu'elle lise se forum.

Si tu relis ce que j'ai ecrit avant je dis que sans carte c'est nul avec une a 70 c'est mieux et à 200 c'est quasi le top... je ne dis nullement qu'en dessous de celle a 200 point de salut mais par contre NON celle a 200 a un vrai interet pour moi et retoucher une belle photo de studio ou un beau portrait sous photoshop n'est pas un besoin extraterrestre. A part lire un bench tu as essayé? Perso j'ai regardé le gain entre mon ancienne nvidia 7800 (ex très haut de gamme) et mon Ati 7870 et le gain n'est pas anodin du tout. la petite puce nvidia dédié de mon MBP elle est quasi intule et alors le chip intégré au proc est juste là pour la décoration.

Perso j'en suis a surveiller les update de CC (pas dans 10ans mais dans les 3 mois) pour savoir si desormais une 780Ti pourrait être utilise pour enfin utiliser le flou de surface.

remyphoto75

On a vraiment pas du lire les mêmes tests ou on ne les lit pas de la même manière mais justement tous les tests que j'ai lu mettent en avant que les cartes d'entrées de gammes se débrouille très bien face à des cartes graphiques valant 5 fois leur prix.
http://www.pugetsystems.com/labs/articles/Adobe-Photoshop-CS6-GPU-Acceleration-161/
Et je pense vraiment qu'un filtre comme le filtre de fluidité est loin très loin d'être un filtre très utilisé. Je veux bien que les photographes de mode ou beauté aiment s'en servir pour améliorer leurs images, pour les autres, ça n'a pas un gros intérêt.
Justement ton propos résumant l'utilisation de PS à flou, fluidité,zoom dézoom (qui au passage est supporté même sur les gpu intégrés pas besoin d'une carte à 200 euros pour ca) semble traduire de une vision uniquement centré sur ton utilisation personnelle.
Un photographe qui ne fait que du paysage par exemple, il n'aura aucun intérêt à investir dans une carte à 200 euros qui n'accélère que certaines fonctionnalités qu'il ne doit utiliser que très peu pour ne pas dire pas du tout.
Je le répète s'il s'agit de gagner 1 secondes sur une opération qui en prend 7 je peux comprendre à la rigueur l'intérêt. Si c'est pour gagner 1 secondes sur un traitement qui en prend 20, je doute que la plupart des gens y voient un réel gain. Mais les bench seront là pour le mettre en avant. Après il s'agit de savoir si on fait de la retouche ou du benchmark.

Nikojorj

Merci pour le lien Puget Systems, c'est une mine!
Et vu les systèmes qu'ils construisent, ils pourraient pourtant avoir intérêt à pousser à la course aux specs...

remyphoto75

Je trouve justement très honnête de leur part de montrer qu'une GTX650 à 80 euros est quasi aussi performante sous PS CS6 qu'une GTX680 à 350 euros. Si tu as des bench qui prouvent le contraire nicolas je suis preneur. Je te l'ai dit, j'ai parcouru une mine de bench et vraiment rien qui n'indique qu'une carte graphique à 80 euros ne suffit pas amplement pour tirer parti de CS6.

bencodrak

Affichage photo = 2D, n'importe quelle GPU même INTEL intégrée au processeur est suffisante, sauf dans les cas suivants :
+ écran de finition 2560 x ... => prise display Port obligatoire
+ écran sous 3x10 bits => carte NVDIA QUADRO ou équivalente prérequise
+ ensuite, selon les programmes (et les infos à ce sujet sont rares ... avis aux amateurs), le processeur de la carte graphique peut épauler les CPU via OPEN CL ou consorts.
Dans ce cas, inutile d'acquérir une carte graphique de prix supérieur à 160 €.
A contrario, toujours privilégier la mémoire vive (pas cher) jusqù à 16GB, les SSD pour le confort et des processeurs gamme I7 (45770) ou haut de gamme I5, selon budget.
Cela vous suffira pour être le photographe le plus heureux du monde !

remyphoto75

Le display port n'est qu'un port il n'est pas lié à la résolution. Erreur qu'on retrouve souvent sur ce forum et dont je me demande bien d'où ce mythe tiens son origine.
Pour info les hd graphics 5000/4600/4400 autorise une resolution max de 3840x2160 via display port mais 4k en hdmi (avec une fréquence chutant à 24hz).
Autrement quasi tous les gpu hd graphics sont capable d'afficher une résolution de 2560x1600 que ce soit via display port ou dvi. La limitation provient bien souvent de l'écran et non de la carte graphique.

Quand au 3x10 bits je l'ai déjà expliqué plus haut, il n'est pas réservé aux seules Quadro et FirePro, toutes les cartes graphiques nvidia (au moins j'ignore pour les amd) sont capables d'afficher 3x10 bits.

Rouquet

Le passage au D800 m'a contraint à remplacer ma machine.

Pour le moment , j'utilise uniquement la partie graphique d'un core I5 de dernière génération pour afficher sur un écran en 2560*1600. Quand je me sentirai limité , j'investirai dans une carte graphique.

Pour supporter de tel débit, j'ai été obligé de passer en display port. Ça aurait pu passer en double DVI mais la carte mère n'a pas de sortie double DVI (unique simple DVI sur la carte mère dont le débit est insuffisant). Ça aurait pu passer en HDMI (le débit est supporté par la carte mère) mais c'est  l'écran qui limite le débit HDMI. Bref, il faut que la carte mère et l'écran acceptent le haut  débit sur la même prise, dans mon cas seul de displayport était compatible des deux.

Mémoire vive : j'ai 8 Go et je n'utilise pas toute cette capacité, c'est un minimum mais  je ne suis pas sur que de passer à 16 Go change beaucoup les performances.

SSD : c'est 256 Go minimum pour bien en profiter.