LR6 qu'elle est la meilleur carte graphique pour l'accélération GPU ???

Démarré par Bass man 94, Avril 23, 2015, 09:37:37

« précédent - suivant »

Bass man 94

Bonjour,

Je suis sur Hackintosh (merci de ne pas ré-ouvrir le débat... loool) et j'ai donc la possibilité d'améliorer les performances du module développement de LR6 avec une bonne carte graphique compatible Open GL 3.3 minimum.

J'ai actuellement une Radeon HD6870 avec 1 Go de RAM, est-elle suffisante pour LR6 ?

Sinon, quelle carte me conseillez vous en sachant que je ne joue pas (ça sera donc uniquement pour tirer le meilleur de LR6) ?

Merci d'avance  ;)

THG

un petit tour sur le site de Christophe Métairie qui propose des cartes graphiques non pas orientées jeu, mais production ?

Pascal, pourquoi un Hackintosh ???? (LOL)

J'espère que tu vas bien, depuis le temps ;-)

Bass man 94

Salut Gilles,

Je vais super bien et, même si je ne suis pas très bavard en ce moment, j'ai plein de bonnes choses dans ma vie (ma fille qui va avoir 5 ans bientôt, reprise de la musique, quelques projets photos motivants... bref, je m'éclate). Bien sur, je continue à lire tes articles sur ton blog et dans la presse.

A la question, pourquoi un Hack, simple. Mon MacPro 2006 que j'avais boosté en RAM, SSD, HDD rapide était mis à mal par les fichiers de mon D800e. Le nouveau MacPro se faisait attendre et j'avais besoin d'une machine réactive sur le moment. J'avais un budget de 5000 euros pour ma nouvelle machine de production et Apple ne proposait qu'un MacPro 2009 rebadgé 2011 (si ma mémoire est bonne pour les dates).

Je ne voulais pas investir dans ce "vieux" MacPro (car pas en Xéon de l'époque Sandy/Ivy Bridge) vendu au prix fort (trop fort). J'ai donc fait le choix de me monter un Hack équivalent à un iMac 2012 27" toutes options pour 1200€ (j'ai récupéré le SSD et HDD de mon MacPro) et de me prendre, en back up et pour avoir une machine mobile, un MBP 13" que j'ai gonflé à 16 Go de RAM avec un SSD en System et un HDD de 1 to à la place du DVD. Avec l'économie réalisée, je me suis offert un 27" Eizo neuf et deux 24" d'occasion (un horizontal et un vertical) plus une imprimante bureautique Canon et une Sonde xrite pro.

Puis est arrivé le "nouveau" MacPro en format poubelle et ça m'a conforté dans mon choix. Ce MacPro ne me correspond absolument pas car, un il coûte assez cher et deux, il aurait fallu que j'investisse dans un système Promise à 6 HDD pour le stockage. La facture aurait été d'environ 5500€ pour le MacPro (config médiane) + 2200€ pour le Promise + 300€ de câbles et autre clavier/souris. J'arrivais facilement à 8000€ SANS écrans (dans les 11.000€ avec écrans). 11.000€ pour une machine surdimensionnée pour mon utilisation photo/musique c'est too much pour moi.

Je m'en suis tiré pour 4500-5000€ pour mon Hack, mon MBP, mes trois Eizo avec sonde et mon imprimante et ça fait parfaitement le job. De plus c'est évolutif. Quand ma config commencera à ramer de trop (d'ici 3 ou 4 ans ?), il me suffira de changer la CM, la RAM, le Processeur et la CG (pour environ 800€) et je repars pour 4 à 6 années...

Honnêtement, mon Hack est super stable. Je suis passé de lion à mavericks en début d'année les doigts dans le nez (alors que j'avais galéré un peu à lors de la première installation pour paramétrer mon 3ème écran). Ca fait 2 ans et demi que tout roule et comme je ne pense pas changer mon D800e avant 4 ou 5 années, cette machine suivra sans problèmes. Et même encore mieux puisque LR s'améliore et devient de plus en plus rapide au fil du temps.

Sinon merci pour l'info, je vais regarder le site de Métairie ;)


Bass man 94

Christophe recommande la petite K620 ou la K2200 de chez nvidia.

- Comparatif de ma HD6870 vs K620 : http://gpu.userbenchmark.com/Compare/Nvidia-Quadro-K620-vs-AMD-HD-6870/2840vsm7744
- Comparatif de ma HD6870 vs K2200 : http://gpu.userbenchmark.com/Compare/Nvidia-Quadro-K2200-vs-AMD-HD-6870/2839vsm7744

Ma "vielle" HD6870 est largement meilleur que la K620 à 250€. Elle est un peu moins bonne que la K2200 à 600€. Bon, ces tests ne parlent pas d'Open GL donc je ne sais pas trop ce que ça vaut. Je continue mes recherches...

alains29

Citation de: Bass man 94 le Avril 23, 2015, 09:37:37

Sinon, quelle carte me conseillez vous en sachant que je ne joue pas (ça sera donc uniquement pour tirer le meilleur de LR6) ?

Merci d'avance  ;)
Je pense qu'il faut taper dans les cartes préconisées pour ton type de machine, sur le site de tonymacx86 tu trouveras des configs proches ou identiques à la tienne, avec des cartes qui fonctionnent correctement.
J'aurais dit de regarder dans la famille des nvidia. J'ai une GTX 760, 2Go et pour mon utilisation actuelle elle suffit amplement, elle n'est d'ailleurs pas très sollicitée a priori, je n'ai pas assez de recul avec la nouvelle LR6 pour confirmer. En tout cas, pas du tout sollicitée chez le voisin DXO, et c'est bien dommage.
6D mark II/7D/LX5

Bass man 94

Je suis justement en train de lire des topics sur Tonymarcx86  ;)

Je n'arrive pas à "situer" ma HD6870 par rapport à mon utilisation photo/musique. Je ne sais pas si elle est actuellement sous exploitée, si elle est juste homogène ou complètement insuffisante. On parle beaucoup de jeux mais peu de photo/musique.

Je sais encore moins estimer le gain que m'apporterait une GTX 760 ou une K2200 sur LR6 par rapport à ma HD6870.

Et c'est bien là mon interrogation  ???
Si c'est pour dépenser 500€ et n'avoir que 3 à 5% de perf en plus sur LR6, je garde mon actuelle CG. Si le module développement de LR6 devient alors 100% réactifs (pas de lag même avec un historique chargé) alors là oui, j'investi direct !!!

alains29

Regarde peut-être comment ta carte actuelle est sollicitée? HWMonitor te donnera des infos sur les capteurs, si la carte est sollicitée à hauteur de 30-40% c'est peut-être pas la peine d'en changer.
Il y a certainement des outils plus sophistiqués pour mesurer, dans la section mac ils pourront peut-être te renseigner davantage.  ;)
6D mark II/7D/LX5

Bass man 94


cali31

Le principal avantage des cartes proposées par Christophe Métairie, est l'affichage 10bits, non ?

http://www.cmp-color.fr/affichage_10_bits.html

geraldb

à condition d'avoir un moniteur affichant  10bits !
et ils ne sont pas donné...
Deux OM-1 MII +12/60-12/100-12/200-50/200+TC14/20 + Zuiko 9/18mm et 2.8/60mm + Petits fixes

Bass man 94

Exact !!!

Dans mon cas c'est plus une recherche de performance/rapidité du module développement qui m'interesse car sur 27", avec des fichiers de D800e et quelques lignes dans l'historique (surtout avec des outils gourmands en ressource de LR), ça peut prendre 2 à 10 seconde à m'afficher l'image finale.

J'espère que des tests apparaîtrons sur le web pour voir comment se comporte LR6 avec différentes CG (entrée, moyenne et haut de gamme). Ainsi nous sauront si le gain de rapidité est important ou non.

Cela se trouve qu'une carte d'entrée de gamme donnera un gain de 20% de rapidité, une moyen de gamme 25% et une haut de gamme 30% (peut de différence car mémoire mal exploitée). Dans ce cas précis, je resterai sur de l'entrée de gamme. Si la haute de gamme donne 80% de rapidité en plus, alors je ferais l'effort financier.

Je ne sais pas pourquoi mais je pense que c'est le premier cas de figure qui sera le bon, surtout quand je vois comment LR exploite peu/mal le multicores :(

geraldb

Mais la HD6870 vs K620 a l'air intéressante,
je pensais me diriger sur la PNY GeForce GTX 750 Ti
surtout à 170€...
Deux OM-1 MII +12/60-12/100-12/200-50/200+TC14/20 + Zuiko 9/18mm et 2.8/60mm + Petits fixes

Bass man 94

Ma HD6870 était une carte "moyen de gamme" quand je l'ai acheté (dans les 130€ de mémoire). Elle fonctionne plutôt bien avec mes trois écrans.

J'aimerais bien tester une CG "haut de gamme" pour voir si OSX, mes divers softs et surtout LR6 sont un peu, beaucoup, passionnément, à la folie... plus rapide, mais j'en ai pas sous la main...

geraldb

à partir du moment que l'activité logicielle fonctionne (3.3)
et 4.4 les CG que j'ai nommé, je ne sais pas si la vitesse
augmente beaucoup avec une CG "haut de gamme"
Deux OM-1 MII +12/60-12/100-12/200-50/200+TC14/20 + Zuiko 9/18mm et 2.8/60mm + Petits fixes

fiatlux

Citation de: Bass man 94 le Avril 23, 2015, 11:26:20
Christophe recommande la petite K620 ou la K2200 de chez nvidia.

Je suis très perplexe quant à l'avantage pratique d'une carte pro, surtout sur un Mac. Ça se justifie essentiellement pour des applis particulières avec drivers ad-hoc.

Sur Mac, la situation est assez différente suivant le type d'accélération utilisé:

- si l'application utilise CUDA (certaines applications Adobe mais pas Lr pour autant que je sache), une API nVidia propriétaire, tu n'as pas le choix: carte nVidia pour bénéficier de l'accélération;
- si l'application utilise OpenCL, une sur-couche standardisée au dessus des API propriétaires, tu peux choisir une carte AMD ou nVidia, en sachant que les cartes ATI (ou leurs pilotes OSX) sont souvent un peu mieux optimisées pour OpenCL;
- si l'application utilise OpenGL (comme Lr), tu peux aussi choisir une carti AMD ou nVidia, mais dans ce cas ce sont souvent les cartes nVidia qui semblent très légèrement mieux tirer leur épingle du jeu.

Chez nVidia, les récentes GTX970 et 980 sont très performantes et consomment assez peu. La GTX970 se contente d'un cordon d'alimentation 6 pins, considération importante dans un Mac Pro classique, moins dans un Hackintosh. Deux vieilleries encore très performantes en calcul (et abordables en occase) sont les GTX570 et 580, mais elles consomment sensiblement plus.

Chez AMD, les R9-275 et au-delà offre un excellent rapport perfs/prix en OpenCL, mais consomment (et chauffent) nettement plus. Perso j'ai une R9-280X (une mise à jour de l'HD7970) qui dépote en OpenCL (dans Capture One par exemple). Pas encore testé sour Lr.

Pour des tests de perfs de carte graphiques sous Mac, il y a l'excellent barefeats: http://barefeats.com/gtx980.html

Bass man 94


Assimba

Il est trop tôt pour trouver des comparatifs de l'apport des differentes cartes avec LR6/CC

En attendant, le GPU de la K620 est le même que celui de la GTX 750 ti mais bridé...

A moins d'avoir besoin des plus de la version pro, (10 bits? drivers plus stables?????) au même prix ou a peu près la seconde me parait un bon choix prix efficacité consommation (et on la trouve avec des refroidissments surdimensionnés assurant un bon silence)....

KonicaT4->600si->D7D->A850+A77

Zaphod

Au final il faut mettre à peu près combien dans une carte pour avoir une réelle amélioration ?
Est-ce qu'il existe des cartes intéressantes fanless ?

Bass man 94

J'ai installé LR6 hier soir et j'ai commencé a bossé dans le module développement.

Ma CG a été automatiquement activé et j'ai effectivement senti un petit mieux niveau rapidité.

Je dis "petit" car avant, sur de gros fichiers de D800e avec quelques outils (un filtre radial, un peu de pinceau, et retouche d'expo, contraste....) LR5 mettais 6 à 7 secondes à m'afficher la photo suivante sur laquelle j'ai synchronisé les paramètres de la photo précédente. LR6 met 4 à 5 secondes pour le même traitement.

Donc un léger mieux mais cela reste toujours trop lent pour moi. Je pense donc changer de CG en espérant que j'aurais un gain significatif de rapidité (moins de 3 secondes serait top).

J'attends donc les premières revues/tests de CG sur LR6 avec open GL pour choisir l'heureuse élue ;)

THG

Citation de: Bass man 94 le Avril 24, 2015, 09:00:37
J'ai installé LR6 hier soir et j'ai commencé a bossé dans le module développement.

Ma CG a été automatiquement activé et j'ai effectivement senti un petit mieux niveau rapidité.

Je dis "petit" car avant, sur de gros fichiers de D800e avec quelques outils (un filtre radial, un peu de pinceau, et retouche d'expo, contraste....) LR5 mettais 6 à 7 secondes à m'afficher la photo suivante sur laquelle j'ai synchronisé les paramètres de la photo précédente. LR6 met 4 à 5 secondes pour le même traitement.

Donc un léger mieux mais cela reste toujours trop lent pour moi. Je pense donc changer de CG en espérant que j'aurais un gain significatif de rapidité (moins de 3 secondes serait top).

J'attends donc les premières revues/tests de CG sur LR6 avec open GL pour choisir l'heureuse élue ;)

Pascal, l'accélération GPU, c'est plutôt pour la réactivité à l'affichage, une fois l'image chargée.

Bass man 94

Je comprends mieux alors :)

Effectivement il à un plus, non négligeable, de ce coté là.

Dommage que l'image reste toujours aussi lente à charger, j'ai 750 photos d'un gros mariage à travailler et devoir attendre 6 à 7 secondes pour passer à la suivante puis 3 à 4 secondes pour coller les paramètres (je synchronise les paramètres tant que je peux mais souvent, selon le type de photo, c'est copier/coller...) et pouvoir commencer à bosser, c'est long.

10 secondes x 750 photos = 125 minutes (soit un peu plus de 2h). C'est pas une paille  :(

Je cherche comment améliorer ça. J'ai déjà 16 Go de RAM, du SSD, un i7 bien rapide (pas exploité au maximum par OSX et LR6), faut voir si j'arrive à grappiller quelques secondes avec une carte graphique plus puissante...

;)

alains29

Je ne suis pas convaincu qu'une carte graphique plus puissante te fera gagner les quelques secondes que tu souhaites. Le logiciel ne l'exploite pas dans ce sens. Je pense qu'un remplacement de ton i7 par un xeon changerait la donne par contre.
6D mark II/7D/LX5

Bass man 94

C'est un peu ce que je crains aussi pour la CG  :(

Pour le Processeur, je suis pas convaincu car mon i7 n'est pas exploité complètement (maximum à 60% lors de très gros traitements et sous les 40% dans les traitements classiques). Je pense, peut être à tord, que LR ne gère pas super bien le multicores/mulititreading donc n'exploite pas, encore, toute la puissance des CPU.

Ma machine n'a que 2 ans donc je pense la garder encore un peu avant de l'upgrader, quand LR7 ou LR8 saura mieux gérer CPU muliticores + GPU, pour quelque chose de plus méchant...