quelle carte graphique en 2020

Démarré par meregigi, Février 16, 2020, 15:00:36

« précédent - suivant »

meregigi

bonjour

Selon le forum, il n 'était pas utile de disposer d'une carte puissante mais les derniers avis ont deux ans et lightroom et toshop ont évolué. Alors aujiurd'hui?

egtegt²

Ca dépend vraiment du logiciel. Par exemple j'ai testé avec DXO qui permet d'utiliser au choix la carte graphique ou le processeur pour les traitements batch, entre mon processeur, un I8 avec 4 cœurs et ma carte graphique une GXT1060, la différence est minime.

Donc pour DXO, j'aurais tendance à dire qu'une grosse carte graphique est intéressante si le processeur n'est pas très performant ou alors que la carte est vraiment une haut de gamme, sinon elle n'apporte pas grand chose.

Pour les autres logiciels, je ne peux pas dire.

jeandemi

Dans Mac OS-X 10.12 Sierra avec une GeForce (GTX760 ou 1050) ou dans 10.14 Mojave avec une Radeon RX580, et avec Capture One 11, la carte graphique ne sert que lors des exports. Il me semble ça a changé avec la v12, mais je ne peux pas le vérifier.
Mettre deux GeForce en SLI augmente la vitesse des exports, mais ne change rien à la vitesse quand on modifie les réglages. (Tout ça avec un Core i5-750, 4x2,66GHz)

Avec une paire de Xeon 6 cœurs 2,4GHz, ça va vite, avec ou sans utilisation de la carte graphique

Pomme

J'ai pu tester sous DxO deux CG une Nvidia Quadro P2000 (carte pro à 500/600€) et une Nvidia GTX 1650 (Carte entrée de gamme à 100€). Ma machine tourne sous Intel I7 6700K 4+4 cœurs à 4 Ghz + 16 Mo de mémoire vive sous windows 8.1.

Sur un traitement par lot usuel d'une centaine d'images NEF issues de mon D800 (smart lighting, contraste, distorsion, recadrage, correction de balance des blancs, anti bruit normal et un peu de Prime), le temps de calcul est pratiquement identique avec un léger avantage (10 % de temps de calcul en moins) pour la carte graphique GTX 1650.


egtegt²

Citation de: Pomme le Février 18, 2020, 23:52:20
J'ai pu tester sous DxO deux CG une Nvidia Quadro P2000 (carte pro à 500/600€) et une Nvidia GTX 1650 (Carte entrée de gamme à 100€). Ma machine tourne sous Intel I7 6700K 4+4 cœurs à 4 Ghz + 16 Mo de mémoire vive sous windows 8.1.

Sur un traitement par lot usuel d'une centaine d'images NEF issues de mon D800 (smart lighting, contraste, distorsion, recadrage, correction de balance des blancs, anti bruit normal et un peu de Prime), le temps de calcul est pratiquement identique avec un léger avantage (10 % de temps de calcul en moins) pour la carte graphique GTX 1650.
Par rapport à la carte Nvidia Quadro ou par rapport au processeur ?

Pomme

Citation de: egtegt² le Février 19, 2020, 10:00:06
Par rapport à la carte Nvidia Quadro ou par rapport au processeur ?

Le calcul est environ 10 % plus rapide avec mon système équipé de la GTX 1650 qu'avec la quadro p2000 (le reste inchangé hormis les pilotes de la CG évidemment). Je n'ai pas testé sans l'activation de la carte graphique.

egtegt²

Au vu de ta cartes, il est probable que ça serait plus rapide sans utiliser la carte, en tout cas si je me réfère à mes tests avec un processeur quasi identique au tiens et un GTX1060 un peu plus performante que ta GTX1650.

fabco

Les quadro pro sont faites pour afficher en 10bits contrairement au cg gamer.Encore faut il avoir le logiciel qui va bien.
Elles sont moins puissantes en calcul. 

Zaphod

Citation de: egtegt² le Février 20, 2020, 15:05:25
Au vu de ta cartes, il est probable que ça serait plus rapide sans utiliser la carte, en tout cas si je me réfère à mes tests avec un processeur quasi identique au tiens et un GTX1060 un peu plus performante que ta GTX1650.
Du coup vu le prix d'une carte graphique... globalement autant mettre un peu plus sur le processeur non ?

La question en fait serait combien faut-il mettre dans une CG pour un gain vraiment perceptible (style 30-40%) ?

Pomme

Citation de: egtegt² le Février 20, 2020, 15:05:25
Au vu de ta cartes, il est probable que ça serait plus rapide sans utiliser la carte, en tout cas si je me réfère à mes tests avec un processeur quasi identique au tiens et un GTX1060 un peu plus performante que ta GTX1650.

J'ai tendance à faire confiance à DxO qui teste la configuration à chaque initialisation du programme et qui indique si la CG n'est pas assez performante. Ceci dit, par curiosité j'essaierai sans trop tarder et te dirai le résultat. Après, il est évident que la puissance de calcul nécessaire dépend du type de traitement réalisé (eg antibruit classique ou prime) et que suivant les goûts de chacun, les contraintes imposées au système changent et qu'il est utile de réaliser ses propres tests pour travailler au mieux.

egtegt²

Citation de: Zaphod le Février 20, 2020, 18:26:54
Du coup vu le prix d'une carte graphique... globalement autant mettre un peu plus sur le processeur non ?

La question en fait serait combien faut-il mettre dans une CG pour un gain vraiment perceptible (style 30-40%) ?
C'est difficile à dire, je n'ai fait que test que pour ma configuration. Ce que je peux dire, c'est que pour avoir une carte significativement plus performante que la mienne (au moins +50% au vu des benchmarks), il faut mettre aux alentours de 500 € de plus. Et si j'avais pris un processeur 500 € plus cher, je pense qu'il aurait été environ 50% plus performant. Mais c'est juste sur le papier, il est possible que dans le cas précis de DXO, le gain avec une carte graphique très haut de gamme soit bien plus important, ou qu'il soit très faible.

Je sais ça ne nous avance pas beaucoup mais ma conclusion, c'est que si tu n'as pas besoin de bonne carte graphique par ailleurs, il est préférable de prendre un processeur plus puissant et une carte graphique plus basique, l'avantage du processeur étant qu'il apporte des gains de performances dans tous les domaines, la CG n'étant utile que pour l'export. D'après ce que j'ai compris, AMD fait d'excellents processeurs pour le traitement photo en ce moment.

Dans mon cas, le choix était différent car je l'utilise parfois pour jouer et également pour faire de la CAO 3D donc une bonne CG était indispensable.

Zaphod

Moi clairement le traitement photo est la seule chose qui demande des ressources sur mon PC...
En plus je me tape complètement du temps d'export (50% d'amélioration ça ne changera pas grand chose), c'est la réactivité des softs qui m'intéresse.

Pomme

Quelques essais :

DxO PhotoLab 1.2.2 :
38 images (NEF de D800) traités sans Prime (avec Prime seul le processeur travaille)
processeur seul : 310 s
processeur + GT 1650 : 177 s

Hélicon focus 7.6.1  (logiciel de stacking)
- benchmark intégré au logiciel
processeur seul : 98 M pixels/s
processeur + GT 1650 : 424 Mpixel/s
- stacking de 45 images (JPG de D800)
processeur seul : 35 s
processeur + GT 1650 : 10 s

Hulotphoto

Bonjour,
J'enviasse de remplacer ma GTX 1050TI par une quadro Pro 5000.
Pour du traitement photo (Adobe)

Sur un I7 7° génération et 32 Go de mémoire
Système et logiciel sur M2 512Go

cela a-t-il du sens ?
Merci

jeandemi

La 1050Ti est déjà bien performante.
Depuis que nVidia a débridé ses drivers pour que les GeForce aient également l'accès aux 10bits comme avec les Quadro, ces dernières sont moins "indispensables".
Je ne sais pas combien coûte la Pro 5000, mais probablement qu'une carte "gameur" te donnera plus de performances pour moins cher.
Capture One annonce qu'il vaut mieux se tourner vers une GeForce que vers une Quadro pour les performances, je ne sais pas si c'est la même chose chez Adobe

egtegt²

Je viens de faire un petit test sur mon PC : processeur Quad core Core I7 et carte RTX 2070 Super
Avec DXO et OpenCL activé : un jeu de 17 images en 1 minute 6 secondes (8 images simultanées)
Même jeu d'images mais juste avec le processeur : 1 minute et 20 secondes.

Donc en tout cas avec DXO, la différence ne justifie clairement pas d'acheter une carte chère.

Hulotphoto


Jean-Claude

Les logiciels photo que j'utilise Capture One et Phocus prétendent utiliser le GPU pour s'accélérer.

dans le meilleur des cas ils utilisent 5% du GPU de façon très ponctuelle, des temps courts et répétés pour les actualisations de prévisualisations pendant les traitements.

si les prévisu sont effectivement accélérées, le processus charge peu la carte graphique des nVidia GTX 1060 et 1070 sur mes machines.


restoc

Citation de: meregigi le Février 16, 2020, 15:00:36
bonjour

Selon le forum, il n 'était pas utile de disposer d'une carte puissante mais les derniers avis ont deux ans et lightroom et toshop ont évolué. Alors aujiurd'hui?

Le pb est de savoir quel est ton besoin : 10 images par semaine ou 10 heures par jour à faire de la retouche ? Quel définition d'écran un modeste 1920*1200 ou un 4 k et bientôt 6 ou 8 k.
Et ta prospective : Un changement de config en prévision  valable 3 ou 5 ans ou juste une petite mise à niveau ? Investissement dans les nouveaux logiciels basés sur l'IA ou pas ?

-Uniquement de la retouche de base de bonne qualité par ex comme avec un Photoshop/LR de 2020 ou les futures versions Adobe embarquant de l'IA pour des détourages rapides et sophistiqués. Adobe et Nvidia ont un coup d'avance en vue des prochaines édition de PS. Mais d'autres logiciles basés sur L'IA comme Topaz vont être compatibles car ils ont vraiment besoin de forte accélération pour être exploitable au delà d'une image de temps en temps.
-10 bits obligatoires en affichage avec l'écran qui va bien ou pas ?.

etc etc .

La seule chose commune avec les capteurs modernes riches en pixels est que 4 Giga de Ram sur la CG sont la garantie d'une bonne fluidité hors calculs. Aprés trés peu de logiciels et trés peu d'algos dans ces logiciels tirent vraiment profit des CUDA  Open Gl etc.

Pour un besoin de base hors 10 bits je dirai: privilégier 4 giga de Ram vidéo et une large gamme de définition plutôt que la puissance Gamer inutile en photo et surtout ... vérifier la bonne connectique avec son écran!

doppelganger

Citation de: Jean-Claude le Octobre 01, 2020, 19:43:42
Les logiciels photo que j'utilise Capture One et Phocus prétendent utiliser le GPU pour s'accélérer.

dans le meilleur des cas ils utilisent 5% du GPU de façon très ponctuelle, des temps courts et répétés pour les actualisations de prévisualisations pendant les traitements.

si les prévisu sont effectivement accélérées, le processus charge peu la carte graphique des nVidia GTX 1060 et 1070 sur mes machines.

Pour C1, Phase One ne fait pas que prétendre. C'est du concret.

Nikojorj

Pour Lightroom, par contre...
https://www.pugetsystems.com/labs/articles/Adobe-Lightroom-Classic---NVIDIA-GeForce-RTX-3080-3090-Performance-1893/
De grosses cartes genre GeForce3090 ne font guère mieux qu'un gros CPU seul (un i9 10900K quand même), et une petite carte genre RX5700 fait vraiment moins bien.

egtegt²

Citation de: restoc le Octobre 01, 2020, 19:55:52
Le pb est de savoir quel est ton besoin : 10 images par semaine ou 10 heures par jour à faire de la retouche ? Quel définition d'écran un modeste 1920*1200 ou un 4 k et bientôt 6 ou 8 k.
Et ta prospective : Un changement de config en prévision  valable 3 ou 5 ans ou juste une petite mise à niveau ? Investissement dans les nouveaux logiciels basés sur l'IA ou pas ?

-Uniquement de la retouche de base de bonne qualité par ex comme avec un Photoshop/LR de 2020 ou les futures versions Adobe embarquant de l'IA pour des détourages rapides et sophistiqués. Adobe et Nvidia ont un coup d'avance en vue des prochaines édition de PS. Mais d'autres logiciles basés sur L'IA comme Topaz vont être compatibles car ils ont vraiment besoin de forte accélération pour être exploitable au delà d'une image de temps en temps.
-10 bits obligatoires en affichage avec l'écran qui va bien ou pas ?.

etc etc .

La seule chose commune avec les capteurs modernes riches en pixels est que 4 Giga de Ram sur la CG sont la garantie d'une bonne fluidité hors calculs. Aprés trés peu de logiciels et trés peu d'algos dans ces logiciels tirent vraiment profit des CUDA  Open Gl etc.

Pour un besoin de base hors 10 bits je dirai: privilégier 4 giga de Ram vidéo et une large gamme de définition plutôt que la puissance Gamer inutile en photo et surtout ... vérifier la bonne connectique avec son écran!
Je ne suis pas persuadé que la mémoire vidéo serve à quelque chose pour le PT photo. Normalement elle sert surtout à stocker des textures pour les jeux.

jeandemi

En tout cas, C1 utilise jusqu'à environ 3GB de mémoire vidéo avec un écran 4K, sous Mac OS

Avec C1 v11 sous 10.12 Sierra, la carte graphique sert principalement lors des exports, mais avec 10.14 Mojave, la RX580 travaille également lors des ajustements, même avec un Xeon 8 cœurs (qui travaillent aussi)

egtegt²

C'est étonnant car c'est du 2D donc la carte graphique n'a besoin normalement que de deux fois la taille d'une image 4K en RAM, ce qui ne représente que 50 Mo environ. Et si tu utilises le CUDA, la carte a besoin de 2 ou 3 fois la taille d'une image, soit 300 Mo pour une image de D850 en 16 bits  donc 900 Mo au plus.

En tout cas, je n'arrive pas à imaginer à quel moment la carte graphique aurait besoin de 3 Go pour de la photographie.

doppelganger

Citation de: Nikojorj le Octobre 02, 2020, 09:18:49
Pour Lightroom, par contre...
https://www.pugetsystems.com/labs/articles/Adobe-Lightroom-Classic---NVIDIA-GeForce-RTX-3080-3090-Performance-1893/
De grosses cartes genre GeForce3090 ne font guère mieux qu'un gros CPU seul (un i9 10900K quand même), et une petite carte genre RX5700 fait vraiment moins bien.

L'accélération graphique est arrivée dans Lr 6. Enfin, arrivée... l'option était là mais en aucun cas fonctionnel...

Nikojorj

Citation de: doppelganger le Octobre 02, 2020, 17:56:16
L'accélération graphique est arrivée dans Lr 6. Enfin, arrivée... l'option était là mais en aucun cas fonctionnel...
Le test porte sur la dernière version de LR Classic, et avec un CPU plus ordinaire le GPU aide un peu plus.

jeandemi

Citation de: egtegt² le Octobre 02, 2020, 13:51:33
C'est étonnant car c'est du 2D donc la carte graphique n'a besoin normalement que de deux fois la taille d'une image 4K en RAM, ce qui ne représente que 50 Mo environ. Et si tu utilises le CUDA, la carte a besoin de 2 ou 3 fois la taille d'une image, soit 300 Mo pour une image de D850 en 16 bits  donc 900 Mo au plus.

En tout cas, je n'arrive pas à imaginer à quel moment la carte graphique aurait besoin de 3 Go pour de la photographie.
Peut-être pour faire tourner le logiciel de traitement ?
Comme la RAM d'un PC qui sert lorsque c'est le CPU qui travaille, la VRAM sert quand c'est le GPU qui bosse

egtegt²

Citation de: jeandemi le Octobre 03, 2020, 08:26:11
Peut-être pour faire tourner le logiciel de traitement ?
Comme la RAM d'un PC qui sert lorsque c'est le CPU qui travaille, la VRAM sert quand c'est le GPU qui bosse
Possible, mais je reste étonné ;) Je viens de tester rapidement avec DXO, quand je lance un traitement la mémoire de la carte passe à 2,1 Go pour retomber à 1,6 Go quand le traitement est terminé, et 0,9 Go quand je quitte DXO. C'est plus cohérent avec les valeurs auxquelles je m'attendrais.

Pour info, dans mes calculs, j'avais pris en compte l'espace pris par le logiciel de traitement, c'est pour ça que je comptais 2 ou 3 fois la taille de l'image : l'original, une version modifiée par calcul, et encore une troisième parce que je connais les développeurs et qu'ils sont incapables d'économiser de la RAM :)

faut croire que les développeurs Capture One sont encore plus mauvais que ce que je pensais  ::)

doppelganger

#28
Citation de: egtegt² le Octobre 04, 2020, 00:56:46
Possible, mais je reste étonné ;) Je viens de tester rapidement avec DXO, quand je lance un traitement la mémoire de la carte passe à 2,1 Go pour retomber à 1,6 Go quand le traitement est terminé, et 0,9 Go quand je quitte DXO. C'est plus cohérent avec les valeurs auxquelles je m'attendrais.

DxO n'utilise pas la carte graphique en direct.

Citation de: egtegt² le Octobre 04, 2020, 00:56:46
Pour info, dans mes calculs, j'avais pris en compte l'espace pris par le logiciel de traitement, c'est pour ça que je comptais 2 ou 3 fois la taille de l'image : l'original, une version modifiée par calcul, et encore une troisième parce que je connais les développeurs et qu'ils sont incapables d'économiser de la RAM :)

faut croire que les développeurs Capture One sont encore plus mauvais que ce que je pensais  ::)

Je t'invite à te renseigner sur l'accélération matériel et OpenCL, mais également sur le matériel informatique en règle générale. Cela nous évitera peut-être ce genre d'absurdité.

En tout cas, les "mauvais" me permettent de post-traiter de manière fluide et ce, même avec un modeste core i5 vieux de 8 ans et ses malheureux 8 Go de RAM.Chose impossible avec les "balèzes" de chez DxO.

egtegt²

Citation de: doppelganger le Octobre 04, 2020, 14:53:04
DxO n'utilise pas la carte graphique en direct.
Il l'utilise pour le post traitement, c'est ce que j'ai testé.
Citation de: doppelganger le Octobre 04, 2020, 14:53:04
Je t'invite à te renseigner sur l'accélération matériel et OpenCL, mais également sur le matériel informatique en règle générale. Cela nous évitera peut-être ce genre d'absurdité.

En tout cas, les "mauvais" me permettent de post-traiter de manière fluide et ce, même avec un modeste core i5 vieux de 8 ans et ses malheureux 8 Go de RAM.Chose impossible avec les "balèzes" de chez DxO.
Tu n'es pas obligé de me prendre de gaut ;). Mon hobby est de faire des images de synthèse avec Blender, autant te dire que je m'intéresse à l'accélération matériel (pourquoi crois-tu que j'ai une RTX 2070 ?). Il n'y a pas qu'OpenCL d'ailleurs, il y a aussi Cuda et depuis peu Optix.
Et ma remarque était ironique, je ne connais que très peu Capture One et encore moins ses développeurs. Cela dit, les développeurs qui optimisent l'utilisation de la mémoire ou du processeur de leur logiciel sont devenus une denrée rare.

Visiblement ceux de capture One ont plutôt optimisé les performances au détriment de la mémoire, ceux de DXO ont apparemment fait l'inverse, ce qui est pire, je te l'accorde :)

doppelganger

Au risque de me répéter, DxO n'exploite pas la carte graphique en direct. C'est pas compliqué que ça. Suffit de voir les prières performances.

Le fait même qu'il n'utilise pas la puissance de calcul dans son traitement "prime" est navrant.

De plus, le fait que l'un utilise plus de mémoire que l'autre ne change rien. La mémoire est là, disponible, elle est alors utilisée, vraisemblablement pour des raisons de traitements en parallèle. Le traitement est fini, la mémoire est libérée et tout va bien.

Jean-Claude

Pourquoi les gens veulent-ils absolument mettre dos à dos CPU et GPU dans les traitements alors que chacun est utilisé pour son domaine d'excellence en complémentarité:

- calculs lourds peu nombreux et séquenciels
- calcules simples très nombreux en parallèle


Johan30

je raporte une info sur les cartes graphiques Nvidia sur leur site ils annonce les cartes compatible en 10 bit  c est bon a savoir  ;)

NVIDIA TITAN Series:

NVIDIA TITAN RTX, NVIDIA TITAN V, NVIDIA TITAN Xp, NVIDIA TITAN X (Pascal)

GeForce RTX 20 Series:
GeForce RTX 2080 Ti, GeForce RTX 2080 SUPER, GeForce RTX 2080, GeForce RTX 2070 SUPER, GeForce RTX 2070, GeForce RTX 2060 SUPER, GeForce RTX 2060

GeForce 16 Series:
GeForce GTX 1660 Ti, GeForce GTX 1660, GeForce GTX 1650

GeForce 10 Series:
GeForce GTX 1080 Ti, GeForce GTX 1080, GeForce GTX 1070 Ti, GeForce GTX 1070, GeForce GTX 1060, GeForce GTX 1050 Ti, GeForce GTX 1050

egtegt²

J'ai testé de passer en 10 bits sur mon PC, franchement s'il y a une différence, il faut regarder de près.

fabco

le 10 bits ne fonctionne que sous ps et encore il faut le configurer pour.

Normalement il y a une légère différence.

fabco

Citation de: Johan30 le Octobre 26, 2020, 19:01:53
je raporte une info sur les cartes graphiques Nvidia sur leur site ils annonce les cartes compatible en 10 bit  c est bon a savoir  ;)

NVIDIA TITAN Series:

NVIDIA TITAN RTX, NVIDIA TITAN V, NVIDIA TITAN Xp, NVIDIA TITAN X (Pascal)

GeForce RTX 20 Series:
GeForce RTX 2080 Ti, GeForce RTX 2080 SUPER, GeForce RTX 2080, GeForce RTX 2070 SUPER, GeForce RTX 2070, GeForce RTX 2060 SUPER, GeForce RTX 2060

GeForce 16 Series:
GeForce GTX 1660 Ti, GeForce GTX 1660, GeForce GTX 1650

GeForce 10 Series:
GeForce GTX 1080 Ti, GeForce GTX 1080, GeForce GTX 1070 Ti, GeForce GTX 1070, GeForce GTX 1060, GeForce GTX 1050 Ti, GeForce GTX 1050

C'est bizarre normalement ce n'est que la gamme pro.

Ou alors il faut des drivers spécifiques.

jeandemi

Citation de: fabco le Octobre 27, 2020, 09:38:09
C'est bizarre normalement ce n'est que la gamme pro.

Ou alors il faut des drivers spécifiques.
non, ils ont "ouvert" ça sur les cartes "grand public" à partir des séries 10x0 avec les derniers drivers

egtegt²

Citation de: Stepbystep le Octobre 27, 2020, 18:15:35
Pas sûr que l'œil humain soit suffisamment discriminant.
C'est ce que je voulais dire. En fait il peut l'être, mais pas sur des photographies, sur des dégradés de couleurs unies par exemple. Pour moi les 10 bits sont surtout intéressants pour les graphistes, pas pour les photographes.

Jean-Claude

Citation de: doppelganger le Octobre 01, 2020, 22:58:19
Pour C1, Phase One ne fait pas que prétendre. C'est du concret.

Ben pour le moment le concret reste toujours très faible quand on voit que les CPU même performantes sont très souvent chargées à 100% de longues minutes là ou la GPU de capacité moyenne n'est sollicitée que sporadiquement à une fraction de ses capacités.

C'est toujours ça pour délester un peu les CPU très chargées par nos RAW 16bit de 5o Mpix et plus.
on en reparlera dans 4 ou 5 ans après les progrès matériels et logiciels qui arriveront forcément  :)

Ce qui est sûr c'est qu'aujourd'hui il ne sert à rien en photographie d'acheter la carte graphique ultime de la mort qui tue qui fait baver les gamers.

egtegt²

Citation de: Jean-Claude le Octobre 31, 2020, 09:17:37
[...]
Ce qui est sûr c'est qu'aujourd'hui il ne sert à rien en photographie d'acheter la carte graphique ultime de la mort qui tue qui fait baver les gamers.
Ca vient juste de changer avec DPL et la nouvelle version de Prime (DeepPrime). Avec une bonne carte graphique, les temps de calcul par rapport à Prime peuvent être divisés par 4 ou 5 pour un résultat meilleur.

doppelganger

Citation de: Jean-Claude le Octobre 31, 2020, 09:17:37
Ben pour le moment le concret reste toujours très faible quand on voit que les CPU même performantes sont très souvent chargées à 100% de longues minutes là ou la GPU de capacité moyenne n'est sollicitée que sporadiquement à une fraction de ses capacités.

C'est toujours ça pour délester un peu les CPU très chargées par nos RAW 16bit de 5o Mpix et plus.
on en reparlera dans 4 ou 5 ans après les progrès matériels et logiciels qui arriveront forcément  :)

Ce qui est sûr c'est qu'aujourd'hui il ne sert à rien en photographie d'acheter la carte graphique ultime de la mort qui tue qui fait baver les gamers.

Je ne sais pas si tu sais de quoi tu parles. En attendant, je n'ai aucun problème de charge CPU avec C1. Ma carte graphique fait le job. (cf. mes captures d'écran page précédente)

nickos_fr

Citation de: doppelganger le Octobre 05, 2020, 10:36:08
Au risque de me répéter, DxO n'exploite pas la carte graphique en direct. C'est pas compliqué que ça. Suffit de voir les prières performances.

Le fait même qu'il n'utilise pas la puissance de calcul dans son traitement "prime" est navrant.

De plus, le fait que l'un utilise plus de mémoire que l'autre ne change rien. La mémoire est là, disponible, elle est alors utilisée, vraisemblablement pour des raisons de traitements en parallèle. Le traitement est fini, la mémoire est libérée et tout va bien.

avec deep prime il me semble que si car selon que la cg soit prise en compte ou non il y a une sacrée différence

nickos_fr

Perso histoire d'être tranquille qq année je tablerai sur une GeForce RTX 20 Series:

fabco

Depuis que dxo utilise le gpu les traitements sont plus rapides.Cela date de la version 6.Actuellement j'utilise un i5 750 depuis plus de 10 ans.Et grâce à l'utilisation du gpu pour certaines fonctions, le temps de traitement est divisé par 4.

Dire qu'il ne faut pas une grosse cg n'est pas réaliste.

Et avec DeepPrime cela se confirme.Ma cg n'est plus compatible, le traitement est devenu beaucoup plus long sauf avec HQ grâce à la cg et à OpenCl.


restoc

Pour  sentir une accélération GPU faut-il encore soit que la CPU soit peu puissante ou bien que l'architecture de la carte mère soit un goulot d'étranglement ( chipset) ou bien encore que la carte graphique soit beaucoup plus puissante et qu'on est les bonnes couches ( OpenGl et Cl) les bons drivers. Bref çà fait bp de combinaisons et donc de ressentis divers et variés.

Ainsi avec un Core I7 montant à 4 Ghz ( et 80 ° C !) avec 4 cœurs, une CG puissante comme la Nvidia Quadro 4000 n'offre que peu de bénéfices sur les traitements compatibles Open cl et la quadro 2000 elle ne rivalise même pas avec la CPU. Celà n'a d'ailleurs d'intérêt que pour de grosses images supérieures à 24 Mpix par exemple. Si on bosse sur des crops de 8 ou 12 Mpix inutile de se préoccuper d'une CG de course si on a une bonne CPU . Là encore les temps de calculs croissent avec le carré du nb de pixels, le nb de couches, le nb  de masques ou de Upoints  etc etc.

Ensuite la différence va se faire ( dans le futur proche) avec les cartes graphiques  embarquant des processeurs et logiciels adaptés à l'IA comme Nvidia commence à en sortir ( à prix d'or). Mais ce ne sera utile que pour les logiciels ou traitements basés eux même sur le Deep Learning ( Topaz, qqs algos dans PS 2021 et peut être DXO Deep Prime s'il a été codé pour être conforme aux standard Nvidia).

Mais pour ne faire que régler contraste luminosité ou balance des blancs,  un peu de débruitage et qqs masques çà n'aura strictement aucun intérêt de viser les CG embarquant de l'IA évidemment.
Bref on trouvera tous les avis du genre .... "avec mon Pentium des années 2000  le sors un jpeg en 3 secondes" ... certes avec une image web çà le fait.
Mais traiter un lot de 200 photos de 45 Mpix  en débruitage et re-focus avec Topaz çà devrait atteindre un mois de calcul et en tout cas cramer le processeur avant . ;D ;D

Autrement dit on va lire tout et son contraire pendant un bout de temps avec les nouvelles tendances à l'IA .. ou pas !


egtegt²

Il n'y a pas que l'IA, les cartes graphiques ont une particularité : elles permettent de faire des traitements parallèles énormément plus vite qu'un processeur. La contrepartie est qu'elles sont très limitées dans les fonctions sur chaque traitement. Mais par exemple si tu essayes de faire faire des calculs graphiques à un processeur, il est des centaines de fois plus lent qu'une bonne carte graphique.

Pour moi la principale limite actuelle, ce sont les algorithmes capables de tirer parti de cette puissance de calcul. L'IA en est un exemple, par exemple avec DPL et DeepPrime qui est censé utiliser l'IA et la puissance des cartes graphiques, je constate un gain en temps de calcul de l'ordre de 10 par rapport à Prime auparavant.

Je m'amuse également à faire des images de synthèse avec Blender, là la différence est énorme : une RTX3090 est 2 fois plus rapide que le plus rapide des processeurs actuels (un AMD Threadripper avec 64 coeurs)

Donc à mon avis, il faut s'attendre à d'énormes progrès dans ce sens.

Par contre, j'ai remarqué une chose : quand je lance un traitement avec la carte graphique, mon PC devient quasi inutilisable pour faire du PT en même temps car la carte graphique est saturée par les traitements, alors que si je le lance sur la CPU, ça reste plus utilisable. Le comportement s'est inversé depuis la dernière version. Auparavant, comme il utilisait mal la CG, l'utiliser pour faire les traitements soulageait le processeur sans pour autant saturer la CG.

Jean-Claude

Je ne sais pas de quoi je parle ?

je parle de traitements de tous les jours dans les logiciels Phocus, Capture One, Affinity de fichiers RAW 50 Mpix et plus en 16 bit.
Le moniteur de ressource Windows donne des charges de CPU i7 assez puissant à 100% dans les longs batches d'exports, et des CGU de cartes de puissances moyennes jamais chargées à plus de 10% et que de façons courtes et sporadiques.

Si quelqu'un à fait dans ces conditions une expérience inverse, je suis preneur des explications  :)

nickos_fr

Citation de: Jean-Claude le Novembre 03, 2020, 17:06:28
Je ne sais pas de quoi je parle ?

je parle de traitements de tous les jours dans les logiciels Phocus, Capture One, Affinity de fichiers RAW 50 Mpix et plus en 16 bit.
Le moniteur de ressource Windows donne des charges de CPU i7 assez puissant à 100% dans les longs batches d'exports, et des CGU de cartes de puissances moyennes jamais chargées à plus de 10% et que de façons courtes et sporadiques.

Si quelqu'un à fait dans ces conditions une expérience inverse, je suis preneur des explications  :)
ce n'est pas parce que votre pratique est tel que c'est aussi le traitement de tout les jours des autres ;)
j'ai plusieurs connaissance qui font quasiment que des photos de soirée ou en basse lumière qui passent maintenant tout en deep prime, et si demain ils ont envie  se diriger vers des encodages vidéo plus que la photo ou si l'IA devient de plus en plus présente dans les process ils seront paré.
Ensuite que pour Votre pratique vous n'en ayez pas l'utilité c'est tant mieux. mais comprenez que tout le monde n'a pas forcément la même pratique.

egtegt²

Citation de: Jean-Claude le Novembre 03, 2020, 17:06:28
Je ne sais pas de quoi je parle ?

je parle de traitements de tous les jours dans les logiciels Phocus, Capture One, Affinity de fichiers RAW 50 Mpix et plus en 16 bit.
Le moniteur de ressource Windows donne des charges de CPU i7 assez puissant à 100% dans les longs batches d'exports, et des CGU de cartes de puissances moyennes jamais chargées à plus de 10% et que de façons courtes et sporadiques.

Si quelqu'un à fait dans ces conditions une expérience inverse, je suis preneur des explications  :)
Ben j'ai fait l'expérience exactement inverse avec DPL4 et DeepPrime.

En fait dans ton message précédent tu généralisais sur tous les logiciels et toutes les cartes graphiques alors qu'en fait, tu n'utilises que 3 logiciels avec une Carte Graphique particulière.

Et pour information, ton test ne vaut pas grand chose. Sur Blender, si je lance un calcul avec la CG, elle est assez peu utilisée (moins de 20%) et pourtant le calcul va 4 ou 5 fois plus vite que si je le lance uniquement sur le processeur.

Mais surtout, tu ne peux pas généraliser à partir d'une configuration matérielle et de 3 logiciels, dont Affinity que j'utilise et qui n'est pas prévu pour utiliser la CG pour autant que je sache. Donc en gros tu as testé sur 2 configurations, et tu penses que c'est représentatif des centaines de configurations possibles  ::)

Si tu veux une explication, elle est très simple : l'utilisation des cartes graphiques est très différente des calculs sur processeur
- Un processeur a essentiellement peu d'unités de traitement (les plus gros ont 64 coeurs avec 4 threads, ce qui donne 256 traitements parallèles, et je parle de processeurs à plusieurs milliers d'euros, un processeur lambda a en général aux alentours de 8 ou 16 unités de traitement) mais ces unités de traitement sont puissantes
- Une carte graphique au contraire a énormément d'unités de traitement parallèles (couramment quelques milliers), mais chaque unité de traitement est peu performante comparé au processeur

Donc pour utiliser une carte graphique efficacement, il faut modifier le programme pour qu'il puisse utiliser ce parallélisme de façon efficace. C'est complexe et long, et souvent impossible. En général le traitement d'image s'y prête assez bien car on peut souvent traiter une partie indépendamment du reste de l'image, mais ça n'est pas simple pour autant.

Et comme ces technologies massivement parallèles sont somme toute assez récentes dans du matériel grand public, les éditeurs n'ont en général pas encore investi vraiment pour les utiliser, ça arrive petit à petit avec par exemple DeepPrime, mais ça va demander du temps.

jurassic

Juste pour apporter des données :

Sur mon PC avec un proc' Intel i7-6700K + 16 Go de RAM sous Windows 7 64 bits, je viens d'installer une carte AMD Radeon Pro WX 4100 (16 coeurs, 4 Go de VRAM).
Sous Capture One, un lot de 42 photos RAW de 24 Mo chacune, le développement jpeg donne ceci :
sans la carte graphique : 3 min 32 s.
avec la carte graphique : 1 min 8 s.
Je trouve çà plutôt intéressant, cela m'évite une mise à jour complète (et chère) de mon système
(il faudrait changer au minimum processeur + Carte-mère + RAM + OS).
A7rc

doppelganger

Citation de: Jean-Claude le Novembre 03, 2020, 17:06:28
Je ne sais pas de quoi je parle ?

je parle de traitements de tous les jours dans les logiciels Phocus, Capture One, Affinity de fichiers RAW 50 Mpix et plus en 16 bit.
Le moniteur de ressource Windows donne des charges de CPU i7 assez puissant à 100% dans les longs batches d'exports, et des CGU de cartes de puissances moyennes jamais chargées à plus de 10% et que de façons courtes et sporadiques.

Si quelqu'un à fait dans ces conditions une expérience inverse, je suis preneur des explications  :)

Post #19, avec illustrations à l'appui : https://www.chassimages.com/forum/index.php/topic,304809.msg7735208.html#msg7735208

doppelganger

#51
Citation de: jurassic le Novembre 09, 2020, 17:18:34
Juste pour apporter des données :

Sur mon PC avec un proc' Intel i7-6700K + 16 Go de RAM sous Windows 7 64 bits, je viens d'installer une carte AMD Radeon Pro WX 4100 (16 coeurs, 4 Go de VRAM).
Sous Capture One, un lot de 42 photos RAW de 24 Mo chacune, le développement jpeg donne ceci :
sans la carte graphique : 3 min 32 s.
avec la carte graphique : 1 min 8 s.
Je trouve çà plutôt intéressant, cela m'évite une mise à jour complète (et chère) de mon système
(il faudrait changer au minimum processeur + Carte-mère + RAM + OS).

Tu ne gagneras rien de significatif. Tu perdras simplement plusieurs centaines d'euros.

Je viens de faire un test. Core i5 2500k, 16 Go de RAM. GeForce GTX 1050 Ti (4 Go de RAM). Pour 48 fichiers raw de 51 Mpix convertis en jpeg pleine def' :

Avec l'accélération matériel : 3 min 24 s
Sans accélération matériel : 12 min 30 s

.

Le même test avec 48 raw de 16 Mpix :

Avec l'accélération matériel : 56 s
Sans accélération matériel : 2 min 42 s

Durant tout ce temps, le taux d'occupation de la RAM système est resté constant (9 Go d'utilisés).

Jean-Claude

Encore un fil au dialogue impossible  :(

Je dis clairement qu'avec C1 et Phocus d'énormes capacités graphiques ne servent à ce jour strictement à rien et voici quelques experts qui prétendent que je n'y connais rien, que je raconte n'importe quoi car DXO Prime demande de grosses ressources de CG.

Je ne suis pas utilisateur de DxO et ne le serai jamais, et je n'ai jamais communiqué sur DxO es-ce clair ?

Avec les toutes dernières mises à jour de C1, Phocus, Affinity ma CG modeste NVidia GTX 1070, utilise sporadiquement pendant 1s ou 2s 20%,de capacités CG, plus qu'avant mais avec encore énormément de réserves, à l'inverse la CPU i7 déjà assez costaud est à 100% en continu durant 5 secondes à chaque export d'image, une CPU bien plus performante decra faxilement permettre de descendre le temps d'export de 40% vers 3s, intéressant pour de gros lots d'exports.

jeandemi

Citation de: Jean-Claude le Décembre 26, 2020, 07:35:54
ma CG modeste NVidia GTX 1070
qu'est-ce qu'il ne faut pas lire. la 1070 n'est certes pas de la dernière génération, mais c'est quand-même une carte qui coûtait environ 450€ neuve...

doppelganger

Citation de: jeandemi le Décembre 26, 2020, 20:49:03
qu'est-ce qu'il ne faut pas lire. la 1070 n'est certes pas de la dernière génération, mais c'est quand-même une carte qui coûtait environ 450€ neuve...

Plus que ça même, quand c'était le top du top.

doppelganger

#55
Citation de: Jean-Claude le Décembre 26, 2020, 07:35:54
Encore un fil au dialogue impossible  :(

Je dis clairement qu'avec C1 et Phocus d'énormes capacités graphiques ne servent à ce jour strictement à rien et voici quelques experts qui prétendent que je n'y connais rien, que je raconte n'importe quoi car DXO Prime demande de grosses ressources de CG.

Je ne suis pas utilisateur de DxO et ne le serai jamais, et je n'ai jamais communiqué sur DxO es-ce clair ?

Avec les toutes dernières mises à jour de C1, Phocus, Affinity ma CG modeste NVidia GTX 1070, utilise sporadiquement pendant 1s ou 2s 20%,de capacités CG, plus qu'avant mais avec encore énormément de réserves, à l'inverse la CPU i7 déjà assez costaud est à 100% en continu durant 5 secondes à chaque export d'image, une CPU bien plus performante decra faxilement permettre de descendre le temps d'export de 40% vers 3s, intéressant pour de gros lots d'exports.

Je ne parle que de C1 et bien que je ne sais pas comment tu constates ce que tu dis, je veux bien te laisser le bénéfice du doute. Il se peut, qu'en fonction de ta config, la carte graphique ne soit pas exploitée de la même manière que sur une autre config, comme la mienne, par exemple. Il suffit d'avoir un CPU de compétition et un GPU un peu flemmard pour que le rapport de puissance s'inverse. Je dis ça, j'en sais rien en ce qui concerne C1.

Je vais te renvoyer une nouvelle fois à mon message : #19. Je te répondais à toi et tu n'as pas réagit (enfin si mais bon...). Tu t'es entêté dans tes discours et je t'ai renvoyé à ce même message. Et encore une fois, tu persistes à faire la sourde oreille. Je vais donc, en plus de l'illustrer, l'expliquer. La 1ère capture d'écran montre les ressources de la carte graphique utilisées quand C1 est au repos. La 2nde représente ces mêmes ressources, avec C1 en plein effort. La RAM de la CG passe de 5% de taux d'utilisation à 66%. La température passe de 35° à 58°

Conclusion ?