quelle carte graphique en 2020

Démarré par meregigi, Février 16, 2020, 15:00:36

« précédent - suivant »

Nikojorj

Citation de: doppelganger le Octobre 02, 2020, 17:56:16
L'accélération graphique est arrivée dans Lr 6. Enfin, arrivée... l'option était là mais en aucun cas fonctionnel...
Le test porte sur la dernière version de LR Classic, et avec un CPU plus ordinaire le GPU aide un peu plus.

jeandemi

Citation de: egtegt² le Octobre 02, 2020, 13:51:33
C'est étonnant car c'est du 2D donc la carte graphique n'a besoin normalement que de deux fois la taille d'une image 4K en RAM, ce qui ne représente que 50 Mo environ. Et si tu utilises le CUDA, la carte a besoin de 2 ou 3 fois la taille d'une image, soit 300 Mo pour une image de D850 en 16 bits  donc 900 Mo au plus.

En tout cas, je n'arrive pas à imaginer à quel moment la carte graphique aurait besoin de 3 Go pour de la photographie.
Peut-être pour faire tourner le logiciel de traitement ?
Comme la RAM d'un PC qui sert lorsque c'est le CPU qui travaille, la VRAM sert quand c'est le GPU qui bosse

egtegt²

Citation de: jeandemi le Octobre 03, 2020, 08:26:11
Peut-être pour faire tourner le logiciel de traitement ?
Comme la RAM d'un PC qui sert lorsque c'est le CPU qui travaille, la VRAM sert quand c'est le GPU qui bosse
Possible, mais je reste étonné ;) Je viens de tester rapidement avec DXO, quand je lance un traitement la mémoire de la carte passe à 2,1 Go pour retomber à 1,6 Go quand le traitement est terminé, et 0,9 Go quand je quitte DXO. C'est plus cohérent avec les valeurs auxquelles je m'attendrais.

Pour info, dans mes calculs, j'avais pris en compte l'espace pris par le logiciel de traitement, c'est pour ça que je comptais 2 ou 3 fois la taille de l'image : l'original, une version modifiée par calcul, et encore une troisième parce que je connais les développeurs et qu'ils sont incapables d'économiser de la RAM :)

faut croire que les développeurs Capture One sont encore plus mauvais que ce que je pensais  ::)

doppelganger

#28
Citation de: egtegt² le Octobre 04, 2020, 00:56:46
Possible, mais je reste étonné ;) Je viens de tester rapidement avec DXO, quand je lance un traitement la mémoire de la carte passe à 2,1 Go pour retomber à 1,6 Go quand le traitement est terminé, et 0,9 Go quand je quitte DXO. C'est plus cohérent avec les valeurs auxquelles je m'attendrais.

DxO n'utilise pas la carte graphique en direct.

Citation de: egtegt² le Octobre 04, 2020, 00:56:46
Pour info, dans mes calculs, j'avais pris en compte l'espace pris par le logiciel de traitement, c'est pour ça que je comptais 2 ou 3 fois la taille de l'image : l'original, une version modifiée par calcul, et encore une troisième parce que je connais les développeurs et qu'ils sont incapables d'économiser de la RAM :)

faut croire que les développeurs Capture One sont encore plus mauvais que ce que je pensais  ::)

Je t'invite à te renseigner sur l'accélération matériel et OpenCL, mais également sur le matériel informatique en règle générale. Cela nous évitera peut-être ce genre d'absurdité.

En tout cas, les "mauvais" me permettent de post-traiter de manière fluide et ce, même avec un modeste core i5 vieux de 8 ans et ses malheureux 8 Go de RAM.Chose impossible avec les "balèzes" de chez DxO.

egtegt²

Citation de: doppelganger le Octobre 04, 2020, 14:53:04
DxO n'utilise pas la carte graphique en direct.
Il l'utilise pour le post traitement, c'est ce que j'ai testé.
Citation de: doppelganger le Octobre 04, 2020, 14:53:04
Je t'invite à te renseigner sur l'accélération matériel et OpenCL, mais également sur le matériel informatique en règle générale. Cela nous évitera peut-être ce genre d'absurdité.

En tout cas, les "mauvais" me permettent de post-traiter de manière fluide et ce, même avec un modeste core i5 vieux de 8 ans et ses malheureux 8 Go de RAM.Chose impossible avec les "balèzes" de chez DxO.
Tu n'es pas obligé de me prendre de gaut ;). Mon hobby est de faire des images de synthèse avec Blender, autant te dire que je m'intéresse à l'accélération matériel (pourquoi crois-tu que j'ai une RTX 2070 ?). Il n'y a pas qu'OpenCL d'ailleurs, il y a aussi Cuda et depuis peu Optix.
Et ma remarque était ironique, je ne connais que très peu Capture One et encore moins ses développeurs. Cela dit, les développeurs qui optimisent l'utilisation de la mémoire ou du processeur de leur logiciel sont devenus une denrée rare.

Visiblement ceux de capture One ont plutôt optimisé les performances au détriment de la mémoire, ceux de DXO ont apparemment fait l'inverse, ce qui est pire, je te l'accorde :)

doppelganger

Au risque de me répéter, DxO n'exploite pas la carte graphique en direct. C'est pas compliqué que ça. Suffit de voir les prières performances.

Le fait même qu'il n'utilise pas la puissance de calcul dans son traitement "prime" est navrant.

De plus, le fait que l'un utilise plus de mémoire que l'autre ne change rien. La mémoire est là, disponible, elle est alors utilisée, vraisemblablement pour des raisons de traitements en parallèle. Le traitement est fini, la mémoire est libérée et tout va bien.

Jean-Claude

Pourquoi les gens veulent-ils absolument mettre dos à dos CPU et GPU dans les traitements alors que chacun est utilisé pour son domaine d'excellence en complémentarité:

- calculs lourds peu nombreux et séquenciels
- calcules simples très nombreux en parallèle


Johan30

je raporte une info sur les cartes graphiques Nvidia sur leur site ils annonce les cartes compatible en 10 bit  c est bon a savoir  ;)

NVIDIA TITAN Series:

NVIDIA TITAN RTX, NVIDIA TITAN V, NVIDIA TITAN Xp, NVIDIA TITAN X (Pascal)

GeForce RTX 20 Series:
GeForce RTX 2080 Ti, GeForce RTX 2080 SUPER, GeForce RTX 2080, GeForce RTX 2070 SUPER, GeForce RTX 2070, GeForce RTX 2060 SUPER, GeForce RTX 2060

GeForce 16 Series:
GeForce GTX 1660 Ti, GeForce GTX 1660, GeForce GTX 1650

GeForce 10 Series:
GeForce GTX 1080 Ti, GeForce GTX 1080, GeForce GTX 1070 Ti, GeForce GTX 1070, GeForce GTX 1060, GeForce GTX 1050 Ti, GeForce GTX 1050

egtegt²

J'ai testé de passer en 10 bits sur mon PC, franchement s'il y a une différence, il faut regarder de près.

fabco

le 10 bits ne fonctionne que sous ps et encore il faut le configurer pour.

Normalement il y a une légère différence.

fabco

Citation de: Johan30 le Octobre 26, 2020, 19:01:53
je raporte une info sur les cartes graphiques Nvidia sur leur site ils annonce les cartes compatible en 10 bit  c est bon a savoir  ;)

NVIDIA TITAN Series:

NVIDIA TITAN RTX, NVIDIA TITAN V, NVIDIA TITAN Xp, NVIDIA TITAN X (Pascal)

GeForce RTX 20 Series:
GeForce RTX 2080 Ti, GeForce RTX 2080 SUPER, GeForce RTX 2080, GeForce RTX 2070 SUPER, GeForce RTX 2070, GeForce RTX 2060 SUPER, GeForce RTX 2060

GeForce 16 Series:
GeForce GTX 1660 Ti, GeForce GTX 1660, GeForce GTX 1650

GeForce 10 Series:
GeForce GTX 1080 Ti, GeForce GTX 1080, GeForce GTX 1070 Ti, GeForce GTX 1070, GeForce GTX 1060, GeForce GTX 1050 Ti, GeForce GTX 1050

C'est bizarre normalement ce n'est que la gamme pro.

Ou alors il faut des drivers spécifiques.

jeandemi

Citation de: fabco le Octobre 27, 2020, 09:38:09
C'est bizarre normalement ce n'est que la gamme pro.

Ou alors il faut des drivers spécifiques.
non, ils ont "ouvert" ça sur les cartes "grand public" à partir des séries 10x0 avec les derniers drivers

egtegt²

Citation de: Stepbystep le Octobre 27, 2020, 18:15:35
Pas sûr que l'œil humain soit suffisamment discriminant.
C'est ce que je voulais dire. En fait il peut l'être, mais pas sur des photographies, sur des dégradés de couleurs unies par exemple. Pour moi les 10 bits sont surtout intéressants pour les graphistes, pas pour les photographes.

Jean-Claude

Citation de: doppelganger le Octobre 01, 2020, 22:58:19
Pour C1, Phase One ne fait pas que prétendre. C'est du concret.

Ben pour le moment le concret reste toujours très faible quand on voit que les CPU même performantes sont très souvent chargées à 100% de longues minutes là ou la GPU de capacité moyenne n'est sollicitée que sporadiquement à une fraction de ses capacités.

C'est toujours ça pour délester un peu les CPU très chargées par nos RAW 16bit de 5o Mpix et plus.
on en reparlera dans 4 ou 5 ans après les progrès matériels et logiciels qui arriveront forcément  :)

Ce qui est sûr c'est qu'aujourd'hui il ne sert à rien en photographie d'acheter la carte graphique ultime de la mort qui tue qui fait baver les gamers.

egtegt²

Citation de: Jean-Claude le Octobre 31, 2020, 09:17:37
[...]
Ce qui est sûr c'est qu'aujourd'hui il ne sert à rien en photographie d'acheter la carte graphique ultime de la mort qui tue qui fait baver les gamers.
Ca vient juste de changer avec DPL et la nouvelle version de Prime (DeepPrime). Avec une bonne carte graphique, les temps de calcul par rapport à Prime peuvent être divisés par 4 ou 5 pour un résultat meilleur.

doppelganger

Citation de: Jean-Claude le Octobre 31, 2020, 09:17:37
Ben pour le moment le concret reste toujours très faible quand on voit que les CPU même performantes sont très souvent chargées à 100% de longues minutes là ou la GPU de capacité moyenne n'est sollicitée que sporadiquement à une fraction de ses capacités.

C'est toujours ça pour délester un peu les CPU très chargées par nos RAW 16bit de 5o Mpix et plus.
on en reparlera dans 4 ou 5 ans après les progrès matériels et logiciels qui arriveront forcément  :)

Ce qui est sûr c'est qu'aujourd'hui il ne sert à rien en photographie d'acheter la carte graphique ultime de la mort qui tue qui fait baver les gamers.

Je ne sais pas si tu sais de quoi tu parles. En attendant, je n'ai aucun problème de charge CPU avec C1. Ma carte graphique fait le job. (cf. mes captures d'écran page précédente)

nickos_fr

Citation de: doppelganger le Octobre 05, 2020, 10:36:08
Au risque de me répéter, DxO n'exploite pas la carte graphique en direct. C'est pas compliqué que ça. Suffit de voir les prières performances.

Le fait même qu'il n'utilise pas la puissance de calcul dans son traitement "prime" est navrant.

De plus, le fait que l'un utilise plus de mémoire que l'autre ne change rien. La mémoire est là, disponible, elle est alors utilisée, vraisemblablement pour des raisons de traitements en parallèle. Le traitement est fini, la mémoire est libérée et tout va bien.

avec deep prime il me semble que si car selon que la cg soit prise en compte ou non il y a une sacrée différence

nickos_fr

Perso histoire d'être tranquille qq année je tablerai sur une GeForce RTX 20 Series:

fabco

Depuis que dxo utilise le gpu les traitements sont plus rapides.Cela date de la version 6.Actuellement j'utilise un i5 750 depuis plus de 10 ans.Et grâce à l'utilisation du gpu pour certaines fonctions, le temps de traitement est divisé par 4.

Dire qu'il ne faut pas une grosse cg n'est pas réaliste.

Et avec DeepPrime cela se confirme.Ma cg n'est plus compatible, le traitement est devenu beaucoup plus long sauf avec HQ grâce à la cg et à OpenCl.


restoc

Pour  sentir une accélération GPU faut-il encore soit que la CPU soit peu puissante ou bien que l'architecture de la carte mère soit un goulot d'étranglement ( chipset) ou bien encore que la carte graphique soit beaucoup plus puissante et qu'on est les bonnes couches ( OpenGl et Cl) les bons drivers. Bref çà fait bp de combinaisons et donc de ressentis divers et variés.

Ainsi avec un Core I7 montant à 4 Ghz ( et 80 ° C !) avec 4 cœurs, une CG puissante comme la Nvidia Quadro 4000 n'offre que peu de bénéfices sur les traitements compatibles Open cl et la quadro 2000 elle ne rivalise même pas avec la CPU. Celà n'a d'ailleurs d'intérêt que pour de grosses images supérieures à 24 Mpix par exemple. Si on bosse sur des crops de 8 ou 12 Mpix inutile de se préoccuper d'une CG de course si on a une bonne CPU . Là encore les temps de calculs croissent avec le carré du nb de pixels, le nb de couches, le nb  de masques ou de Upoints  etc etc.

Ensuite la différence va se faire ( dans le futur proche) avec les cartes graphiques  embarquant des processeurs et logiciels adaptés à l'IA comme Nvidia commence à en sortir ( à prix d'or). Mais ce ne sera utile que pour les logiciels ou traitements basés eux même sur le Deep Learning ( Topaz, qqs algos dans PS 2021 et peut être DXO Deep Prime s'il a été codé pour être conforme aux standard Nvidia).

Mais pour ne faire que régler contraste luminosité ou balance des blancs,  un peu de débruitage et qqs masques çà n'aura strictement aucun intérêt de viser les CG embarquant de l'IA évidemment.
Bref on trouvera tous les avis du genre .... "avec mon Pentium des années 2000  le sors un jpeg en 3 secondes" ... certes avec une image web çà le fait.
Mais traiter un lot de 200 photos de 45 Mpix  en débruitage et re-focus avec Topaz çà devrait atteindre un mois de calcul et en tout cas cramer le processeur avant . ;D ;D

Autrement dit on va lire tout et son contraire pendant un bout de temps avec les nouvelles tendances à l'IA .. ou pas !


egtegt²

Il n'y a pas que l'IA, les cartes graphiques ont une particularité : elles permettent de faire des traitements parallèles énormément plus vite qu'un processeur. La contrepartie est qu'elles sont très limitées dans les fonctions sur chaque traitement. Mais par exemple si tu essayes de faire faire des calculs graphiques à un processeur, il est des centaines de fois plus lent qu'une bonne carte graphique.

Pour moi la principale limite actuelle, ce sont les algorithmes capables de tirer parti de cette puissance de calcul. L'IA en est un exemple, par exemple avec DPL et DeepPrime qui est censé utiliser l'IA et la puissance des cartes graphiques, je constate un gain en temps de calcul de l'ordre de 10 par rapport à Prime auparavant.

Je m'amuse également à faire des images de synthèse avec Blender, là la différence est énorme : une RTX3090 est 2 fois plus rapide que le plus rapide des processeurs actuels (un AMD Threadripper avec 64 coeurs)

Donc à mon avis, il faut s'attendre à d'énormes progrès dans ce sens.

Par contre, j'ai remarqué une chose : quand je lance un traitement avec la carte graphique, mon PC devient quasi inutilisable pour faire du PT en même temps car la carte graphique est saturée par les traitements, alors que si je le lance sur la CPU, ça reste plus utilisable. Le comportement s'est inversé depuis la dernière version. Auparavant, comme il utilisait mal la CG, l'utiliser pour faire les traitements soulageait le processeur sans pour autant saturer la CG.

Jean-Claude

Je ne sais pas de quoi je parle ?

je parle de traitements de tous les jours dans les logiciels Phocus, Capture One, Affinity de fichiers RAW 50 Mpix et plus en 16 bit.
Le moniteur de ressource Windows donne des charges de CPU i7 assez puissant à 100% dans les longs batches d'exports, et des CGU de cartes de puissances moyennes jamais chargées à plus de 10% et que de façons courtes et sporadiques.

Si quelqu'un à fait dans ces conditions une expérience inverse, je suis preneur des explications  :)

nickos_fr

Citation de: Jean-Claude le Novembre 03, 2020, 17:06:28
Je ne sais pas de quoi je parle ?

je parle de traitements de tous les jours dans les logiciels Phocus, Capture One, Affinity de fichiers RAW 50 Mpix et plus en 16 bit.
Le moniteur de ressource Windows donne des charges de CPU i7 assez puissant à 100% dans les longs batches d'exports, et des CGU de cartes de puissances moyennes jamais chargées à plus de 10% et que de façons courtes et sporadiques.

Si quelqu'un à fait dans ces conditions une expérience inverse, je suis preneur des explications  :)
ce n'est pas parce que votre pratique est tel que c'est aussi le traitement de tout les jours des autres ;)
j'ai plusieurs connaissance qui font quasiment que des photos de soirée ou en basse lumière qui passent maintenant tout en deep prime, et si demain ils ont envie  se diriger vers des encodages vidéo plus que la photo ou si l'IA devient de plus en plus présente dans les process ils seront paré.
Ensuite que pour Votre pratique vous n'en ayez pas l'utilité c'est tant mieux. mais comprenez que tout le monde n'a pas forcément la même pratique.

egtegt²

Citation de: Jean-Claude le Novembre 03, 2020, 17:06:28
Je ne sais pas de quoi je parle ?

je parle de traitements de tous les jours dans les logiciels Phocus, Capture One, Affinity de fichiers RAW 50 Mpix et plus en 16 bit.
Le moniteur de ressource Windows donne des charges de CPU i7 assez puissant à 100% dans les longs batches d'exports, et des CGU de cartes de puissances moyennes jamais chargées à plus de 10% et que de façons courtes et sporadiques.

Si quelqu'un à fait dans ces conditions une expérience inverse, je suis preneur des explications  :)
Ben j'ai fait l'expérience exactement inverse avec DPL4 et DeepPrime.

En fait dans ton message précédent tu généralisais sur tous les logiciels et toutes les cartes graphiques alors qu'en fait, tu n'utilises que 3 logiciels avec une Carte Graphique particulière.

Et pour information, ton test ne vaut pas grand chose. Sur Blender, si je lance un calcul avec la CG, elle est assez peu utilisée (moins de 20%) et pourtant le calcul va 4 ou 5 fois plus vite que si je le lance uniquement sur le processeur.

Mais surtout, tu ne peux pas généraliser à partir d'une configuration matérielle et de 3 logiciels, dont Affinity que j'utilise et qui n'est pas prévu pour utiliser la CG pour autant que je sache. Donc en gros tu as testé sur 2 configurations, et tu penses que c'est représentatif des centaines de configurations possibles  ::)

Si tu veux une explication, elle est très simple : l'utilisation des cartes graphiques est très différente des calculs sur processeur
- Un processeur a essentiellement peu d'unités de traitement (les plus gros ont 64 coeurs avec 4 threads, ce qui donne 256 traitements parallèles, et je parle de processeurs à plusieurs milliers d'euros, un processeur lambda a en général aux alentours de 8 ou 16 unités de traitement) mais ces unités de traitement sont puissantes
- Une carte graphique au contraire a énormément d'unités de traitement parallèles (couramment quelques milliers), mais chaque unité de traitement est peu performante comparé au processeur

Donc pour utiliser une carte graphique efficacement, il faut modifier le programme pour qu'il puisse utiliser ce parallélisme de façon efficace. C'est complexe et long, et souvent impossible. En général le traitement d'image s'y prête assez bien car on peut souvent traiter une partie indépendamment du reste de l'image, mais ça n'est pas simple pour autant.

Et comme ces technologies massivement parallèles sont somme toute assez récentes dans du matériel grand public, les éditeurs n'ont en général pas encore investi vraiment pour les utiliser, ça arrive petit à petit avec par exemple DeepPrime, mais ça va demander du temps.

jurassic

Juste pour apporter des données :

Sur mon PC avec un proc' Intel i7-6700K + 16 Go de RAM sous Windows 7 64 bits, je viens d'installer une carte AMD Radeon Pro WX 4100 (16 coeurs, 4 Go de VRAM).
Sous Capture One, un lot de 42 photos RAW de 24 Mo chacune, le développement jpeg donne ceci :
sans la carte graphique : 3 min 32 s.
avec la carte graphique : 1 min 8 s.
Je trouve çà plutôt intéressant, cela m'évite une mise à jour complète (et chère) de mon système
(il faudrait changer au minimum processeur + Carte-mère + RAM + OS).
A7rc