Quelle carte graphique pour développer les RAW ou l'encodage video : PRO ou pas

Démarré par fpabernard, Janvier 27, 2018, 03:26:29

« précédent - suivant »

fpabernard

Hello

Je relance un sujet déjà maintes fois abordé, mais je viens de faire le constat d'un résultat a priori surprenant.

J'utilise un boîtier HTPC pour sa compacité, n'acceptant que des cartes Low Profile. J'utilisais un CPU i7-5775C et une Quadro Pro K620, depuis plusieurs années pour cette dernière, après avoir lu un article sur le sujet :
http://www.cmp-color.fr/acceleration.html

Les performances étaient toutefois un peu limitées, avec un taux d'utilisation GPU assez faible en général.

Devant changer de carte-mère et donc de CPU, j'ai opté pour un i7-8700K, le top du top pour un boîtier HTPC avec une carte mini-ITX et une consommation devant rester modérée.

Pensant que ce nouveau CPU réussirait à charger davantage le GPU, j'ai eu l'idée de tester une GTX 1050, low profile, sur le papier 3 fois plus puissante que la K620 :
http://gpu.userbenchmark.com/Compare/Nvidia-Quadro-K620-vs-Nvidia-GTX-1050/2840vs3650

Voilà le résultat avec DxO Photolab (traitement 6 images par 6 images c-à-d autant que de coeurs CPU, il s'agit du réglage optimal que j'ai trouvé)

Développement de 18 fichiers RAW d'Olympus TG-5 avec réduction de bruit PRIME
GTX 1050: 3mn44s
K620 : 3mn 42s
Le taux GPU de la 1050 est autour de 10%, avec des paliers courts à 30%
Le taux GPU de la K620 est stable à 20%
CPU à 100% dans les 2 cas

Développement de 18 fichiers RAW d'Olympus E-M1II sans réduction de bruit PRIME
GTX 1050: 1mn2s
K620 : 1mn10s
Le taux GPU de la 1050 oscille entre 10 et 30% à chaque génération JPG, CPU à 100%
Le taux GPU de la K620 oscille entre 20 et 70% à chaque génération JPG, CPU à 90%

Lecture du répertoire de 1800 fichiers RAW au lancement de DxO Photolab
GTX 1050 : 40s
K620 : 48s

Nero Recode,

Encodage en 720p à 2900 kbits/s d'une video de 10mn
GTX 1050 : 2mn15s , GPU à 15% CPU à 30%
K620 : 2mn15s , GPU à 24% CPU à 30%

La GTX 1050 ne parvient qu'au même résultat, malgré une puissance brute 3 fois supérieure.
Le résultat de cmp-color est donc confirmé, presque 3 ans plus tard, ce à quoi je ne m'attendais pas.

La GTX est plus encombrante (double hauteur), elle chauffe davantage (30W de plus), de ce fait la ventilation du boîtier est moins efficace et le boîtier plus bruyant.

Je reste sur la K620, d'autant qu'en affichage elle a des fonctionnalités supplémentaires : affichage 10 bits (anecdotique), recouvrement de fenêtres plus efficace ...

Nikojorj

Merci du partage!
Effectivement, très peu de logiciels sont vraiment optimisés pour tirer parti du GPU.

On retrouve la même chose avec Photoshop (ici CC 2017) : https://www.pugetsystems.com/labs/articles/Photoshop-CC-2017-NVIDIA-GeForce-GPU-Performance-899/ l'écart entre une GeForce1050 et une TitanX à 10 fois plus cher n'est pas archisignificatif...
Le fait d'avoir un GPU séparé un minimum puiissant fait quand même la différence par rapport au GPU intégré, cela dit.

wally

En ce qui concerne la vitesse d'affichage des dév sous Lightroom,
activer le GPU d'une Nvidia 1050 GTI avec 4 GB ram graphique provoque une latence lors de l'affichage sur mon système

Ce qui disparaît s'il n'y a que le processeur sur la carte-mère d'activé.

Une piste ?
Usuellement, la carte graphique devrait "accélérer" le processus...
Précisons : AMD Phenom 4 coeurs avec 12 de RAM

Sinon, ma 1050 n'a pas amélioré significativement la vitesse d'affichage des dév de LR
par rapport à la Nvidia 660 GTI


Gérard_M

Boitiers Canon,bridge,

fpabernard


fpabernard

Citation de: Nikojorj le Janvier 27, 2018, 11:00:00
Merci du partage!
Effectivement, très peu de logiciels sont vraiment optimisés pour tirer parti du GPU.

On retrouve la même chose avec Photoshop (ici CC 2017) : https://www.pugetsystems.com/labs/articles/Photoshop-CC-2017-NVIDIA-GeForce-GPU-Performance-899/ l'écart entre une GeForce1050 et une TitanX à 10 fois plus cher n'est pas archisignificatif...
Le fait d'avoir un GPU séparé un minimum puiissant fait quand même la différence par rapport au GPU intégré, cela dit.

Ce que je constate et de même les auteurs des articles, c'est que la puissance brute ne sert à rien pour cet usage. En revanche, la carte et les drivers en version "Pro" tirent au mieux parti du matériel disponible. Ca se voit aussi sur la courbe d'utilisation GPU, plus régulière avec la carte Pro.

Il y a aussi un gain certain sur la vitesse d'affichage (le GPU intégré du i7-8700 n'est pas un foudre de guerre)

Nikojorj

Citation de: wally le Janvier 27, 2018, 14:40:58
En ce qui concerne la vitesse d'affichage des dév sous Lightroom,
activer le GPU d'une Nvidia 1050 GTI avec 4 GB ram graphique provoque une latence lors de l'affichage sur mon système

Ce qui disparaît s'il n'y a que le processeur sur la carte-mère d'activé.
Quelle résolution d'affichage? Ce que j'ai entendu dire (ici), c'est que avec un affichage pas trop grand (HD), le gain de temps de calcul par le GPU était plus que compensé par le déali d'envoi des données au GPU, et que l'activation du GPU se justifie surtout pour des gros écrans (4k ou 5k).

wally

Bonne question  ;)

Ecran 24'' et résolution 1920 x 1080

Donc rien de transcendant mais qui me convient à mon usage


egtegt²

Citation de: Nikojorj le Janvier 27, 2018, 23:55:44
Quelle résolution d'affichage? Ce que j'ai entendu dire (ici), c'est que avec un affichage pas trop grand (HD), le gain de temps de calcul par le GPU était plus que compensé par le déali d'envoi des données au GPU, et que l'activation du GPU se justifie surtout pour des gros écrans (4k ou 5k).

Je crois que c'est un élément spécifique à Lightroom qui utilise la GPU pour calculer le preview des images en direct. Il semblerait que DXO n'utilise la GPU que pour l'export.

J'ai fait quelques tests avec mon PC tout neuf (Core i7 huit coeurs et Nvidia 1060), je n'ai en tout cas pas vu de différence significative entre l'utilisation de la GPU et celle du processeur pour traiter les images.