Quelle carte graphique Pour LR et toshop

Démarré par meregigi, Décembre 25, 2022, 00:31:30

« précédent - suivant »

ALEXUR

Citation de: egtegt² le Janvier 13, 2023, 16:53:57
Les processeurs Ryzen "G" intégrent une carte graphique, ça permet de se passer de carte graphique si tu utilises essentiellement des applications qui n'en ont pas besoin. Ca n'a rien à voir avec l'utilisation des coeurs CUDA dans les applications.

Et il serait bien de savoir si LR6.14 fait partie "des applications qui n'en ont pas besoin" et s'il fonctionnera avec le Ryzen7 3700X sans le "G" comme celui qui équipe la machine de max42300 avec une carte graphique plus récente qui pourrait ne pas être reconnue par LR6.14 dont le développement commence à dater ?  max42300 nous dira les résultats de son test.

Pour moi jusqu'à aujourd'hui la CUDA c'était le petit nom d'une mythique Plymouth ... ma curiosité s'est donc réveillée =>  J'ai recherché ce qu'est et à quoi sert la technologie CUDA , si j'ai bien compris, cela permet d'utiliser le processeur graphique (GPU) pour exécuter des calculs en appui ou à la place du processeur central (CPU). En fait c'est un peu ce que l'on sait ou imagine à peut près, et c'est ce qu'on attends d'une carte graphique moderne quand on se documente pour la choisir mais sans connaitre ni le nom de cette technologie ni les subtilités de fonctionnement.
Et du coup, pas facile de comprendre ce que tu ajoutes à la fin de ta réponse :    "Ça n'a rien à voir avec l'utilisation des cœurs CUDA dans les applications."    ce qui laisse penser ou croire que LR6.14 utilise ou nécessite forcément pas les "cœurs CUDA" ?

max42300

Bonjour,

J'ai décoché l'option processeur graphique et n'ai pour l'instant pas constaté de différence avec LR 6.14.

ALEXUR

Citation de: max42300 le Janvier 26, 2023, 09:37:19
Bonjour,
J'ai décoché l'option processeur graphique et n'ai pour l'instant pas constaté de différence avec LR 6.14.

Citation de: max42300 le Janvier 15, 2023, 10:18:56
Merci pour vos avis, effectivement je peux simuler ce que je perdrais sous LR 6.14 si il ne reconnait pas une carte récente.
Facile à faire, je vais essayer.

Maintenant tu sais exactement ce que tu perdras si LR 6.14 ne reconnait pas une carte récente, c'est à dire pas grand chose au point de ne pas remarquer une différence pour "une pratique peu intense" dans LR6.14 
Mais DXO / DeepPrime saura tirer partie de la nouvelle carte et sera plus rapide et si plus tard tu décides d'évoluer vers une version LR actuelle, tu pourras également bénéficier de l'accélération graphiique.

max42300

Merci Alexur, tu sembles avoir une bonne expérience du sujet, et j'en profite pour te demander quelle carte offrirait un bon compromis prix / performances pour Photolab et LRcc.

ALEXUR

Non pas du tout, je connais le sujet uniquement parce que j'ai changé de PC portable et que j'ai été confronté au problème résolu de non prise en compte de ma carte RTX3050 par mon LR6.14. Tu peux relire le sujet de mon expérience  https://www.chassimages.com/forum/index.php/topic,331177.0.html   ça ne va pas beaucoup plus loin que ça et ce que j'ai pu t'indiquer ici.
Donc un conseil pour une carte graphique sur un ordi fixe alors que je n'ai plus d'ordi fixe depuis trop longtemps ... comment te dire ce qui serait bien en rapport qualité prix actuellement. Lire des tests des sites spécialisés tech et se fier aux classements par performances que tu devrais facilement trouver sur le net.

Relis aussi le lien proposé par Nikojorj pour LR  https://www.pugetsystems.com/labs/articles/Adobe-Lightroom-Classic---NVIDIA-GeForce-RTX-3070-3080-3090-Performance-1953/
Citation de: Puget Systems
Adobe has been steadily adding GPU support into Lightroom Classic over the last few versions, but for the tasks we currently test, there is little advantage to using a powerful GPU like the new GeForce RTX 3070 8GB, 3080 10GB or 3090 24GB. In fact, there is almost no appreciable difference between the fastest GPU we tested and having no GPU at all.

max42300


dar

Pour info , il y a 1 an et demi  j'avais fait monté mon pc avec un processeur AMD Ryzen 9 5900 x , 32 GO de RAM , DD SSD , carte graphique NVidia 1050ti . Vu le prix délirant des cartes graphiques à l'époque , je m'étais contenté d'une 1050ti , les cartes hauts de gamme valaient plus cher à elles seules que l'ensemble du pc . Pour le traitement des photos avec lightroom , c'était bien comme ça . Précision , je possède un Nikon D850 et je fais que du RAW , donc traitement de très gros fichiers .
Entre temps j'ai fais l'acquisition de Photolab 6 pour le traitement de Deepprime . Et là l'exportation d'un fichier DNG de Photolab vers Lightroom me prenait environ 45 secondes .
Vu la grosse baisse  des prix des cartes graphiques depuis , j'ai changé ma 1050ti par une Nvidia 3060 à peine 150 euros plus cher que ce que j'avais payé ma 1050 ti il y a 1 an et demi.
Je suis passé de 45s à 20s pour l'exportation d'un fichier DNG de Photolab à Lightroom après traitement Deepprime .
Ce que j'ai remarqué , lorsque j'ouvre la même photo dans Lightroom et Photolab , cette photo occupe 4.5 GO de Vram de la carte graphique dans Lightroom  et que 0.3 GO dans Photolab .
Lorsque je zoom à 100 % et que je me déplace dans la photo , dans Lightroom l'affichage est instantané alors que dans Photolab on voit le GPU qui travaille plus et l'affichage prend 1 à 2 s . Donc beaucoup plus fluide dans Lightroom qui se sert  bq plus de la Vram que Photolab. Oui la carte graphique n'est pas l'élément le plus important dans le traitement des photos , mais les logiciels vont de plus en plus utiliser les GPU des cartes donc contrairement à il y a qqs temps , je pense qu'il ne faut plus se contenter d'une carte " bas de gamme " pour le traitement des photos si on veut de la fluidité .

Verso92

Citation de: dar le Janvier 28, 2023, 15:08:52
Oui la carte graphique n'est pas l'élément le plus important dans le traitement des photos , mais les logiciels vont de plus en plus utiliser les GPU des cartes donc contrairement à il y a qqs temps , je pense qu'il ne faut plus se contenter d'une carte " bas de gamme " pour le traitement des photos si on veut de la fluidité .

Pour l'instant, ça ne joue pas.

Col Hanzaplast

Conditions préalables pour que la carte graphique serve à quelque chose dans Lightroom Classic 8.4: Windows10 et DX12 minimum.

C'est là: https://helpx.adobe.com/fr/lightroom-classic/kb/lightroom-gpu-faq.html
"Le principal n'est pas que la machine fonctionne, c'est que le client croit qu'elle fonctionne."

SimCI

Les masques de detection de ciel/objet/personnage... font-ils appel au GPU ?

Col Hanzaplast

Il y a un autre lien pour CC: https://helpx.adobe.com/fr/lightroom-cc/kb/lightroom-gpu-faq.html

"Par défaut, Lightroom sélectionne automatiquement un niveau approprié d'accélération GPU : désactivé, de base ou complet.

    L'accélération de base optimise la façon dont Lightroom envoie les informations à votre GPU pour affichage. Cela rend Lightroom plus réactif et active des fonctions telles que le zoom animé (zoom variable).
    L'accélération complète utilise un GPU pour le traitement d'image et rend les pixels en utilisant un GPU en plus du CPU au cours de la modification. À l'aide de la version de processus 5, la plupart des ajustements sont maintenant accélérés par le GPU. Par exemple, l'accélération complète peut améliorer la vitesse à laquelle vous voyez les résultats lorsque vous déplacez le curseur Texture. L'utilisation du GPU permet également à Lightroom de répondre aux exigences des écrans 4K, 5K et plus. L'accélération complète a été ajoutée à la version de novembre 2019 (version 3.0). L'activation de l'accélération complète nécessite une accélération de base."
"Le principal n'est pas que la machine fonctionne, c'est que le client croit qu'elle fonctionne."

dar

Citation de: SimCI le Janvier 29, 2023, 12:39:25
Les masques de detection de ciel/objet/personnage... font-ils appel au GPU ?
Oui , et le gain en vitesse et fluidité lors du passage de ma 1050ti à ma 3060 se ressent trés bien .