Quelle carte graphique Pour LR et toshop

Démarré par meregigi, Décembre 25, 2022, 00:31:30

« précédent - suivant »

meregigi

Bonsoir

J'ai une Nvidia 960 avec 4 go de Ram ett un ryzen 7 3700X

Merci

jesus

Commence par augmenter ta RAM, 4 Go est insuffisant et la carte graphique n'apportera rien.

meregigi

Merci Jésus.je me suis mal exprimé : c est la carte qui a 4 go dédiée, sinon, j'ai 32 go de ram

Alain c

Citation de: meregigi le Décembre 25, 2022, 00:31:30
Bonsoir

J'ai une Nvidia 960 avec 4 go de Ram ett un ryzen 7 3700X

Merci
J'ai à peu prés la même configuration.
Ça va bien marcher, sauf si tu est à 1/2 seconde prés pour l'affichage.
.
PS: L'utilisation d'un disque dur type SSD sur lequel tu mets le système et tes applications t'apportera un plus si ce n'est pas déjà le cas.
Matérialiser l'immatériel


Verso92

Citation de: meregigi le Décembre 25, 2022, 00:31:30
Bonsoir

J'ai une Nvidia 960 avec 4 go de Ram ett un ryzen 7 3700X

Merci

Pour Photoshop, peu (aucun ?) impact, il me semble...

(la mienne à 1 Go de RAM)

meregigi

Citation de: Verso92 le Décembre 25, 2022, 19:53:19
Pour Photoshop, peu (aucun ?) impact, il me semble...

(la mienne à 1 Go de RAM)
ok et pour lightroom?

SimCI

Pour LR et PS, pas flagrant,
mais si tu utilises des softs dits "AI"
comme Topaz, là c'est le jour et la nuit.

meregigi

Citation de: SimCI le Décembre 26, 2022, 06:27:41
Pour LR et PS, pas flagrant,
mais si tu utilises des softs dits "AI"
comme Topaz, là c'est le jour et la nuit.

j'utilise topaz gigapixel par exemple et portrait professional



SimCI

Test totalement pifometrique (depend de CPU et GPU)
Gigapixel AI standard 4x : CPU ~ 70 s et Nvidia ~ 5 s.
...

geraldb


  GeForce GTX 1660 SUPER  6GB
RAM 48Go
mais j'utilise 2  ON1 AI...
G9II+OM-1+12/100-50/200+TC14

meregigi

Citation de: geraldb le Décembre 27, 2022, 22:21:22
  GeForce GTX 1660 SUPER  6GB
RAM 48Go
mais j'utilise 2  ON1 AI...

48 go de ram: quelle utilité ?

geraldb

Qui peut le plus peut le moins ! j'avais eu une belle promo
sur les 16x2 !
G9II+OM-1+12/100-50/200+TC14

Nicolas Meunier

LR et Photoshop contiennent de plus en plus de filtres qui utilisent le GPU, autant sans cela la quasi totalité des cartes s'en sort bien, autant pour ces cas un bon GPU moderne est bien cool.

Entre la sélection par IA de LR et photoshop et certains filtres qui utilisent l'IA pour la retouche, ma grosse carte graphique prend plus de sens.

Donc c'est mieux de déterminer son besoin de ce côté là.

Cordialement
Nicolas

ChatOuille

Pour info. Je dispose d'une carte RTX 2070 Super. Normalement j'en suis satisfait. Toutefois il m'arrive (rarement) que les logiciels de Topaz n'arrivent pas à effectuer le traitement souhaité lors qu'il est configuré en automatique CPU/GPU. La solution est simple : supprimer le GPU et passer la main au CPU. Jusqu'à présent cela a toujours fonctionné. Je me pose des questions sur l'utilité du GPU de cette carte, qui en principe est puissante.

ALEXUR

Certes hors sujet, mais info intéressante si cela fonctionne vraiment et de plus dans peu de temps selon cet article :

https://www.01net.com/actualites/nvidia-une-ia-pourrait-offrir-30-de-performances-aux-geforce-rtx.html

Si bien sûr les logiciels photos peuvent bénéficier du gain de 30% annoncés.

max42300

Bonjour à tous,
Je suis dans un cas un peu particulier, je me suis arrêté à LR 6.14 et je suis passé à DXO Photolab pour compléter la fonction développement.
DXO Photolab marche nettement mieux avec une carte graphique récente, surtout si on utilise la fonction DeepPrime pour le débruitage.
Je suis donc tenté par une carte graphique récente et plus performante que ma carte actuelle qui est reconnue par LR, une NVIDIA Geforce RTX 2060 par exemple, mais me pose la question de la compatibilité d'une carte récente avec LR 6.14.
Avez vous une expérience sur le sujet?
Merci d'avance.

ALEXUR

Citation de: max42300 le Janvier 10, 2023, 19:24:17
Bonjour à tous,
Je suis dans un cas un peu particulier, je me suis arrêté à LR 6.14 et je suis passé à DXO Photolab pour compléter la fonction développement.
DXO Photolab marche nettement mieux avec une carte graphique récente, surtout si on utilise la fonction DeepPrime pour le débruitage.
Je suis donc tenté par une carte graphique récente et plus performante que ma carte actuelle qui est reconnue par LR, une NVIDIA Geforce RTX 2060 par exemple, mais me pose la question de la compatibilité d'une carte récente avec LR 6.14.
Avez vous une expérience sur le sujet?
Merci d'avance.

Idem, je suis toujours en LR6.14 car je n'ai pas besoin de plus.
T'équiper d'une carte graphique plus récente ne te fera gagner que très très peu si tu restes avec LR6.14
Mon nouveau PC portable étant équipé d'une RTX3050, j'ai pu réinstaller mon LR6.14 et j'ai réussi à activer une RTX3050 qui n'était pas reconnue par LR6.14
Le gain pour mon utilisation (faible nombre de photos importées ou exportées et très peu de traitements lourds de mes photos) est négligeable une fois activée l'accélération graphique.
Le plus gros gain avec LR6.14 a été permis grâce au processeur bien plus puissant sur mon nouveau PC.

Voir le fil ici :

https://www.chassimages.com/forum/index.php/topic,331177.0.html

Verso92


max42300

Merci Alexur pour ton retour.
Si je change de carte graphique, ce n'est pas dans l'espoir d'améliorer les performances de  LR 6.14, car dans l'utilisation que j'en fais ma carte actuelle me suffit.
Par contre un changement serait souhaitable pour tirer pleinement parti des possibilités de DXO Photolab, mais je ne voudrais pas  avoir un effet négatif coté LR si je fais ce changement.

ALEXUR

Citation de: max42300 le Janvier 12, 2023, 12:03:47
Merci Alexur pour ton retour.
Si je change de carte graphique, ce n'est pas dans l'espoir d'améliorer les performances de  LR 6.14 ... Par contre un changement serait souhaitable pour tirer pleinement parti des possibilités de DXO Photolab, mais je ne voudrais pas  avoir un effet négatif coté LR si je fais ce changement.

Tu peux facilement quantifier dès à présent ce que tu perdrais si LR6.14 ne reconnait pas une carte récente.

Si tu changes sur ton système actuel uniquement de carte graphique et que celle ci n'est pas reconnue, l'accélération graphique dans LR6.14  restera non activée, tout reposera sur ton processeur CPU et son accélération graphique de base intégrée.

Lightroom fonctionnera alors comme si tu avais désactivé volontairement l'accélération graphique dans ton LR6.14 ... facile à tester sur ton système actuel.

Il te reste à faire la manip et voir ce que tu perds en performances dans Lightroom en activant ou non cette accélération graphique.
Mais je pense tu auras du mal à mettre en évidence un écart significatif (c'était mon cas) sauf à travailler sur de très gros volumes.

ATTENTION je viens de me rendre compte que tu as précisé Ryzen7 3700X , à VERIFIER il me semble qu'il n'est pas avec accélération graphique intégrée sinon on aurait un G dans la désignation ??? On doit pouvoir contourner le problème ... n'ayant jamais fait ça moi même, je préfère ne pas développer.

Par contre, pour les nouvelles fonctions notamment qui utilise l'IA, et DXO , une nouvelle carte devrait t'apporter un gain de temps de traitement non négligeable.

egtegt²

Les processeurs Ryzen "G" intégrent une carte graphique, ça permet de se passer de carte graphique si tu utilises essentiellement des applications qui n'en ont pas besoin. Ca n'a rien à voir avec l'utilisation des coeurs CUDA dans les applications.

max42300

Merci pour vos avis, effectivement je peux simuler ce que je perdrais sous LR 6.14 si il ne reconnait pas une carte récente.
Facile à faire, je vais essayer.

ALEXUR

Citation de: egtegt² le Janvier 13, 2023, 16:53:57
Les processeurs Ryzen "G" intégrent une carte graphique, ça permet de se passer de carte graphique si tu utilises essentiellement des applications qui n'en ont pas besoin. Ca n'a rien à voir avec l'utilisation des coeurs CUDA dans les applications.

Et il serait bien de savoir si LR6.14 fait partie "des applications qui n'en ont pas besoin" et s'il fonctionnera avec le Ryzen7 3700X sans le "G" comme celui qui équipe la machine de max42300 avec une carte graphique plus récente qui pourrait ne pas être reconnue par LR6.14 dont le développement commence à dater ?  max42300 nous dira les résultats de son test.

Pour moi jusqu'à aujourd'hui la CUDA c'était le petit nom d'une mythique Plymouth ... ma curiosité s'est donc réveillée =>  J'ai recherché ce qu'est et à quoi sert la technologie CUDA , si j'ai bien compris, cela permet d'utiliser le processeur graphique (GPU) pour exécuter des calculs en appui ou à la place du processeur central (CPU). En fait c'est un peu ce que l'on sait ou imagine à peut près, et c'est ce qu'on attends d'une carte graphique moderne quand on se documente pour la choisir mais sans connaitre ni le nom de cette technologie ni les subtilités de fonctionnement.
Et du coup, pas facile de comprendre ce que tu ajoutes à la fin de ta réponse :    "Ça n'a rien à voir avec l'utilisation des cœurs CUDA dans les applications."    ce qui laisse penser ou croire que LR6.14 utilise ou nécessite forcément pas les "cœurs CUDA" ?

max42300

Bonjour,

J'ai décoché l'option processeur graphique et n'ai pour l'instant pas constaté de différence avec LR 6.14.

ALEXUR

Citation de: max42300 le Janvier 26, 2023, 09:37:19
Bonjour,
J'ai décoché l'option processeur graphique et n'ai pour l'instant pas constaté de différence avec LR 6.14.

Citation de: max42300 le Janvier 15, 2023, 10:18:56
Merci pour vos avis, effectivement je peux simuler ce que je perdrais sous LR 6.14 si il ne reconnait pas une carte récente.
Facile à faire, je vais essayer.

Maintenant tu sais exactement ce que tu perdras si LR 6.14 ne reconnait pas une carte récente, c'est à dire pas grand chose au point de ne pas remarquer une différence pour "une pratique peu intense" dans LR6.14 
Mais DXO / DeepPrime saura tirer partie de la nouvelle carte et sera plus rapide et si plus tard tu décides d'évoluer vers une version LR actuelle, tu pourras également bénéficier de l'accélération graphiique.

max42300

Merci Alexur, tu sembles avoir une bonne expérience du sujet, et j'en profite pour te demander quelle carte offrirait un bon compromis prix / performances pour Photolab et LRcc.

ALEXUR

Non pas du tout, je connais le sujet uniquement parce que j'ai changé de PC portable et que j'ai été confronté au problème résolu de non prise en compte de ma carte RTX3050 par mon LR6.14. Tu peux relire le sujet de mon expérience  https://www.chassimages.com/forum/index.php/topic,331177.0.html   ça ne va pas beaucoup plus loin que ça et ce que j'ai pu t'indiquer ici.
Donc un conseil pour une carte graphique sur un ordi fixe alors que je n'ai plus d'ordi fixe depuis trop longtemps ... comment te dire ce qui serait bien en rapport qualité prix actuellement. Lire des tests des sites spécialisés tech et se fier aux classements par performances que tu devrais facilement trouver sur le net.

Relis aussi le lien proposé par Nikojorj pour LR  https://www.pugetsystems.com/labs/articles/Adobe-Lightroom-Classic---NVIDIA-GeForce-RTX-3070-3080-3090-Performance-1953/
Citation de: Puget Systems
Adobe has been steadily adding GPU support into Lightroom Classic over the last few versions, but for the tasks we currently test, there is little advantage to using a powerful GPU like the new GeForce RTX 3070 8GB, 3080 10GB or 3090 24GB. In fact, there is almost no appreciable difference between the fastest GPU we tested and having no GPU at all.

max42300


dar

Pour info , il y a 1 an et demi  j'avais fait monté mon pc avec un processeur AMD Ryzen 9 5900 x , 32 GO de RAM , DD SSD , carte graphique NVidia 1050ti . Vu le prix délirant des cartes graphiques à l'époque , je m'étais contenté d'une 1050ti , les cartes hauts de gamme valaient plus cher à elles seules que l'ensemble du pc . Pour le traitement des photos avec lightroom , c'était bien comme ça . Précision , je possède un Nikon D850 et je fais que du RAW , donc traitement de très gros fichiers .
Entre temps j'ai fais l'acquisition de Photolab 6 pour le traitement de Deepprime . Et là l'exportation d'un fichier DNG de Photolab vers Lightroom me prenait environ 45 secondes .
Vu la grosse baisse  des prix des cartes graphiques depuis , j'ai changé ma 1050ti par une Nvidia 3060 à peine 150 euros plus cher que ce que j'avais payé ma 1050 ti il y a 1 an et demi.
Je suis passé de 45s à 20s pour l'exportation d'un fichier DNG de Photolab à Lightroom après traitement Deepprime .
Ce que j'ai remarqué , lorsque j'ouvre la même photo dans Lightroom et Photolab , cette photo occupe 4.5 GO de Vram de la carte graphique dans Lightroom  et que 0.3 GO dans Photolab .
Lorsque je zoom à 100 % et que je me déplace dans la photo , dans Lightroom l'affichage est instantané alors que dans Photolab on voit le GPU qui travaille plus et l'affichage prend 1 à 2 s . Donc beaucoup plus fluide dans Lightroom qui se sert  bq plus de la Vram que Photolab. Oui la carte graphique n'est pas l'élément le plus important dans le traitement des photos , mais les logiciels vont de plus en plus utiliser les GPU des cartes donc contrairement à il y a qqs temps , je pense qu'il ne faut plus se contenter d'une carte " bas de gamme " pour le traitement des photos si on veut de la fluidité .

Verso92

Citation de: dar le Janvier 28, 2023, 15:08:52
Oui la carte graphique n'est pas l'élément le plus important dans le traitement des photos , mais les logiciels vont de plus en plus utiliser les GPU des cartes donc contrairement à il y a qqs temps , je pense qu'il ne faut plus se contenter d'une carte " bas de gamme " pour le traitement des photos si on veut de la fluidité .

Pour l'instant, ça ne joue pas.

Col Hanzaplast

Conditions préalables pour que la carte graphique serve à quelque chose dans Lightroom Classic 8.4: Windows10 et DX12 minimum.

C'est là: https://helpx.adobe.com/fr/lightroom-classic/kb/lightroom-gpu-faq.html

SimCI

Les masques de detection de ciel/objet/personnage... font-ils appel au GPU ?

Col Hanzaplast

Il y a un autre lien pour CC: https://helpx.adobe.com/fr/lightroom-cc/kb/lightroom-gpu-faq.html

"Par défaut, Lightroom sélectionne automatiquement un niveau approprié d'accélération GPU : désactivé, de base ou complet.

    L'accélération de base optimise la façon dont Lightroom envoie les informations à votre GPU pour affichage. Cela rend Lightroom plus réactif et active des fonctions telles que le zoom animé (zoom variable).
    L'accélération complète utilise un GPU pour le traitement d'image et rend les pixels en utilisant un GPU en plus du CPU au cours de la modification. À l'aide de la version de processus 5, la plupart des ajustements sont maintenant accélérés par le GPU. Par exemple, l'accélération complète peut améliorer la vitesse à laquelle vous voyez les résultats lorsque vous déplacez le curseur Texture. L'utilisation du GPU permet également à Lightroom de répondre aux exigences des écrans 4K, 5K et plus. L'accélération complète a été ajoutée à la version de novembre 2019 (version 3.0). L'activation de l'accélération complète nécessite une accélération de base."

dar

Citation de: SimCI le Janvier 29, 2023, 12:39:25
Les masques de detection de ciel/objet/personnage... font-ils appel au GPU ?
Oui , et le gain en vitesse et fluidité lors du passage de ma 1050ti à ma 3060 se ressent trés bien .