Performance PC avec Photoshop/Lightroom

Démarré par canddide, Janvier 30, 2025, 11:08:07

« précédent - suivant »

philo_marche


agl33


oeufmollet

Presque tout est suffisant si tu es patient  ;D
C'est juste qu'avec une config de dingue, le traitement prendra 1/2sec, alors qu'avec une vieille config, si le traitement va au bout, il prendra 1/2heure ^^
(j'exagère volontairement, mais peut-etre pas tant que ça).

En vrai, j'ai l'impression que c'est surtout la RAM qui peut planter les traitements en cours de route si elle est insuffisante. Un petit processeur ralentira juste le traitement, pas sûr qu'il l'empêche d'aller au bout.
En tout cas, avec mon ancienne config (Ryzen 1600x), certains traitements Photoshop plantaient avant la fin quand j'avais que 16Go (genre assemblage pano de plein de RAW), alors que ça allait au bout avec 32Go. Avec ma nouvelle config (Ryzen 5600x pour remplacer le 1600x, pas touché à la ram et à la cg), la conso mémoire n'a pas changé mais les traitements sont nettement plus rapides quand ils sont gérés par le cpu. (pas encore eu l'occasion de faire de tests de perfs avec PureRAW)
CanonR6, M50mk1, 100D défiltré

jla46

Petite remarque en passant. Sur ma config, assez modeste j'en convient, (I7 10eme génération, 32 Go DDR6, GTX 1660 super) pendant le débruitage d'un NEF de 30Go : Occupation du processeur 5%, occupation RAM 50%, occupation GPU 4% !! temps total du calcul 50s ! Je ne suis pas un spécialiste mais je suis étonné de voir que la carte graphique sert aussi peu ! Un spécialiste parmi vous pourrait-il m'éclairer ?

Verso92

Citation de: oeufmollet le Février 19, 2025, 09:30:16Presque tout est suffisant si tu es patient  ;D

En ce qui me concerne, ma config i5 (6600K) avec 16 Go de RAM et une CG 1 Go (10 bits), qui commence à être ancienne, tient encore parfaitement la route en photo (développement avec Capture One de RAW de D850, 45 MPixels, principalement). Toutes les commandes répondent pratiquement instantanément.

Il n'y a qu'avec les traitements DeepPRIME que ça "rame" (environ 2'30 avec DPL4, et pas loin de 10mn avec la toute dernière version). Comme c'est un pré-traitement de temps en temps, ça ne me gêne pas plus que ça (et puis, je préfère mettre l'argent dans l'écran, entre autre)...

philo_marche

#30
Citation de: Verso92 le Février 19, 2025, 20:11:49En ce qui me concerne, ma config i5 (6600K) avec 16 Go de RAM et une CG 1 Go (10 bits), qui commence à être ancienne, tient encore parfaitement la route en photo (développement avec Capture One de RAW de D850, 45 MPixels, principalement). Toutes les commandes répondent pratiquement instantanément.

Il n'y a qu'avec les traitements DeepPRIME que ça "rame" (environ 2'30 avec DPL4, et pas loin de 10mn avec la toute dernière version). Comme c'est un pré-traitement de temps en temps, ça ne me gêne pas plus que ça (et puis, je préfère mettre l'argent dans l'écran, entre autres)...

L'i5 est complètement dépassé pour la photo (10 min pour une photo avec DeepPRIME!).
M'étonnerait que ça intéresse l'auteur de ce fil.
Ici, on parle de configuration sérieuse : par exemple, un Dell Alienware M18 R2 (i9 14 900 HX 14e génération + CG NVIDIA RTX 4070) exporte un NEF en DNG avec DeepPRIME XD (DXO PhotoLab v7.5) en 3 secondes! :) 
La CG NVIDIA RTX 4090 coûte 1 200 € en plus que la RTX 4070... pour des performances 40 % plus élevées.

philo_marche


Et voici quelques infos sur la NVIDIA 5090, dont parlait canddide :
« Après des mois de rumeurs, Nvidia a présenté sa dernière génération de cartes graphiques pour ordinateurs de bureau et portables au CES 2025. La série RTX 50 est la gamme de GPU la plus rapide jamais développée par Nvidia. À partir de la RTX 5070, Nvidia affirme qu'elle offre des performances équivalentes à celles du modèle phare de la génération précédente, la RTX 4090, à seulement 549 $ au lieu des 1 599 $ de la 4090. En montant, la RTX 5070 Ti coûtera 749 $, 999 $ pour la RTX 5080, et 1 999 $ pour la RTX 5090. La RTX 5080 et la RTX 5090 seront disponibles à partir du 30 janvier, tandis que la RTX 5070 et la RTX 5070 Ti devraient faire leurs débuts en février. » (Source : Polygon)

canddide

Citation de: philo_marche le Février 20, 2025, 11:03:43L'i5 est complètement dépassé pour la photo (10 min pour une photo avec DeepPRIME!).
M'étonnerait que ça intéresse l'auteur de ce fil.
Ici, on parle de configuration sérieuse : par exemple, un Dell Alienware M18 R2 (i9 14 900 HX 14e génération + CG NVIDIA RTX 4070) exporte un NEF en DNG avec DeepPRIME XD (DXO PhotoLab v7.5) en 3 secondes! :) 
La CG NVIDIA RTX 4090 coûte 1 200 € en plus que la RTX 4070... pour des performances 40 % plus élevées.


Merci pour le résumé. Effectivement, on parle de config TRES sérieuse, sans contrainte budgétaire. Apres avoir upgrader toute les pieces ( à l'exception de la carte graphique ( c'est en cours )), le constat est sans appel. Le processeur à un role important sous lightroom, mais pas pour débruiter. Lorsque je débruite sous lightroom, ca prend 10 secondes, mais le cpu est est 30% max. Donc, j'imagine que pour le débruitage, lightroom fait appel au gpu.

ChatOuille

Citation de: Verso92 le Février 19, 2025, 20:11:49En ce qui me concerne, ma config i5 (6600K) avec 16 Go de RAM et une CG 1 Go (10 bits), qui commence à être ancienne, tient encore parfaitement la route en photo (développement avec Capture One de RAW de D850, 45 MPixels, principalement). Toutes les commandes répondent pratiquement instantanément.

Il n'y a qu'avec les traitements DeepPRIME que ça "rame" (environ 2'30 avec DPL4, et pas loin de 10mn avec la toute dernière version). Comme c'est un pré-traitement de temps en temps, ça ne me gêne pas plus que ça (et puis, je préfère mettre l'argent dans l'écran, entre autre)...
C'est normal. Je m'étais débrouillé, il y a déjà 4 ans, avec un vieux PC qui avait seulement 8 Go de RAM. Ça traînait un peu, mais le traitement se faisait, même avec DxO Prime.
Actuellement J'ai 32 Go de RAM et j'avoue que rarement elle est occupée à plus du 50%. Pour des travaux classiques, 16 Go peuvent suffire, mais si on fait souvent des panoramas, 32 Go peuvent s'avérer nécessaires.

Verso92

#34
Citation de: ChatOuille le Février 20, 2025, 18:20:50C'est normal. Je m'étais débrouillé, il y a déjà 4 ans, avec un vieux PC qui avait seulement 8 Go de RAM. Ça traînait un peu, mais le traitement se faisait, même avec DxO Prime.
Actuellement J'ai 32 Go de RAM et j'avoue que rarement elle est occupée à plus du 50%. Pour des travaux classiques, 16 Go peuvent suffire, mais si on fait souvent des panoramas, 32 Go peuvent s'avérer nécessaires.

Après, comme expliqué précédemment, tant que ça répond instantanément aux curseurs de Capture One, ça ne me pénalise pas (il n'y a que quand je passe de zoom fit à 100% écran que j'ai quelquefois un lag de 1 à 2s pour que la netteté se fasse).

Comme je ne développe qu'une image à la fois, ça me convient tout à fait. Après, peut-être que LR est plus gourmand que C1, je ne sais pas...

Et comme je ne fais que de temps à autre un pré-traitement avec DeepPRIME (~10mn avec DPL8, idem avec les i7 du club photo), c'est là aussi du temps masqué. Il est bien évident que si j'avais des dizaines d'images à développer par lot avec DeepPRIME, ça le ferait pas...  ;-)


Il m'arrive de temps à autre de faire des panos avec C1 (7 à 8 RAW de D850), et ce n'est pas si long que ça.


A chacun de voir en fonction de son activité photographique.

oeufmollet

En général, on peut choisir quelle puce s'occupe du traitement, pour choisir entre CPU et GPU.
C'est clairement le cas dans PureRaw, dans PS/LR il y a un paramètre mais je ne sais pas s'il est toujours utilisé, vu que certains outils sont maintenant gérés par IA : quelle puce est utilisée dans ce cas ? Seules les dernières puces ont des éléments spécialisés en traitement IA, il me semble ?
CanonR6, M50mk1, 100D défiltré

jla46

J'ai bien compris qu'une GPU performante (et chère) permettait d'obtenir des temps de débruitage très courts ... mon interrogation concerne plutôt le très faible taux d'utilisation de ma modeste carte (GTX 1660 super) alors qu'elle est bien reconnue dans les paramètres de LR. 

egtegt²

Citation de: jla46 le Février 21, 2025, 16:24:43J'ai bien compris qu'une GPU performante (et chère) permettait d'obtenir des temps de débruitage très courts ... mon interrogation concerne plutôt le très faible taux d'utilisation de ma modeste carte (GTX 1660 super) alors qu'elle est bien reconnue dans les paramètres de LR.
Il y a plusieurs explications possibles : La première c'est qu'il faut bien garder à l'esprit que ce que tu vois n'est pas le taux d'utilisation de ta carte mais ce que la carte remonte comme taux d'utilisation, ce que je veux dire c'est qu'il ne faut pas toujours prendre les valeurs de performance pour de l'argent comptant.

La seconde c'est qu'une GPU est capable de faire des calculs massivement parallélisés, par exemple ta GTX 1060 a aux alentours de 1200 cœurs (une RTX 5090 c'est 21000 coeurs). Pour du calcul 3D pur, on arrive en général à bien paralléliser et à utiliser ces cœurs mais pour des algorithmes plus complexes de traitement d'image, c'est pas toujours facile de paralléliser aussi efficacement. Du coup ton taux d'utilisation signifie peut-être simplement que seulement quelques dizaines de cœurs sont utilisés, ce qui est déjà bien plus que les cœurs de ton processeur.

Une autre possibilité c'est que pour utiliser la carte graphique, le logiciel doit d'abord lui transférer les données à traiter, il est possible que ça soit ça qui prenne du temps et qui fait que la carte ne fait rien pendant qu'elle reçoit les données à traiter.

Bref c'est pas simple de savoir exactement, seul le développeur pourrait savoir, et c'est même pas évident.

jla46

Je précise que le tout dernier pilote de la série "Studio" est installé...

jla46


philo_marche

Citation de: oeufmollet le Février 21, 2025, 11:49:50En général, on peut choisir quelle puce s'occupe du traitement, pour choisir entre CPU et GPU.
C'est clairement le cas dans PureRaw, dans PS/LR il y a un paramètre mais je ne sais pas s'il est toujours utilisé, vu que certains outils sont maintenant gérés par IA : quelle puce est utilisée dans ce cas ? Seules les dernières puces ont des éléments spécialisés en traitement IA, il me semble ?

Dans LR, ça se règle normalement dans les "préférences".
L'option "auto" prend en compte la CGU.
Sinon, il faut personnaliser le réglage.

andreP

Citation de: philo_marche le Février 20, 2025, 11:03:43L'i5 est complètement dépassé pour la photo (10 min pour une photo avec DeepPRIME!).
M'étonnerait que ça intéresse l'auteur de ce fil.
Ici, on parle de configuration sérieuse : par exemple, un Dell Alienware M18 R2 (i9 14 900 HX 14e génération + CG NVIDIA RTX 4070) exporte un NEF en DNG avec DeepPRIME XD (DXO PhotoLab v7.5) en 3 secondes! :) 
La CG NVIDIA RTX 4090 coûte 1 200 € en plus que la RTX 4070... pour des performances 40 % plus élevées.

Pour le débruitage DxO le processeur n'est d'aucune utilité (seule la fluidité de l'interface est impactée et un i5 fait le job), c'est la carte graphique la pièce maitresse !
Je pense qu'il en est de même avec les dernières versions Lightroom.
André

philo_marche

Citation de: andreP le Février 22, 2025, 10:04:38Pour le débruitage DxO le processeur n'est d'aucune utilité (seule la fluidité de l'interface est impactée et un i5 fait le job), c'est la carte graphique la pièce maitresse !
Je pense qu'il en est de même avec les dernières versions Lightroom.

On est bien d'accord andreP et c'est pour cette raison que j'avais mis en évidence les infos sur les cartes graphiques, de plus en plus chères, malheureusement.
On sait pourquoi les actions de NVIDIA ont tellement grimpé en bourse...  ;) 

jla46

En corollaire de ce fil, pour certaines GPU il est utile de connaitre la puissance max du bloc d'alim... Me concernant, je n'arrive pas à le connaitre. mon Dell PRECISION 3650 peut être doté de 4 alims de puissances différentes, et même en relevant la référence étiquetée sur le bloc, je ne trouve nulle part, le moindre renseignement...là encore si parmi vous quelqu'un  a une piste, je suis toute ouïe...

Verso92

Citation de: jla46 le Février 23, 2025, 17:37:52En corollaire de ce fil, pour certaines GPU il est utile de connaitre la puissance max du bloc d'alim... Me concernant, je n'arrive pas à le connaitre. mon Dell PRECISION 3650 peut être doté de 4 alims de puissances différentes, et même en relevant la référence étiquetée sur le bloc, je ne trouve nulle part, le moindre renseignement...là encore si parmi vous quelqu'un  a une piste, je suis toute ouïe...

A tout hasard, c'est quoi la référence sur l'étiquette ?

(sinon, tu n'as pas le manuel de ton Dell ?)

jla46

La ref étiquetée sur le bloc alim est: 13P1-5YU0101, et sa recherche ne m'a mené à rien. Dell ne répond pas et la notice de l'appareil fait état de 4 alims sans préciser comment on les reconnait...

egtegt²

Citation de: jla46 le Février 25, 2025, 15:49:45La ref étiquetée sur le bloc alim est: 13P1-5YU0101, et sa recherche ne m'a mené à rien. Dell ne répond pas et la notice de l'appareil fait état de 4 alims sans préciser comment on les reconnait...
Il n'y a pas la puissance sur ton bloc d'alim ? ou une autre référence ?

jla46

D'après l'IA de Qwant, il s'agirait d'une alim de 300W (la moins puissante des 4 disponibles, évidemment!). Si ça se confirme, en cas de changement de GPU, soit j'en trouve une avec à peu près la même conso (une centaine de Watts) soit je devrais aussi changer le bloc d'alim...

jla46

Citation de: egtegt² le Février 25, 2025, 16:42:30Il n'y a pas la puissance sur ton bloc d'alim ? ou une autre référence ?
helas non !

Verso92

Citation de: jla46 le Février 25, 2025, 16:48:16D'après l'IA de Qwant, il s'agirait d'une alim de 300W (la moins puissante des 4 disponibles, évidemment!). Si ça se confirme, en cas de changement de GPU, soit j'en trouve une avec à peu près la même conso (une centaine de Watts) soit je devrais aussi changer le bloc d'alim...

Même réponse de Chat GPT :