Bonjour,
actuellement je dispose d'un pc assez moyen ( I9 - 32 Gb memoire - Nvidia 2070 ) qui fonctionne tres bien pour traiter les photos provenant de mon R5.
Par contre, j'ai eut l'occasion de passer au FujiFilm GFX 100 II et la, misère les traitements sous photoshop et ligthroom sont super lent. J'imagine que mon pc n'est pas assez dimensionné pour supporter le traitement de fichier de 100 Mpixels.
Ma question, en plus de passer à 64 Gb de mémoire, passer à une carte graphique plus puissante pourrait il avoir un impact significatif? Je compte prendre une Nvidia 5090 avec 32gb de mémoire si tel était le cas.
Merci d'avance pour vos conseils
gb de ram passer à 64gb de ram et prendre une CG avec à minima 8gb de ram, 12 ou 16 étant l'idéal, devrait être salutaire
Citation de: kerbouta le Janvier 30, 2025, 11:52:55gb de ram passer à 64gb de ram et prendre une CG avec à minima 8gb de ram, 12 ou 16 étant l'idéal, devrait être salutaire
Oui, je compte bien passer à 64 gb de mémoire ( voir 128 ).
Ma question etait de savoir si une carte graphique puissante ( voir tres puissante ) pouvait grandement améliorer les performances Lightroom/photoshop. Si c'est le cas, je peux passer à une nvidia 5090 ( avec 32 gb de ram )
Je serais étonné que passer à 64 Go change grand chose, la mémoire a un impact sur les performances tant qu'il n'y en a pas assez, ensuite ça ne change plus grand chose. Et pour les logiciels de traitement photo, 32 Go est largement suffisant. C'est de toute façon simple à vérifier, il suffit d'aller dans le gestionnaire de tâches et regarder l'utilisation mémoire, si tu as quelques Go de mémoire disponible, en ajouter sera peu utile.
Pour la carte graphique, je viens de passer d'une 2070 à une 4060 sur un nouveau PC, les temps de traitement sont notablement meilleurs. Je l'avais déjà constaté avec le PC de mon fils qui a une 3060 (si je me souviens bien) Mais j'utilise essentiellement C1, je ne sais pas si c'est reportable pour LR ou Photoshop. Mais j'ai du mal à savoir si le gain vient de la CG, du processeur qui est lui aussi plus puissant ou de la RAM qui est plus rapide.
pour ex, avec un i9 13900, une cg 4080 16GB et 64 gb de Ram lr débruite pratiquement en instantané...
Citation de: kerbouta le Janvier 30, 2025, 17:59:48pour ex, avec un i9 13900, une cg 4080 16GB et 64 gb de Ram lr débruite pratiquement en instantané...
Ca fait rever ca. Sur des photos provenant de mon R5, le débruitage sous lightroom prend entre 30 secondes et 60 secondes. Pourtant j'ai un I9-32gb de mémoire et une nvidia 2070.
Sur les photos provenant du FujiFilm gfx 100 II, le click sur la photo ( pour zoomer ) prend à lui seul, 10 secondes facile.
Je voulais surtout savoir si un changement de carte graphique pourrais apporter un gain significatif sous lightroom/photoshop ( passer d'une 2070 à une 5090 ).
Citation de: kerbouta le Janvier 30, 2025, 11:52:55gb de ram passer à 64gb de ram et prendre une CG avec à minima 8gb de ram, 12 ou 16 étant l'idéal, devrait être salutaire
Une RTX2070 a normalement déjà 8Go non?
Pour les 64Go, à moins que tu aies Ps et Lr côte à côte avec des traitements lourds, je serais étonné que ça y fasse beaucoup. faut surveiller le gestionnaire de tâches onglet performances pour voir si c'est ça ou autre chose qui coince.
une rx 7600 xt devrait suffire...
c'est ce que j'avais envisagé comme CG avant de profiter d'une aubaine...
Avec Adobe, les cartes RTX accélèrent sensiblement les fonctions plus-ou-moins-marketées-autour-de-l'IA.
SSD ?
de préférence en M2 si la cm le permet...
Citation de: kerbouta le Janvier 30, 2025, 17:59:48pour ex, avec un i9 13900, une cg 4080 16GB et 64 gb de Ram lr débruite pratiquement en instantané...
Heuu, vous etes sur?
Je viens de changer la totalité de ma config :
CPU = AMD RYZEN 9 9900X
Carte mere= Asus Rog Crosshair x670 Hero
Memoire = 64GB CORSAIR DDR5 6000
Disque dur = 2TB Samsung 990 PRO Heatsink M.2 NVMe PCIe 4.0 x 4 retail
La seul piece que je n'ai pas changé, c'est la carte graphique, à savoir une 2070.
Je vois une amélioration, mais on est TRES loin de débruiter en instantané sous lightroom.
CitationHeuu, vous etes sur?
certain...
Citation de: kerbouta le Février 16, 2025, 09:57:00certain...
Ma nouvelle config est plus puissante que la votre, hormis la carte graphique. J'imagine donc que, la carte graphique apporte un gain significatif dans le traitement lightroom
sûrement...
Citation de: canddide le Février 15, 2025, 22:12:58Heuu, vous etes sur?
Je viens de changer la totalité de ma config :
CPU = AMD RYZEN 9 9900X
Carte mere= Asus Rog Crosshair x670 Hero
Memoire = 64GB CORSAIR DDR5 6000
Disque dur = 2TB Samsung 990 PRO Heatsink M.2 NVMe PCIe 4.0 x 4 retail
La seul piece que je n'ai pas changé, c'est la carte graphique, à savoir une 2070.
Je vois une amélioration, mais on est TRES loin de débruiter en instantané sous lightroom.
La carte graphique est très importante pour certains traitements ... dont le débruitage :) Entre une 4080 et un 2070, il y a un ratio de perf de plus de 4.
Citation de: canddide le Février 15, 2025, 22:12:58Je viens de changer la totalité de ma config :
CPU = AMD RYZEN 9 9900X
Carte mere= Asus Rog Crosshair x670 Hero
Memoire = 64GB CORSAIR DDR5 6000
Disque dur = 2TB Samsung 990 PRO Heatsink M.2 NVMe PCIe 4.0 x 4 retail
Un peu plus d'un smic dans une config, reste plus qu'à ajouter une autre smic pour la CG ^^
Rien que le choix de la CM (700/800€) me parait assez fou pour se rendre compte qu'une meilleure CG serait un meilleur choix ...
Surtout que c'est le sujet de la discussion et que certains indiquent qu'une 4060 ou 4080 sont mieux qu'une 2070.
Ce qui me fait dire que ton I9 avec l'achat de 32 Go de ram supp et d' une 4080 aurait (peut être) suffit.
Avez-vous entendu parler de la future RTX 5050 de Nvidia ? les rumeurs font état d'une carte avec 8Go de VRAM une conso discrète de 100W...pour moins de 300$...
Citation de: M [at] kro le Février 17, 2025, 15:41:47Un peu plus d'un smic dans une config, reste plus qu'à ajouter une autre smic pour la CG ^^
Rien que le choix de la CM (700/800€) me parait assez fou pour se rendre compte qu'une meilleure CG serait un meilleur choix ...
Surtout que c'est le sujet de la discussion et que certains indiquent qu'une 4060 ou 4080 sont mieux qu'une 2070.
Ce qui me fait dire que ton I9 avec l'achat de 32 Go de ram supp et d' une 4080 aurait (peut être) suffit.
Mon i9 était à la ramasse, et mes ram etaient de la ddr4.
Donc, je voulais partir sur nouveau cpu, donc changement de carte mere obligatoire ( et donc, changement de ram aussi ).
Par contre, je ne comprend vos allusions au smic. Mes composants ( avec le ventilo noctua ) m'ont couté 1.800€. Je ne savais pas que le smic était aussi élevé en france.
Je ne suis pas joueur, et je voulais mettre ma config à jour. Il semblerait que la carte graphique impact aussi les performance de lightroom... donc, j'ai commandé une 5090.
Citation de: canddide le Février 17, 2025, 22:37:42Je ne suis pas joueur, et je voulais mettre ma config à jour.
Il semblerait que la carte graphique impact aussi les performance de lightroom... donc, j'ai commandé une 5090.
C'est juste que tu es dans la démesure, bonne chance avec une 5090 ^^
N'oublie pas d'avoir une bonne alimentation, elle consomme bcp.
(et chauffe bcp aussi, au point de cramer parfois)
d'autant qu'une 5090 est plus que surdimmensionnée pour du traitement photo, surtout pour une machine n'étant pas dédiée aux jeux...
pour le coup vous avez la plus grosse puissante mais sera t elle la plus efficace ou la plus rationnelle/optimisée pour sa destination..?
Citation de: canddide le Février 17, 2025, 22:37:42Mon i9 était à la ramasse, et mes ram etaient de la ddr4.
J'ai oublié, c'était quel i9 ?
Il y a quelques différences entre DDR4 et DDR5, mais pas sur qu'on en voit réellement une différence.
Citation de: M [at] kro le Février 18, 2025, 11:07:29C'est juste que tu es dans la démesure, bonne chance avec une 5090 ^^
N'oublie pas d'avoir une bonne alimentation, elle consomme bcp.
(et chauffe bcp aussi, au point de cramer parfois)
La photo est un hobby, ce n'est pas mon métier.
Mon pc me sert pour travailler et accessoirement faire de la retouche photo. Comme celui ci devanait tres limite pour mes besoins professionnel également ( deep learning, machine learning, IA ), je cherchais une config qui puisse répondre à mes 2 besoins.
Mon ancien cpu etait un I9 10900K. Quand je lancais débruitage sous lightroom, mon cpu était à 100% tout le temps, et ca mettait un temps fou. Maintenant, pour le meme traitement, mon cpu tourne entre 25 et 30% grand max ( avec photoshop ouvert également à coté ).
Citation de: canddide le Février 18, 2025, 11:49:24Comme celui ci devanait tres limite pour mes besoins professionnel également ( deep learning, machine learning, IA ), je cherchais une config qui puisse répondre à mes 2 besoins.
OK là, je comprend mieux que tu souhaites une config "musclée", ce n'est pas qu'une machine pour traiter des photos ;)
Citation de: canddide le Février 18, 2025, 11:49:24La photo est un hobby, ce n'est pas mon métier.
Mon pc me sert pour travailler et accessoirement faire de la retouche photo. Comme celui ci devanait tres limite pour mes besoins professionnel également ( deep learning, machine learning, IA ), je cherchais une config qui puisse répondre à mes 2 besoins.
Mon ancien cpu etait un I9 10900K. Quand je lancais débruitage sous lightroom, mon cpu était à 100% tout le temps, et ca mettait un temps fou. Maintenant, pour le meme traitement, mon cpu tourne entre 25 et 30% grand max ( avec photoshop ouvert également à coté ).
Et pour la photo, est-ce qu'un i5 suffit ?
;-)
Citation de: Verso92 le Février 18, 2025, 21:19:15Et pour la photo, est-ce qu'un i5 suffit ?
;-)
Tu fais de la photo? ;D
Presque tout est suffisant si tu es patient ;D
C'est juste qu'avec une config de dingue, le traitement prendra 1/2sec, alors qu'avec une vieille config, si le traitement va au bout, il prendra 1/2heure ^^
(j'exagère volontairement, mais peut-etre pas tant que ça).
En vrai, j'ai l'impression que c'est surtout la RAM qui peut planter les traitements en cours de route si elle est insuffisante. Un petit processeur ralentira juste le traitement, pas sûr qu'il l'empêche d'aller au bout.
En tout cas, avec mon ancienne config (Ryzen 1600x), certains traitements Photoshop plantaient avant la fin quand j'avais que 16Go (genre assemblage pano de plein de RAW), alors que ça allait au bout avec 32Go. Avec ma nouvelle config (Ryzen 5600x pour remplacer le 1600x, pas touché à la ram et à la cg), la conso mémoire n'a pas changé mais les traitements sont nettement plus rapides quand ils sont gérés par le cpu. (pas encore eu l'occasion de faire de tests de perfs avec PureRAW)
Petite remarque en passant. Sur ma config, assez modeste j'en convient, (I7 10eme génération, 32 Go DDR6, GTX 1660 super) pendant le débruitage d'un NEF de 30Go : Occupation du processeur 5%, occupation RAM 50%, occupation GPU 4% !! temps total du calcul 50s ! Je ne suis pas un spécialiste mais je suis étonné de voir que la carte graphique sert aussi peu ! Un spécialiste parmi vous pourrait-il m'éclairer ?
Citation de: oeufmollet le Février 19, 2025, 09:30:16Presque tout est suffisant si tu es patient ;D
En ce qui me concerne, ma config i5 (6600K) avec 16 Go de RAM et une CG 1 Go (10 bits), qui commence à être ancienne, tient encore parfaitement la route en photo (développement avec Capture One de RAW de D850, 45 MPixels, principalement). Toutes les commandes répondent pratiquement instantanément.
Il n'y a qu'avec les traitements
DeepPRIME que ça "rame" (environ 2'30 avec DPL4, et pas loin de 10mn avec la toute dernière version). Comme c'est un pré-traitement de temps en temps, ça ne me gêne pas plus que ça (et puis, je préfère mettre l'argent dans l'écran, entre autre)...
Citation de: Verso92 le Février 19, 2025, 20:11:49En ce qui me concerne, ma config i5 (6600K) avec 16 Go de RAM et une CG 1 Go (10 bits), qui commence à être ancienne, tient encore parfaitement la route en photo (développement avec Capture One de RAW de D850, 45 MPixels, principalement). Toutes les commandes répondent pratiquement instantanément.
Il n'y a qu'avec les traitements DeepPRIME que ça "rame" (environ 2'30 avec DPL4, et pas loin de 10mn avec la toute dernière version). Comme c'est un pré-traitement de temps en temps, ça ne me gêne pas plus que ça (et puis, je préfère mettre l'argent dans l'écran, entre autres)...
L'i5 est complètement dépassé pour la photo (10 min pour une photo avec DeepPRIME!).
M'étonnerait que ça intéresse l'auteur de ce fil.
Ici, on parle de configuration sérieuse : par exemple, un Dell Alienware M18 R2 (i9 14 900 HX 14e génération + CG NVIDIA RTX 4070) exporte un NEF en DNG avec DeepPRIME XD (DXO PhotoLab v7.5) en 3 secondes! :)
La CG NVIDIA RTX 4090 coûte 1 200 € en plus que la RTX 4070... pour des performances 40 % plus élevées.
Et voici quelques infos sur la NVIDIA 5090, dont parlait canddide :
« Après des mois de rumeurs, Nvidia a présenté sa dernière génération de cartes graphiques pour ordinateurs de bureau et portables au CES 2025. La série RTX 50 est la gamme de GPU la plus rapide jamais développée par Nvidia. À partir de la RTX 5070, Nvidia affirme qu'elle offre des performances équivalentes à celles du modèle phare de la génération précédente, la RTX 4090, à seulement 549 $ au lieu des 1 599 $ de la 4090. En montant, la RTX 5070 Ti coûtera 749 $, 999 $ pour la RTX 5080, et 1 999 $ pour la RTX 5090. La RTX 5080 et la RTX 5090 seront disponibles à partir du 30 janvier, tandis que la RTX 5070 et la RTX 5070 Ti devraient faire leurs débuts en février. » (Source : Polygon)
Citation de: philo_marche le Février 20, 2025, 11:03:43L'i5 est complètement dépassé pour la photo (10 min pour une photo avec DeepPRIME!).
M'étonnerait que ça intéresse l'auteur de ce fil.
Ici, on parle de configuration sérieuse : par exemple, un Dell Alienware M18 R2 (i9 14 900 HX 14e génération + CG NVIDIA RTX 4070) exporte un NEF en DNG avec DeepPRIME XD (DXO PhotoLab v7.5) en 3 secondes! :)
La CG NVIDIA RTX 4090 coûte 1 200 € en plus que la RTX 4070... pour des performances 40 % plus élevées.
Merci pour le résumé. Effectivement, on parle de config TRES sérieuse, sans contrainte budgétaire. Apres avoir upgrader toute les pieces ( à l'exception de la carte graphique ( c'est en cours )), le constat est sans appel. Le processeur à un role important sous lightroom, mais pas pour débruiter. Lorsque je débruite sous lightroom, ca prend 10 secondes, mais le cpu est est 30% max. Donc, j'imagine que pour le débruitage, lightroom fait appel au gpu.
Citation de: Verso92 le Février 19, 2025, 20:11:49En ce qui me concerne, ma config i5 (6600K) avec 16 Go de RAM et une CG 1 Go (10 bits), qui commence à être ancienne, tient encore parfaitement la route en photo (développement avec Capture One de RAW de D850, 45 MPixels, principalement). Toutes les commandes répondent pratiquement instantanément.
Il n'y a qu'avec les traitements DeepPRIME que ça "rame" (environ 2'30 avec DPL4, et pas loin de 10mn avec la toute dernière version). Comme c'est un pré-traitement de temps en temps, ça ne me gêne pas plus que ça (et puis, je préfère mettre l'argent dans l'écran, entre autre)...
C'est normal. Je m'étais débrouillé, il y a déjà 4 ans, avec un vieux PC qui avait seulement 8 Go de RAM. Ça traînait un peu, mais le traitement se faisait, même avec DxO Prime.
Actuellement J'ai 32 Go de RAM et j'avoue que rarement elle est occupée à plus du 50%. Pour des travaux classiques, 16 Go peuvent suffire, mais si on fait souvent des panoramas, 32 Go peuvent s'avérer nécessaires.
Citation de: ChatOuille le Février 20, 2025, 18:20:50C'est normal. Je m'étais débrouillé, il y a déjà 4 ans, avec un vieux PC qui avait seulement 8 Go de RAM. Ça traînait un peu, mais le traitement se faisait, même avec DxO Prime.
Actuellement J'ai 32 Go de RAM et j'avoue que rarement elle est occupée à plus du 50%. Pour des travaux classiques, 16 Go peuvent suffire, mais si on fait souvent des panoramas, 32 Go peuvent s'avérer nécessaires.
Après, comme expliqué précédemment, tant que ça répond
instantanément aux curseurs de Capture One, ça ne me pénalise pas (il n'y a que quand je passe de
zoom fit à 100% écran que j'ai quelquefois un
lag de 1 à 2s pour que la netteté se fasse).
Comme je ne développe qu'une image à la fois, ça me convient tout à fait. Après, peut-être que LR est plus gourmand que C1, je ne sais pas...
Et comme je ne fais que de temps à autre un pré-traitement avec
DeepPRIME (~10mn avec DPL8, idem avec les i7 du club photo), c'est là aussi du temps masqué. Il est bien évident que si j'avais des dizaines d'images à développer par lot avec
DeepPRIME, ça le ferait pas... ;-)
Il m'arrive de temps à autre de faire des panos avec C1 (7 à 8 RAW de D850), et ce n'est pas si long que ça.
A chacun de voir en fonction de son activité photographique.
En général, on peut choisir quelle puce s'occupe du traitement, pour choisir entre CPU et GPU.
C'est clairement le cas dans PureRaw, dans PS/LR il y a un paramètre mais je ne sais pas s'il est toujours utilisé, vu que certains outils sont maintenant gérés par IA : quelle puce est utilisée dans ce cas ? Seules les dernières puces ont des éléments spécialisés en traitement IA, il me semble ?
J'ai bien compris qu'une GPU performante (et chère) permettait d'obtenir des temps de débruitage très courts ... mon interrogation concerne plutôt le très faible taux d'utilisation de ma modeste carte (GTX 1660 super) alors qu'elle est bien reconnue dans les paramètres de LR.
Citation de: jla46 le Février 21, 2025, 16:24:43J'ai bien compris qu'une GPU performante (et chère) permettait d'obtenir des temps de débruitage très courts ... mon interrogation concerne plutôt le très faible taux d'utilisation de ma modeste carte (GTX 1660 super) alors qu'elle est bien reconnue dans les paramètres de LR.
Il y a plusieurs explications possibles : La première c'est qu'il faut bien garder à l'esprit que ce que tu vois n'est pas le taux d'utilisation de ta carte mais ce que la carte remonte comme taux d'utilisation, ce que je veux dire c'est qu'il ne faut pas toujours prendre les valeurs de performance pour de l'argent comptant.
La seconde c'est qu'une GPU est capable de faire des calculs massivement parallélisés, par exemple ta GTX 1060 a aux alentours de 1200 cœurs (une RTX 5090 c'est 21000 coeurs). Pour du calcul 3D pur, on arrive en général à bien paralléliser et à utiliser ces cœurs mais pour des algorithmes plus complexes de traitement d'image, c'est pas toujours facile de paralléliser aussi efficacement. Du coup ton taux d'utilisation signifie peut-être simplement que seulement quelques dizaines de cœurs sont utilisés, ce qui est déjà bien plus que les cœurs de ton processeur.
Une autre possibilité c'est que pour utiliser la carte graphique, le logiciel doit d'abord lui transférer les données à traiter, il est possible que ça soit ça qui prenne du temps et qui fait que la carte ne fait rien pendant qu'elle reçoit les données à traiter.
Bref c'est pas simple de savoir exactement, seul le développeur pourrait savoir, et c'est même pas évident.
Je précise que le tout dernier pilote de la série "Studio" est installé...
Merci pour ces précisions egtegt²
Citation de: oeufmollet le Février 21, 2025, 11:49:50En général, on peut choisir quelle puce s'occupe du traitement, pour choisir entre CPU et GPU.
C'est clairement le cas dans PureRaw, dans PS/LR il y a un paramètre mais je ne sais pas s'il est toujours utilisé, vu que certains outils sont maintenant gérés par IA : quelle puce est utilisée dans ce cas ? Seules les dernières puces ont des éléments spécialisés en traitement IA, il me semble ?
Dans LR, ça se règle normalement dans les "préférences".
L'option "auto" prend en compte la CGU.
Sinon, il faut personnaliser le réglage.
Citation de: philo_marche le Février 20, 2025, 11:03:43L'i5 est complètement dépassé pour la photo (10 min pour une photo avec DeepPRIME!).
M'étonnerait que ça intéresse l'auteur de ce fil.
Ici, on parle de configuration sérieuse : par exemple, un Dell Alienware M18 R2 (i9 14 900 HX 14e génération + CG NVIDIA RTX 4070) exporte un NEF en DNG avec DeepPRIME XD (DXO PhotoLab v7.5) en 3 secondes! :)
La CG NVIDIA RTX 4090 coûte 1 200 € en plus que la RTX 4070... pour des performances 40 % plus élevées.
Pour le débruitage DxO le processeur n'est d'aucune utilité (seule la fluidité de l'interface est impactée et un i5 fait le job), c'est la carte graphique la pièce maitresse !
Je pense qu'il en est de même avec les dernières versions Lightroom.
Citation de: andreP le Février 22, 2025, 10:04:38Pour le débruitage DxO le processeur n'est d'aucune utilité (seule la fluidité de l'interface est impactée et un i5 fait le job), c'est la carte graphique la pièce maitresse !
Je pense qu'il en est de même avec les dernières versions Lightroom.
On est bien d'accord andreP et c'est pour cette raison que j'avais mis en évidence les infos sur les cartes graphiques, de plus en plus chères, malheureusement.
On sait pourquoi les actions de NVIDIA ont tellement grimpé en bourse... ;)
En corollaire de ce fil, pour certaines GPU il est utile de connaitre la puissance max du bloc d'alim... Me concernant, je n'arrive pas à le connaitre. mon Dell PRECISION 3650 peut être doté de 4 alims de puissances différentes, et même en relevant la référence étiquetée sur le bloc, je ne trouve nulle part, le moindre renseignement...là encore si parmi vous quelqu'un a une piste, je suis toute ouïe...
Citation de: jla46 le Février 23, 2025, 17:37:52En corollaire de ce fil, pour certaines GPU il est utile de connaitre la puissance max du bloc d'alim... Me concernant, je n'arrive pas à le connaitre. mon Dell PRECISION 3650 peut être doté de 4 alims de puissances différentes, et même en relevant la référence étiquetée sur le bloc, je ne trouve nulle part, le moindre renseignement...là encore si parmi vous quelqu'un a une piste, je suis toute ouïe...
A tout hasard, c'est quoi la référence sur l'étiquette ?
(sinon, tu n'as pas le manuel de ton Dell ?)
La ref étiquetée sur le bloc alim est: 13P1-5YU0101, et sa recherche ne m'a mené à rien. Dell ne répond pas et la notice de l'appareil fait état de 4 alims sans préciser comment on les reconnait...
Citation de: jla46 le Février 25, 2025, 15:49:45La ref étiquetée sur le bloc alim est: 13P1-5YU0101, et sa recherche ne m'a mené à rien. Dell ne répond pas et la notice de l'appareil fait état de 4 alims sans préciser comment on les reconnait...
Il n'y a pas la puissance sur ton bloc d'alim ? ou une autre référence ?
D'après l'IA de Qwant, il s'agirait d'une alim de 300W (la moins puissante des 4 disponibles, évidemment!). Si ça se confirme, en cas de changement de GPU, soit j'en trouve une avec à peu près la même conso (une centaine de Watts) soit je devrais aussi changer le bloc d'alim...
Citation de: egtegt² le Février 25, 2025, 16:42:30Il n'y a pas la puissance sur ton bloc d'alim ? ou une autre référence ?
helas non !
Citation de: jla46 le Février 25, 2025, 16:48:16D'après l'IA de Qwant, il s'agirait d'une alim de 300W (la moins puissante des 4 disponibles, évidemment!). Si ça se confirme, en cas de changement de GPU, soit j'en trouve une avec à peu près la même conso (une centaine de Watts) soit je devrais aussi changer le bloc d'alim...
Même réponse de Chat GPT :
Dans mon cas j'ai équipé mon PC d'une GTX1660 SUPER, j'avais bien le bon cordon d'alim avec ses connecteurs à 8 broches...Aurai-je une alim de 430 W ?
J'ai 5 disques durs + graveur de DVD. CG RTX 2060 SUPER. J'ai choisi une alimentation de 750W. C'est peut-être un peu surdimensionné, mais d'après l'information dont je dispose, la puissance s'adapte automatiquement à la demande.
Citation de: ChatOuille le Février 26, 2025, 17:55:49C'est peut-être un peu surdimensionné, mais d'après l'information dont je dispose, la puissance s'adapte automatiquement à la demande.
Ben... la puissance sera celle consommée par la machine (au rendement près de l'alim, en général élevé avec les alims à découpage).
L'alim ne fait que fournir ce qu'on lui demande. Les problèmes arrivent quand on lui en demande plus qu'elle ne peut en fournir... ;-)
Le fait de surdimensionner une alim peut aussi avoir un petit impact sur son efficacité, les rendements varient en fonction du taux de charge, mais rien de bien dramatique, ça risque juste de te faire consommer quelques Watts en plus.
Ce que j'aimerais savoir est ce que cette adaptation de la puissance à la charge veut dire.
Dans le calcul, ne pas oublier d'inclure le CPU, car certains ont de bonnes consommations.
Citation de: ChatOuille le Février 27, 2025, 17:14:34Ce que j'aimerais savoir est ce que cette adaptation de la puissance à la charge veut dire.
L'alimentation fournit la puissance demandée, rien de plus compliqué. Si tu branches une ampoule de 10W, elle consomme 10W, tu ne te demandes pas la puissance de la centrale qui t'alimente :)
Citation de: egtegt² le Février 28, 2025, 14:05:47L'alimentation fournit la puissance demandée, rien de plus compliqué. Si tu branches une ampoule de 10W, elle consomme 10W, tu ne te demandes pas la puissance de la centrale qui t'alimente :)
Ben voilà... ;-)
Ça me rappelle une anecdote avec une de mes stagiaires (5e année pour son diplôme d'ingénieur en électronique). Elle avait terminé son montage mais mes collègues, méfiants, lui avait dit d'attendre mon retour de vacances avant de le mettre sous tension.
Le jour J, alim de labo et montage installés, je lui demande comment elle va régler les boutons "U" (tension) et "I" (limitation de courant) de l'alim de labo.
- "
le bouton "U" sur 5V, et le bouton "I" sur 0,1A".
Étonné par sa réponse pour le "I", je lui demande pourquoi "0,1A"... elle me répond que, à l'école, on règle toujours le "I" sur 0,1A lors des TP...
Je lui demande alors combien l'alim débite à vide avec ce bouton réglé sur 0,1A. Surprise par ma question, elle me répond : "
ben, 0,1A !".
- "
Et si on met le bouton "I" sur 1A ?"
- "
Ben, 1A !"
Citation de: egtegt² le Février 28, 2025, 14:05:47L'alimentation fournit la puissance demandée, rien de plus compliqué. Si tu branches une ampoule de 10W, elle consomme 10W, tu ne te demandes pas la puissance de la centrale qui t'alimente :)
Toutes les alimentations font ça (que je sache). Mais certaines prônent qu'elles sont adaptables à la puissance demandée. C'est ça ce que je ne comprends pas. Peut-être qu'elles seraient composées de plusieurs parties (circuits) et certaines parties n'entreraient en fonctionnement qu'en cas d'incrémentation de la demande ? ???
Citation de: ChatOuille le Février 28, 2025, 22:26:47Toutes les alimentations font ça (que je sache). Mais certaines prônent qu'elles sont adaptables à la puissance demandée. C'est ça ce que je ne comprends pas. Peut-être qu'elles seraient composées de plusieurs parties (circuits) et certaines parties n'entreraient en fonctionnement qu'en cas d'incrémentation de la demande ? ???
une alimentation électrique fourni ce qui lui est demandé...avec pour limite la puissance maximale qu'elle est capable de fournir : ça c'est très clair. Mon pb à moi, c'est que je n'arrive pas à connaître ce maxi ! On ne peut d'ailleurs pas le mesurer sans lui demander de débiter cette puissance maximale... voilà.
Certainement j'ai compris, mais je parlais d'autre chose. Mais apparemment personne ne sait. J'aurais aimé savoir ce qui ont de spécial ces cartes modulaires, car vraisemblablement le rendement optimal s'adapte automatiquement à la puissance d'émanée. ???
Citation de: ChatOuille le Mars 01, 2025, 19:03:34Certainement j'ai compris, mais je parlais d'autre chose. Mais apparemment personne ne sait. J'aurais aimé savoir ce qui ont de spécial ces cartes modulaires, car vraisemblablement le rendement optimal s'adapte automatiquement à la puissance d'émanée. ???
Si tu parles de rendement optimal c'est autre chose : une alimentation n'a pas un rendement constant voici un exemple trouvé rapidement sur google, on voit vite que le rendement optimal est vers les 50% de charge. Donc si ton PC a besoin de 300W par exemple, une alimentation 300W suffira mais une alimentation 600W sera optimale, par contre une alimentation 1500 W sera trop puissante et donc perdra plus d'énergie.
(https://www.courstechinfo.be/Hard/Images/Spec80Plus.png)
Mais bon, au final ça ne change par énormément, il faut surtout que l'alimentation soit suffisante pour ton PC.
Pour les alimentations modulaires, ça n'a rien à voir, ce sont des alimentations qui au lieu d'avoir des câbles qui sortent de l'alimentation ont des connecteurs, ça permet surtout de ne pas avoir de câbles inutilisés qui se trimbalent dans le PC. C'est surtout important pour les PC gamer avec une vitre qui permet d'admirer l'intérieur du PC :)
Ou alors tu parles d'autre chose que je ne connais pas.
Peut-être que le contrôle du ventilateur entre aussi en jeu pour le rendement global.
Curieusement, le tableau dont je disposais était moins optimiste.
Citation de: ChatOuille le Mars 03, 2025, 19:12:30Peut-être que le contrôle du ventilateur entre aussi en jeu pour le rendement global.
Curieusement, le tableau dont je disposais était moins optimiste.
Possible, pour les chiffres je suppose qu'il peuvent varier, de toute façon c'était pour illustrer le fait qu'il y a un rendement maximum à 50% qui devrait donc être la cible pour une alim.
Lorsque j'ai pris une alim de 750W on m'a dit que j'étais surdimensionné, mais finalement j'ai donc un meilleur rendement. Et de la marge en cas de demande supérieure.
Citation de: ChatOuille le Mars 04, 2025, 18:31:29Lorsque j'ai pris une alim de 750W on m'a dit que j'étais surdimensionné, mais finalement j'ai donc un meilleur rendement. Et de la marge en cas de demande supérieure.
Est-ce que tu as mesuré la consommation exacte ?
Citation de: egtegt² le Mars 03, 2025, 17:07:38Si tu parles de rendement optimal c'est autre chose : une alimentation n'a pas un rendement constant voici un exemple trouvé rapidement sur google, on voit vite que le rendement optimal est vers les 50% de charge.
Quand je concevais des cartes électroniques, je m'arrangeais pour que les convertisseurs DC/DC (à découpage) travaillent aux alentours de 90% de rendement (le max).
Pour une alimentation externe, c'est moins critique.
Citation de: egtegt² le Mars 05, 2025, 11:37:46Est-ce que tu as mesuré la consommation exacte ?
Oui, mais je ne m'en souviens plus. Je vais le refaire. Mais il faut tenir compte que toutes les unités ne travaillent pas en mème temps. La puissance demandée varie.
Citation de: Verso92 le Mars 05, 2025, 14:30:13Quand je concevais des cartes électroniques, je m'arrangeais pour que les convertisseurs DC/DC (à découpage) travaillent aux alentours de 90% de rendement (le max).
Pour une alimentation externe, c'est moins critique.
De toute façon quand on voit les rendements et la consommation d'un PC, ça ne va pas non plus changer la face du monde de perdre 3 ou 4 % de rendement.
pour éviter toutes fautes de gout le mieux est d'additionner toutes les consos de chacun des composants de la machine et de sélectionner son alim en fonction de cette somme,
ce ne sont pas les 10/15€ en écart de prix entre, par ex, une 750 et une 800w qui vont changer la face des choses...
Citation de: kerbouta le Mars 06, 2025, 11:48:26pour éviter toutes fautes de gout le mieux est d'additionner toutes les consos de chacun des composants de la machine et de sélectionner son alim en fonction de cette somme,
Le problème, c'est qu'on ne les connait pas vraiment...
Citation de: egtegt² le Mars 05, 2025, 23:53:44De toute façon quand on voit les rendements et la consommation d'un PC, ça ne va pas non plus changer la face du monde de perdre 3 ou 4 % de rendement.
C'est aussi mon idée. Il vaut mieux de surdimensionner un peu car on a de la marge lorsqu'on ajoute des éléments. De plus, il semble donc que le rendement est meilleur lorsqu'on n'atteint pas le 100%.
Citation de: Verso92 le Mars 06, 2025, 20:35:14Le problème, c'est qu'on ne les connait pas vraiment...
La majorité des fabricants publie la consommation max des différents composants. Pour les éléments peu consommateurs on peut prendre une valeur moyenne globale et on peut affiner avec la consommation des gros consommateurs que sont la carte graphique et le processeur.
Par exemple un processeur consomme entre 50 et 100 W selon le modèle choisi, pour une carte graphique c'est entre 50 et 300 W selon le modèle.
Pour la carte mère et tout ce qui reste, c'est entre 50 et 100 W
Donc en gros tu compte 100 W de base, les valeurs de ton processeur et de ta carte graphique et tu as la consommation en pointe. Ensuite tu ajoutes 200 ou 300W pour faire bonne mesure et tu as l'alim qu'il te faut :)
C'est pas du calcul de précision, c'est juste pour avoir une idée. Un PC bas de gamme consomme en pointe 200 W et nécessite en gros une alim de 400W, un PC avec une grosse carte graphique et un processeur gourmand consomme en pointe 500W et nécessite une alim de 750 ou 800W.
Ensuite si tu t'amuses avec une config super haut de gamme avec deux cartes graphiques, 5 disques durs, 256 Go de RAM et quelques cartes additionnelles pour faire bonne mesure, alors tu tapes dans les alims à 1200 W sans trop réfléchir. De toute façon à ce niveau de configuration, le prix de l'alim est négligeable.
Bonjour tout le monde.
Je reviens ici pour vous faire part de mes constatations et demander de l'aide pour l'optimisation des performances sous lightroom.
Comme expliqué initialement, j'ai pratiquement changé toute les pieces de mon pc:
CPU = AMD RYZEN 9 9900X
Carte mere= Asus Rog Crosshair x670 Hero
Memoire = 64GB CORSAIR DDR5 6000
Disque dur = 2TB Samsung 990 PRO Heatsink M.2 NVMe PCIe 4.0 x 4 retail
Cela a eut pour conséquence, une amélioration net dans lightroom concernant la navigation dans mes photos, modifications des parametres ( couleur, lumiere ou autre ), mais aucun gain au niveau du processus de la réduction du bruit.
J'ai finalement installé une RTX 5090 dans mon pc, et le traitement de réduction du bruit a été divisé par 2 voir 3. Cela dit, pour traiter le bruit sur des photos d'un GFX 100II, cela met encore entre 10 et 20 secondes.
Est ce que ce temps de traitement vous parait normal? un peut plus haut, certains affirmaient un traitement instantané avec une 4080.
Merci d'avance pour votre aide.
Ps : afin d'éviter tout débat stérile sur l'utilité ou la surdimension de ma config pour de la photo, je me permet juste de rappeler que c'est un pc essentiellement à usage d'IA/machine learning/deeplearning.
Peut-être qu'il y a d'autres éléments qui tirent déjà sur la CG, en + de la réduction de bruit ?
Y compris dans LR, comme la taille des miniatures, etc., pas évident que ce soit géré par la CG, mais peut-etre que d'autres paramètres peuvent l'utiliser ?
Citation de: canddide le Mai 12, 2025, 11:22:08Bonjour tout le monde.
Je reviens ici pour vous faire part de mes constatations et demander de l'aide pour l'optimisation des performances sous lightroom.
Comme expliqué initialement, j'ai pratiquement changé toute les pieces de mon pc:
CPU = AMD RYZEN 9 9900X
Carte mere= Asus Rog Crosshair x670 Hero
Memoire = 64GB CORSAIR DDR5 6000
Disque dur = 2TB Samsung 990 PRO Heatsink M.2 NVMe PCIe 4.0 x 4 retail
Cela a eut pour conséquence, une amélioration net dans lightroom concernant la navigation dans mes photos, modifications des parametres ( couleur, lumiere ou autre ), mais aucun gain au niveau du processus de la réduction du bruit.
J'ai finalement installé une RTX 5090 dans mon pc, et le traitement de réduction du bruit a été divisé par 2 voir 3. Cela dit, pour traiter le bruit sur des photos d'un GFX 100II, cela met encore entre 10 et 20 secondes.
Est ce que ce temps de traitement vous parait normal? un peut plus haut, certains affirmaient un traitement instantané avec une 4080.
Merci d'avance pour votre aide.
Ps : afin d'éviter tout débat stérile sur l'utilité ou la surdimension de ma config pour de la photo, je me permet juste de rappeler que c'est un pc essentiellement à usage d'IA/machine learning/deeplearning.
Bonjour
oui c'est logique. Pour te dire avec une RTX4090 et des RAW de Nikon Z8 il me faut 4sec... mais plutot 40sec avec un PC de gamer classique et plus de 1 minute avec un Mac Mini M4.
Enfin Lightroom classique est TRES mal optimisé donc certaines taches, quelques soient ta machine, resteront lentes. Il y a également un soucis avec windows.
Alors en ce moment mon PC c'est un Ryzen9 3900X avec 64Go et une rTX409 et tout en SSD samsung 990PRO
...et bien beaucoup de taches sous LR dynamique (pas les batchs mais l'utilisation face à l'ecran et souris à la main) sont plus rapide sur mon MBAir M4 de base.
Sinon comme je fais de l'IA, de la 3D etc... j'ai le même besoin en gros PC. J'"ai commandé un PC avec Ryzen 9950X3D, RTX5090 et 96Go de RAM mais je ne pense pas que ca change quoique ce soit à LR.
Tu as les tests de Puget systems pour voir et tu peux même executer le bench sur ta machine pour voir si tes résultats sont logiques ou non face aux leurs.
Citationun peut plus haut, certains affirmaient un traitement instantané avec une 4080.
Citation de: kerbouta le Janvier 30, 2025, 17:59:48pour ex, avec un i9 13900, une cg 4080 16GB et 64 gb de Ram lr débruite pratiquement en instantané...
je confirme pour des RAW de 45 Méga...
Citation de: kerbouta le Mai 13, 2025, 18:10:25je confirme pour des RAW de 45 Méga...
Je n'ai aucun doute sur vos propos, je cherche juste à optimiser mes performances.
Par ailleurs, traiter un fichier de 102 Mpixel en 16 bits doit quand meme prendre plus de temps ( je suis passé au GFX 100 II entre temps ).
Mais bien sur mon cher verso! Et heureusement ! Une mauvaise photo sur un ordinateur à 1 milliard d'euros sera toujours mauvaise. Faut arreter la course à la super config... mon I5 me va très bien, les photos du Z5 passent à merveille, un peu qu'on s'applique à la prise de vue. L'ordinateur devrait être là juste pour recadrer et paufiner la balance couleur... Et mon durst m605 debruite à la vitesse de la lumière ! :D
Citation de: patoche1 le Mai 13, 2025, 21:04:55Mais bien sur mon cher verso! Et heureusement ! Une mauvaise photo sur un ordinateur à 1 milliard d'euros sera toujours mauvaise. Faut arreter la course à la super config... mon I5 me va très bien, les photos du Z5 passent à merveille, un peu qu'on s'applique à la prise de vue. L'ordinateur devrait être là juste pour recadrer et paufiner la balance couleur... Et mon durst m605 debruite à la vitesse de la lumière ! :D
Quel est la valeur ajouté de votre intervention???
Pffff à toi de voir.....
Citation de: kerbouta le Mai 13, 2025, 18:10:25je confirme pour des RAW de 45 Méga...
alors perso j'ai préféré faire un batch de 1000 images et diviser, et là on se rend compte qu'il faut charger, calculer les valeurs à appliquer, etc... et c'est plus long. Mais oui avec une grosse CG et un RAW de 45MP ca va assez vite, beaucoup moins sur une config plus petite ou un petit mac même recent