lenteur lr réduction du bruit (ia)

Démarré par meregigi, Décembre 19, 2025, 09:31:00

« précédent - suivant »

meregigi

Cette fonction est remarquable mais sur un portable sans carte dédiée, d'une lenteur extrême.
Pensez-vous qu'adobe accélère la procédure?

Alain c

Non, l'IA coute cher à tous les niveaux. :-\
Matérialiser l'immatériel

ALEXUR

Les grands stratèges du numérique prévoyaient l'arrivée relativement rapide des ordinateurs quantiques, capables de rendre possibles — grâce à l'IA — des traitements de données jusque-là quasi impossibles sur des machines classiques. À cette époque, l'intelligence artificielle, encore largement expérimentale, semblait hors de portée pour des applications « grand public ».

Or, le développement des IA a été fulgurant. Leur démocratisation s'est faite bien plus vite que prévu, au point que les technologies actuelles de nos ordinateurs traditionnels risquent déjà d'atteindre leurs limites.

Oui, l'IA coûte cher à tous les niveaux, et ce n'est que le début.

Le plus préoccupant est sans doute ce qui nous attend. Aujourd'hui, les coûts de développement, d'intégration et d'exploitation des IA sont très loin d'être réellement amortis par les tarifs pratiqués, qui restent largement sous-facturés — même si certaines hausses ont déjà été observées récemment. D'un point de vue économique, nous sommes encore clairement dans une phase de captation de clientèle.

Une clientèle qui, dans un avenir proche, ne pourra plus se passer de l'IA. Cela fait planer un risque réel : celui d'une explosion des prix des services basés sur l'IA dans les deux ou trois prochaines années, une fois que tous ceux qui auront mis les doigts dans ce joli pot de confiture seront devenus... accros à l'IA.

jesus

Il va y avoir des améliorations à tous niveaux, le besoin de puissance et de consommation d'énergie vont baisser.
Les usages vont augmenter...

Alain c

Citation de: jesus le Décembre 19, 2025, 18:48:48Il va y avoir des améliorations à tous niveaux, le besoin de puissance et de consommation d'énergie vont baisser.
Les usages vont augmenter...
Depuis un vingtaine dannée, dans le domaine de la photo, on constate que c'est le contraire qui se passe .
J'ai bien peur que Alexur n'ait raison, le sociétés qui investissent des milliards dans l'IA le font pour l'argent, ne revons pas.
Matérialiser l'immatériel

ALEXUR

Citation de: jesus le Décembre 19, 2025, 18:48:48Il va y avoir des améliorations à tous niveaux, le besoin de puissance et de consommation d'énergie vont baisser.
Les usages vont augmenter...

Et bien moi, je ne crois pas aux miracles des « améliorations » qui nous promettent des baisses de la consommation électrique. Un serveur HPC actuel, c'est de 1 à 10 kW. On estime qu'un ordinateur quantique consommera entre 10 et 25 kW, auxquels il ne faut pas oublier d'ajouter la consommation de tous les PC (et des milliards de smartphones / photophones / iPhones / tablettes) qui devront s'y connecter, ainsi que toute la chaîne d'acheminement des données, aller et retour.

Pourquoi cet avis contraire au tien ?

J'ai appris et commencé l'informatique sur PC sans disque dur, avec double disquettes et écran monochrome.
Ensuite, j'ai personnellement possédé toute cette évolution... sauf les PC modernes actuels, car je suis passé depuis une dizaine d'années aux portables HDG avec écran déporté :

PC 8088 : 60 W
PC XT : 130 W
PC AT 286 : 150 W (et même davantage si l'on voulait évoluer : ajout d'une carte son, d'un second disque dur, etc.)
PC 386 / 486 : 200 à 250 W
Premiers Pentium : 250 à 300 W, voire plus avec l'ajout d'une carte graphique ou pour le jeu
Et enfin, les PC modernes actuels dédiés aux jeux, à la photo ou à la vidéo : 500 à 850 W. Ce n'est pas uniquement pour des considérations "geek et esthétiques" (éclairages) que l'on ajoute autant de systèmes de refroidissement.

Bilan : des alimentations donc une consommation (en rapport) multipliée par plus de 10 !

La seule consommation électrique qui a réellement « baissé », ou du moins relativement peu évolué, est celle des écrans, depuis que les LCD LED ont supplanté les cathodiques :

CRT monochrome : 30–50 W
CRT couleur : 60–90 W
CRT VGA : 80–120 W
CRT 17–19" : 120–200 W
LCD LED : 15–40 W
LCD actuels 4K / HDR : 30–80 W, voire beaucoup plus si l'on ajoute la barre de son qui va bien !!!

Bilan : on peut dire que c'est globalement « stable ».

Je crois encore moins à une quelconque baisse des besoins en puissance. Au contraire, ceux-ci vont exploser très rapidement à cause de l'IA, qui va toucher quasiment tous les domaines : la connaissance et la recherche en général, la santé, l'éducation, la vie quotidienne, etc.

ALEXUR

Citation de: jesus le Décembre 19, 2025, 18:48:48Il va y avoir des améliorations à tous niveaux, le besoin de puissance et de consommation d'énergie vont baisser.
Les usages vont augmenter...

Une autre manière de voir le problème, une vision assez catastrophique... quoi que ?

Oui la consommation d'énergie va certainement baisser, mais très probablement par contrainte, selon différentes natures :

Déjà, par manque de ressources ou de moyens de production, ce que l'on constate déjà.

Par manque de capacités de transport ou d'acheminement de l'énergie.

Encore plus difficile à admettre pour certains : par décisions de restriction de nos gouvernements, même si elles visent à prioriser l'énergie pour les besoins qu'on qualifiera certainement de "vitaux" versus le "futile".

Exemples de restrictions possibles :

Interdiction d'éclairer les vitrines de magasins.

Réduction des illuminations lors des fêtes des lumières ou sur les monuments.

Limitation de l'éclairage public.

Réduction de la consommation ou même interdiction de certaines fêtes foraines (pour info la Foire du Trône, plus grande fête foraine d'Europe, consomme environ 350 MWh chaque année à Paris)

Limitation voir interdiction des éclairages et chauffages des terrasses, simplement pour conserver la clientèle des fumeurs, etc.



Nicolas Meunier

Citation de: jesus le Décembre 19, 2025, 18:48:48Il va y avoir des améliorations à tous niveaux, le besoin de puissance et de consommation d'énergie vont baisser.
Les usages vont augmenter...

c'est exactement l'inverse qu'on constate, ajd les datacenters ont de plus en plus besoin de matières premières et énergies. Pour l'instant en permanence l'IA fait mieux mais avec plus d'énergie. Pourtant il n'y a de cess d'y avoir des optimisations, des reduction de consommation MAIS en échange on en demande plus.

C'est pareil que la LED, elle consomme moins qu'une ampoule a incandescence et pourtant on consomme plus qu'avant car ca a été seulement l'argument pour plus eclairer et non économiser.

jla46

Je déterre le fil, la question était :"Pensez-vous qu'adobe accélère la procédure?" J'aurais tendance à penser qu'Adobe préfère s'en remettre au progrès des GPU, plutôt que d'investir en optimisation, mais qui sait Après tout ?
L'avenir nous le dira...

Verso92

Citation de: ALEXUR le Décembre 19, 2025, 16:57:15Une clientèle qui, dans un avenir proche, ne pourra plus se passer de l'IA.

Ou pas...

ALEXUR


Verso92

Citation de: ALEXUR le Janvier 25, 2026, 19:58:51Ou pas tout de suite ?

Après, tout dépend aussi, j'imagine, de la façon dont on aborde la photo ?

ALEXUR

Citation de: Verso92 le Janvier 25, 2026, 20:01:01Après, tout dépend aussi, j'imagine, de la façon dont on aborde la photo ?

Alors je te suis parfaitement sur cet argument de la façon dont on aborde la photo (et aussi à quoi servira-t-elle ?)

Pour ma part je n'ai jamais et je n'utiliserai jamais l'IA en photo, par contre je comprend fort bien qu'un photographe ayant un impératif de résultat pour gagner sa vie face appel à l'IA : exemple pour dé-bruiter une image inexploitable avec les moyens classiques de traitement habituels.
Mais pour un amateur qui va le faire systématiquement juste pour le plaisir d'avoir "l'image la plus propre", j'estime que cela ne correspond plus vraiment au plaisir essentiel de la photo qui, dans ma pratique, est de capter un ou l'instant par l'image. Sans vouloir paraitre rétrograde voir un "intégriste de la vrai photo sans traitement ni retouche", je trouve souvent excessif tout ce que nous permettent le logiciels de traitement actuels ... que j'utilise aussi comme beaucoup, mais ma plus grande satisfaction viendra le plus souvent du RAW qui ne me demandera que quelques secondes de traitement très basique montrant que j'avais réussi dès la prise de vue.

jesus

Citation de: ALEXUR le Janvier 25, 2026, 21:15:23Pour ma part je n'ai jamais et je n'utiliserai jamais l'IA en photo
Et tu fais de la photo numérique ?
Chacun fait ce qu'il lui plait avec les outils à disposition.
Même un amateur peut avoir envie de virer le bruit d'une photo et il n'y a rien de mal à ça.

MFloyd

J'ai réédité certaines photos prises à ISO élevés, càd ISO >=2000 et sur des fichiers de 45 MPX (Nikon D850). Temps de traitement bruit IA sur LrC et sur MBP M4 Max: 6,5s (moyenne). Pour moi, ce n'est ni lent, ni rapide. Ça vaut ce que ça vaut; et c'était la question qui était initialement demandée, non ?  La qualité du débruitement est excellente; et plus besoin de devoir jongler avec différents curseurs.

Et je n'ai pas vu d'augmentation de ma facture d'électricité...
(cliquez ev. sur l'image)

meregigi

Citation de: MFloyd le Janvier 26, 2026, 16:04:55J'ai réédité certaines photos prises à ISO élevés, càd ISO >=2000 et sur des fichiers de 45 MPX (Nikon D850). Temps de traitement bruit IA sur LrC et sur MBP M4 Max: 6,5s (moyenne). Pour moi, ce n'est ni lent, ni rapide. Ça vaut ce que ça vaut; et c'était la question qui était initialement demandée, non ?  La qualité du débruitement est excellente; et plus besoin de devoir jongler avec différents curseurs.

Et je n'ai pas vu d'augmentation de ma facture d'électricité...

Tu as combien de ram?

MFloyd

Citation de: meregigi le Février 07, 2026, 09:30:49Tu as combien de ram?

36 GO de mémoire unifié (CPU 14 cœurs; GPU 32 cœurs; neural engine 16 cœurs)
(cliquez ev. sur l'image)

iago

#17
Citation de: ALEXUR le Janvier 25, 2026, 21:15:23Pour ma part je n'ai jamais et je n'utiliserai jamais l'IA en photo, par contre je comprend fort bien qu'un photographe ayant un impératif de résultat pour gagner sa vie face appel à l'IA : exemple pour dé-bruiter une image inexploitable avec les moyens classiques de traitement habituels.
Mais pour un amateur qui va le faire systématiquement juste pour le plaisir d'avoir "l'image la plus propre", j'estime que cela ne correspond plus vraiment au plaisir essentiel de la photo qui, dans ma pratique, est de capter un ou l'instant par l'image. Sans vouloir paraitre rétrograde voir un "intégriste de la vrai photo sans traitement ni retouche", je trouve souvent excessif tout ce que nous permettent le logiciels de traitement actuels ... que j'utilise aussi comme beaucoup, mais ma plus grande satisfaction viendra le plus souvent du RAW qui ne me demandera que quelques secondes de traitement très basique montrant que j'avais réussi dès la prise de vue.

Pour ce qui est de la photo "sans traitement", Cartier-Bresson qui exigeait le respect absolu de son cadrage, ne faisait pas tirer ses photos au labo du coin...

Prise de vue en studio réussie = temps de traitement minimum, on maîtrise l'éclairage artificiel. En paysage, belle lumière pas trop dure - on pourrait dire que c'est du pot, idem, traitement minimum.

Mais mon expérience montre (et c'était déjà vrai en argentique !) que parmi les 10% de photos "ratées" - qui ne donnent aucun résultat avec un traitement "automatique" (labo amateur en argentique, traitement simple en RAW) il y a celles qui deviennent les meilleures, à condition d'y passer un peu de temps, avec les bons outils. Avec Ps, je fais tout ce que je faisais en labo, beaucoup mieux et plus vite.

L'IA qui permet de générer en trente secondes une image de dessin animé merdique avec des princesses sur fond de jungle avec des tigres, ça amuse (ou ça énerve) deux minutes. L'IA qui permet de débruiter un RAW à 20000 iso, ou d'extraire un peu de contraste ou de saturation d'une image prise avec très peu de lumière, voire même de supprimer un bras armé d'un téléphone portable, je prends. L'IA qui permet toutes les dérives qui apparaissent... ça, ça devient dangereux.

Cela dit, (expérience récente), l'IA qui détoure une danseuse avec une robe de soie vaporeuse sur un fond noir pas très "propre", a été incapable de recréer un fond noir en dégradé simple, sans rajouter des ombres tarabiscotées.

Le pb de la consommation... il est évident que personne n'est prêt à devenir raisonnable, ni les consommateurs qui utilisent, ni ceux qui produisent et s'enrichissent.

Samoreen

Citation de: iago le Hier à 09:21:56Le pb de la consommation... il est évident que personne n'est prêt à devenir raisonnable

Cette question se réglera d'elle-même quand les éditeurs d'IA commenceront à faire payer à leurs utilisateurs le coût réel de chaque requête. Enfin, les éditeurs qui auront survécu à l'explosion de la méga bulle en cours de formation...
--Hambourg est la vraie raison pour laquelle l'aiguille des boussoles pointe vers le nord.

jesus

La bulle va éclater, mais l'IA deviendra personnelle sur sa propre machine...
De nouvelles puces sortent et elles consomment moins d'énergie.

MFloyd

#20
Pour remettre horloges à l'heure, voici comment se passe le traitement IA Lightroom et Photoshop sur une MacBook M4 Max:

👉 La quasi-totalité des traitements IA sont faits localement sur ma machine.

Pas dans le cloud.
Pas envoyés chez Adobe.
Mais il y a quelques exceptions importantes.



🧠 1️⃣ Lightroom Classic – IA

✅ 100 % local (Mac M4 Max)

Ces fonctions tournent entièrement sur mon Mac, en utilisant :
   •   CPU
   •   GPU
   •   Neural Engine (via Metal / Apple ML)
   •   RAM

✔️ Denoise IA

✔️ Super Résolution

✔️ Raw Details

✔️ Masques IA (Sujet / Ciel / Arrière-plan / Personne)

✔️ Adaptive Presets

👉 Aucun upload.
👉 Aucun traitement distant.
👉 Même hors ligne ça fonctionne.

Sur un M4 Max :
   •   GPU massif
   •   Bande passante mémoire énorme
   •   Neural Engine performant
➡️ Lightroom exploite principalement le GPU via Metal.



🧠 2️⃣ Photoshop – IA locale

✅ Local

✔️ Neural Filters (la plupart, une fois téléchargés)

✔️ Super Resolution Camera Raw

✔️ Denoise Camera Raw

✔️ Sélection automatique sujet

✔️ Masques IA

Une fois les modèles téléchargés,
le traitement se fait en local.



☁️ 3️⃣ Les exceptions : traitement cloud

❗ Photoshop – Generative Fill / Generative Expand

👉 Cloud obligatoire
   •   L'image (ou zone sélectionnée) est envoyée aux serveurs Adobe
   •   Traitement via Firefly
   •   Résultat renvoyé

Même avec un M4 Max ultra puissant :
➡️ Ça passe par Internet.



❗ Lightroom (cloud version, pas Classic)

Certaines fonctions de Lightroom cloud peuvent :
   •   synchroniser des aperçus
   •   traiter certaines fonctions via serveurs

Mais chez moi, sous Lightroom Classic,
le développement IA est local.



🧠 Pourquoi Adobe fait ça ?

Denoise / Super Resolution
   •   Basés sur des modèles optimisés embarqués
   •   Trop gourmands en volume de données pour upload systématique
   •   Nécessitent vitesse locale

Generative Fill
   •   Modèles gigantesques
   •   GPU clusters spécialisés
   •   Modèles propriétaires Firefly
   •   Contrôle des usages (copyright, sécurité)



⚙️ Sur mon Mac M4 Max : qui travaille ?

Composant   Rôle
GPU   Principal moteur IA Lightroom
Neural Engine   Accélération ML Apple
CPU   Gestion, orchestration
RAM unifiée   Cruciale pour gros DNG
Réseau   Rien (sauf Firefly)

👉 Lightroom est aujourd'hui massivement GPU-bound.



📊 Comment vérifier que c'est local ?

Pendant un Denoise :
   •   Ouvre Moniteur d'activité
   •   Onglet GPU
   •   Tu verras la charge monter
   •   Aucune activité réseau significative

En Generative Fill :
   •   Activité réseau visible
   •   GPU local peu sollicité



🎯 Résumé clair

Lightroom Classic IA

🟢 Local
🟢 GPU / Neural Engine
🟢 Fonctionne hors ligne

Photoshop Firefly

🟡 Cloud obligatoire
🟡 Nécessite Internet



💡 Pour mon workflow :
   •   stockage local de 11 TO
   •   gros RAW
   •   mobilité fréquente

👉 Lightroom Classic IA est parfaitement cohérent
👉 Je ne suis pas dépendant du cloud pour le cœur du travail


Voilou 😉
(cliquez ev. sur l'image)

iago

Citation de: Samoreen le Hier à 09:38:22Cette question se réglera d'elle-même quand les éditeurs d'IA commenceront à faire payer à leurs utilisateurs le coût réel de chaque requête. Enfin, les éditeurs qui auront survécu à l'explosion de la méga bulle en cours de formation...

... et la réduction des émissions de carbone commencera quand on paiera le prix des carburants fossiles...

Pour MFloyd : je suppose que mon Mac Mini (puce M4 Pro) c'est pareil ?

MFloyd

Citation de: iago le Hier à 19:02:42... et la réduction des émissions de carbone commencera quand on paiera le prix des carburants fossiles...

Pour MFloyd : je suppose que mon Mac Mini (puce M4 Pro) c'est pareil ?

Je dirais d'emblée: oui. Ce n'est pas la puissance, le nombre de cœurs GPU, la présence d'un Neural Engine, ou la quantité de RAM qui font la différence. C'est uniquement si le modèle IA est embarqué localement, ou s'il est hébergé chez Adobe (Firefly). Autrement dit: ça dépend du type de fonction Adobe, pas du modèle Mac. 😉
(cliquez ev. sur l'image)

Samoreen

Citation de: jesus le Hier à 10:35:47La bulle va éclater, mais l'IA deviendra personnelle sur sa propre machine...

Oui, pour le traitement des requêtes. Mais l'apprentissage se fait nécessairement dans un data center et il faudra bien également faire payer ça aux utilisateurs.

Par ailleurs, en ce qui concerne Adobe, même s'ils font travailler leurs modèles en local, ce n'est pas le cas pour les "modèles partenaires" qu'ils ont introduit dans les dernières versions de PS. On voit là apparaître une sorte de "market place" de l'IA et dans ce cas, les "crédits" d'exécution ne sont pas nécessairement compris dans l'abonnement.

Je reste donc convaincu que l'IA dans les logiciels photo va significativement augmenter la facture de ceux qui veulent s'en servir (et même celle de ceux qui ne le souhaitent pas mais qui veulent simplement rester à jour). Je pense qu'à ce jour, les utilisateurs ne paient pas encore les coûts réels de l'IA. Ça ne va pas tarder et ce sera le début de l'éclatement de la bulle.
--Hambourg est la vraie raison pour laquelle l'aiguille des boussoles pointe vers le nord.

MFloyd

Excellentes remarques Samoreen.  :)
(cliquez ev. sur l'image)