Lightroom - différences de rendu dans les différents modules

Démarré par apietrav, Juin 14, 2020, 22:19:27

« précédent - suivant »

Nikojorj

Citation de: Zaphod le Juin 17, 2020, 08:27:14
Il semble que ça arrive généralement avec des profils d'écran génériques (ou vérolés ?)
Si tes impressions ressemblent à ton module dev avec accélération, c'est sans doute d'ailleurs que ton profil d'écran est foireux.
C'est aussi mon expérience.

Zaphod

Citation de: JEANPAUL le Juin 17, 2020, 09:33:11
Oui absolument, c'est cela qui m'interpelle ! Dans LR le jpeg cible issu de l'export LR est plus rouge que le fichier TIFF corrigé servant de source. Celui généré par Breezebrowser est identique au TIFF.
Là c'est donc un problème complètement différent de celui décrit dans le post :)

Dans ton cas, c'est juste une différence entre des logiciels "color managed" et d'autres qui ne le sont pas - ou qui ne sont pas configurés correctement.
Il ne faut pas utiliser des logiciels sans gestion des couleurs en photo :)

JEANPAUL

Merci de cette analyse mais je ne comprends pas cette remarque.

1- La diapositive est scannée avec le scanner Nikon LS40 associé à son logiciel NikonScan 4.03. En format de sortie jpeg ou TIFF 8 bits sans autre possibilité.
2- Je choisi donc le format non destructeur TIFF pour retravailler la photo sous LR
3- J'importe le dossier avec les TIFF dans LR et après recadrage et ou corrections diverses avec ce même LR j'exporte la photo en JPEG à la résolution d'origine en AdobeRVB.
4- J'actualise le dossier dans lequel se trouve désormais le TIFF et le JPEG et les compare dans ce même outils.

Cela signifierai-t-il que le TIFF ne contient aucun codage couleur et ne peut respecter la couleur visible à l'écran ?

Sion où se situe ma bévue ?

Merci par avance !

Zaphod

Je pense qu'il vaudrait mieux faire un fil spécifique, parce qu'à mélanger des explications sur deux sujets qui n'ont rien à voir ça risque d'être très confus.
Ainsi que de partager des exemples (TIFF + JPEG exporté depuis Lightroom sans aucun traitement) pour qu'on puisse éventuellement étudier les fichiers.

Il y a deux choses :

1) l'espace de couleur de l'image (il faudrait voir lequel est défini dans l'image d'origine, ainsi que dans les différents exports)
(pour ton TIFF, tu as probablement des options à choisir dans logiciel de scan)

2) l'espace de l'écran, qui est défini dans tes préférences de système d'exploitation.

Pour qu'un logiciel affiche bien les couleurs d'une image, il faut qu'il soit capable de gérer les deux.
En fonction de l'espace de couleur dans lequel l'image est définie, il convertit l'affichage pour que cela soit juste dans l'espace de couleur de l'écran.

L'outil que tu utilises pour regarder tes images est donc très important.
Normalement il me semble que BreezeBrowser le fait, à condition d'avoir activé l'option et de l'avoir configuré comme il faut.

Nikojorj

Pour JEANPAUL, ce serait bien d'en discuter dans un fil à part, ton problème n'a que très peu à voir avec celui de apietrav.

Sur ce fil à part, tu pourras nous dire comment tu t'occupes de la gestion des couleurs dans NikonScan d'une part, et surtout avec quoi tu regardes tes images d'autre part, puisque la réponse est à 99% dans ce dernier item.

JEANPAUL

Citation de: Zaphod le Juin 17, 2020, 14:01:41
Je pense qu'il vaudrait mieux faire un fil spécifique, parce qu'à mélanger des explications sur deux sujets qui n'ont rien à voir ça risque d'être très confus.
Citation de: Nikojorj le Juin 17, 2020, 14:33:30
Pour JEANPAUL, ce serait bien d'en discuter dans un fil à part, ton problème n'a que très peu à voir avec celui de apietrav.

Toutes mes excuses, le titre me paraissait correspondre à ma problématique... Je prends note, par contre je pense avoir compris ma bévue !

Citation de: Zaphod le Juin 17, 2020, 14:01:41
.../ Il y a deux choses :
1) l'espace de couleur de l'image
2) l'espace de l'écran, qui est défini dans tes préférences de système d'exploitation.
Pour qu'un logiciel affiche bien les couleurs d'une image, il faut qu'il soit capable de gérer les deux. ... / ...

Normalement il me semble que BreezeBrowser le fait, à condition d'avoir activé l'option /...

1000 Mercis ! Ma bévue était à ce niveau. une fois l'espace couleur de l'écran activée tout rentre dans l'ordre !

Sujet peut être clos pour moi si problème identique dans LR.

ALEXUR

Citation de: JEANPAUL le Juin 17, 2020, 17:29:13
1000 Mercis ! Ma bévue était à ce niveau. une fois l'espace couleur de l'écran activée tout rentre dans l'ordre !

;) c'est bien ce que quelques uns d'entre nous avions pressenti.

Pour LR ?

Mitou64

Citation de: tenmangu81 le Juin 16, 2020, 22:24:11
??? Profils ICC de cartes graphiques ? J'ignorais que ça existait.
Ce n'est pas ce que j'ai écrit.
Un profil ICC est valable que pour un couple écran - carte graphique donné.
Dans le cas de apietrav, il se peut (c'est mon hypothèse) que LR utilise la carte graphique en mode développement et le chipset graphique du processeur en mode bibliothèque.
Et à chaque fois un profil ICC différent s'active. D'où des écarts potentiels de colorimétrie.

Mitou64

Citation de: apietrav le Juin 17, 2020, 07:48:59
Je ne sais pas d'où ça vient mais en effet le traitement colorimétrique est différent entre les 2 modules. Est-ce possible que lightroom fonctionne plus ou moins fidèlement, sur les couleurs, selon les chipset graphiques ? Et avez-vous des idées sur comment vérifier ma config ? la seule carte graphique qui apparaît dans le système est la geforce 970, est-ce qu'il devrait y avoir aussi un chipset générique qui apparait ? (ex : Intel HD graphics ou autre ? celui qui est utilisé quand l'accélération graphique n'est pas active ?). Ou alors trouver un moyen de forcer l'utilisation de la geforce pour l'ensemble du logiciel ?
Peux-tu essayer cette méthode pour forcer ton PC à utiliser ta carte graphique lorsque tu utilises LR :
https://ca.answers.acer.com/app/answers/detail/a_id/47687/~/comment-puis-je-utiliser-la-carte-graphique-nvidia-pr%C3%A9sente-sur-les-ordinateurs

Nikojorj

Citation de: Mitou64 le Juin 17, 2020, 21:34:56
Dans le cas de apietrav, il se peut (c'est mon hypothèse) que LR utilise la carte graphique en mode développement et le chipset graphique du processeur en mode bibliothèque.
Non, il n'y a qu'un des deux disponible à un moment donné sauf erreur, par contre les deux tuyaux d'affichages sont différents et dans un des cas LR se prend les pieds dans le tapis.

B_M

A mon avis, il serait correct de dire valable pour un écran donné. La carte graphique ne fait qu'utiliser les profils. D'ailleurs on ne calibre pas les cartes graphiques.
B_M

apietrav

Citation de: Mitou64 le Juin 17, 2020, 21:42:57
Peux-tu essayer cette méthode pour forcer ton PC à utiliser ta carte graphique lorsque tu utilises LR :
https://ca.answers.acer.com/app/answers/detail/a_id/47687/~/comment-puis-je-utiliser-la-carte-graphique-nvidia-pr%C3%A9sente-sur-les-ordinateurs

Je viens d'essayer mais cela révèle que je n'ai de toutes façons que ma carte graphique qui gère l'affichage en permanence puisque j'ai le même souci qu'ici :
http://www.jeuxvideo.com/forums/42-6-54241813-1-0-1-0-processeur-nvidia-haute-performance-indisponible.htm
Pas de carte native à la carte mère référencée, et je ne peux pas installer de driver générique (dans mon cas ce serait Intel VGA Driver). il semblerait que ce soit automatiquement désactivé quand on a une carte graphique externe. Mais je ne maîtrise pas bien tout ça...

Je suis donc perplexe sur ce qu'utilise Lightroom quand je désactive ma carte graphique...

Citation de: Zaphod le Juin 17, 2020, 08:27:14
Je pensais trouver plus de chose sur internet à propos de ce problème... il semble que ça arrive mais pas souvent.
Ce qui est sur c'est que dans ton cas le profil d'écran n'est pas pris en compte dans le module dev, quand tu coches l'accélération graphique.

Il semble que ça arrive généralement avec des profils d'écran génériques (ou vérolés ?)
Si tes impressions ressemblent à ton module dev avec accélération, c'est sans doute d'ailleurs que ton profil d'écran est foireux.

Qu'est-ce que tu as comme écran ? Et comme profil écran ?

Mon profil écran est foireux oui (ainsi que cet écran non adapté à la photo d'ailleurs), il faut que je remette la main sur une sonde pour recalibrer, mais cela expliquerait que le module dev ait un rendu différent du module bibliothèque ou impression ? un profil différent peut être utilisé ?
Ce que je trouve bizarre, c'est qu'une image imprimée blanc sur feuille blanche (et qui sort comme tel à l'impression), a l'air jaune sur fond blanc dans le module bibliothèque (le fond = arrière plan blanc sélectionné dans light room). Le profil écran affecte seulement le traitement de la photo et non de l'arrière plan utilisé dans le logiciel c'est ça ?

Je referai des tests de profils, mais j'ai toujours du mal à comprendre d'où vient la différence de rendu entre les modules sachant que je n'ai qu'un chipset graphique qui semble activé dans ma config.

Nikojorj

Citation de: apietrav le Juin 17, 2020, 23:13:58
Je suis donc perplexe sur ce qu'utilise Lightroom quand je désactive ma carte graphique...
Elle est toujours utilisée pour l'affichage bien sûr! Mais plus comme aide aux calculs.

Citation
Mon profil écran est foireux oui (ainsi que cet écran non adapté à la photo d'ailleurs), il faut que je remette la main sur une sonde pour recalibrer, mais cela expliquerait que le module dev ait un rendu différent du module bibliothèque ou impression ? un profil différent peut être utilisé ?
Oui et oui. Dans win, remplace ton profil écran par l'espoace sRGB et regarde si ça ne résout pas ton problème, en attendant un vrai écran calibré.

apietrav

Citation de: Nikojorj le Juin 18, 2020, 08:41:20
Dans win, remplace ton profil écran par l'espoace sRGB et regarde si ça ne résout pas ton problème, en attendant un vrai écran calibré.

ça a résolu le souci en effet, l'image sort identique entre les modules et ça a gommé le rendu trop chaud.
Merci !

Zaphod

Citation de: apietrav le Juin 17, 2020, 23:13:58
Mon profil écran est foireux oui (ainsi que cet écran non adapté à la photo d'ailleurs), il faut que je remette la main sur une sonde pour recalibrer, mais cela expliquerait que le module dev ait un rendu différent du module bibliothèque ou impression ? un profil différent peut être utilisé ?
Quand je dis "foireux" c'est pas dans le sens pas juste en colorimétrie, mais incorrect informatiquement parlant.
De fait qu'il peut être mal interprété dans certains cas.
Ca m'est déjà arrivé avec un profil perso, je ne sais pas pourquoi le profil était incorrect et Capture One plantait à l'affichage. Une fois le profil corrigé, ça passait très bien.

Si ton écran est basique, en général choisir sRVB comme profil écran donne des résultats plutôt corrects, et ça évite les soucis de ce type.
les profils écran constructeur sur les écrans grand public foutent souvent la merde.

Mitou64

Citation de: B_M le Juin 17, 2020, 21:47:06
A mon avis, il serait correct de dire valable pour un écran donné. La carte graphique ne fait qu'utiliser les profils. D'ailleurs on ne calibre pas les cartes graphiques.
Je le répète, je disais qu'on calibrait le couple carte graphique / écran, pas la carte graphique seule bien sûr.
OK donc les articles qu'on trouve sur internet quand on tape dans Google "profil icc pour couple carte graphique ecran" sont faux.

Zaphod

S'il y avait des choses fausses écrites sur internet, ça se saurait :)

Plus sérieusement, en théorie une carte graphique est censée afficher ce qu'on lui demande, donc ça ne devrait pas jouer.
En pratique, n'ayant jamais fait ni lu de comparatif sérieux là dessus, je resterai prudent.
(dans le cas d'une calibration hardware, je pense que c'est quand même fort peu probable que ça joue... sur une calibration software... je ne sais pas.)

B_M

ça se saurait si les cartes graphiques avaient chacune un rendu particulier.  :D   ??? Comme tu le dis une carte graphique affiche ce qu'on lui demande.
B_M

Zaphod

Ben après, c'est très facile de tester un écran avec sa sonde quand on change de carte graphique :) donc si le profil ne convient plus ça se mesure.

Dans le cas du sujet de ce fil, le problème n'était pas sur un changement de carte graphique.
Mais de la même carte graphique, dans le même logiciel, avec ou sans l'activation de l'accélération GPU.

A priori, je n'ai vu personne se plaindre que ça ne fonctionnait pas avec des profils réalisés par sonde.
En revanche, avec des profils "génériques", ça peut planter.

Je n'ai jamais trop compris pourquoi certains constructeurs installaient des profils d'écran bidon...
Peut-être pour que ça claque plus... au détriment de la justesse...

tenmangu81

Citation de: Mitou64 le Juin 18, 2020, 22:30:49
Je le répète, je disais qu'on calibrait le couple carte graphique / écran, pas la carte graphique seule bien sûr.
OK donc les articles qu'on trouve sur internet quand on tape dans Google "profil icc pour couple carte graphique ecran" sont faux.

On calibre l'écran, point barre. Et cet étalonnage ne dépend pas de la carte graphique, heureusement ! Chaque carte graphique a bien sûr sa réponse logicielle et matricielle pour obtenir le résultat escompté par la personne qui étalonne, mais c'est transparent et aboutit au même étalonnage.

Mitou64

Ah super !
Si j'ai un PC qui possède une "vraie" carte graphique et un processeur avec chipset graphique intégré, le PC utilisera soit le chipset soit la carte graphique selon ses besoins.
Et donc le profil ICC qu'il utilisera en automatique sera toujours le même (pour un même écran bien sûr) ?

Nikojorj

Citation de: Mitou64 le Juin 19, 2020, 18:21:47
le PC utilisera soit le chipset soit la carte graphique selon ses besoins.
Du point de vue de l'affichage (et je pense des calculs aussi), sauf erreur, la plupart des chipsets intégrés ne peuvent pas être utilisés en même temps que la CG externe ; j'en suis resté à ce que pour pouvoir utiliser plusieurs CG en même temps il faut les relier avec un machin ad hoc genre crossfire, mais je veux bien être détrompé.

tenmangu81

Citation de: Mitou64 le Juin 19, 2020, 18:21:47
Ah super !
Si j'ai un PC qui possède une "vraie" carte graphique et un processeur avec chipset graphique intégré, le PC utilisera soit le chipset soit la carte graphique selon ses besoins.
Et donc le profil ICC qu'il utilisera en automatique sera toujours le même (pour un même écran bien sûr) ?

Absolument ! Les ordinateurs qui possèdent une "vraie" garte graphique et un chipset choisiront, au moment de l'étalonnage, le harware qui conviendra. Très probablement la "vraie" carte graphique. Mais je ne suis jamais allé vérifier  :D
Ceci dit, on peut le faire : il existe des petits logiciels (par exemple gfxCardStatus) qui permettent de dire à l'ordinateur quelle carte choisir.

Verso92

Citation de: B_M le Juin 19, 2020, 10:12:55
ça se saurait si les cartes graphiques avaient chacune un rendu particulier.  :D   ??? Comme tu le dis une carte graphique affiche ce qu'on lui demande.

Du temps des affichages analogiques, c'était le cas (Matrox Millenium, pour ceux qui se souviennent...  ;-).

En full numérique, ça ne doit plus jouer, effectivement.

tenmangu81

Citation de: Verso92 le Juin 19, 2020, 21:23:18
Du temps des affichages analogiques, c'était le cas (Matrox Millenium, pour ceux qui se souviennent...  ;-).

Je suis trop jeune pour avoir connu cette époque  ;)