Afficher une photo en 10 bits sur oled

Démarré par scotjh, Avril 19, 2019, 11:09:34

« précédent - suivant »

scotjh

Bonjour,
J'aurais une demande un peu particulière.
Je shoot en raw et dispose d'un afficheur 10 bits aux normes HDR10 et Dolby vision.
Existe t il un moyen d'afficher mes photos en HDR10 ? C'est à dire exploitant toute la dynamique de l'écran et pas seulement les 8 bits d'un jpeg ? Je ne parle pas de hdr photo où l'on tasse  les extrêmes  dynamiques.
Merci.

Verso92

Je ne connais ni la norme HDR10 ni Dolby Vision.


Par contre, j'affiche (sous Photoshop) mes photos (TIFF 16 bits, par exemple) en 3 x 10 bits.

scotjh

Citation de: Verso92 le Avril 19, 2019, 12:56:44
Je ne connais ni la norme HDR10 ni Dolby Vision.
Par contre, j'affiche (sous Photoshop) mes photos (TIFF 16 bits, par exemple) en 3 x 10 bits.

16 bits ! C'est quoi comme écran ?

scotjh

Ok on ne parle pas de la même chose ;)
Je pense que la vidéo, considérée comme longtemps comme un sous produit de moindre qualité pendent un certain temps, a dépassé la photo dans certains domaines qualitatif.
Voici un aperçu de la norme video HDR10 http://www.latelierducable.com/tv-televiseur/8-bits-10-bits-cest-quoi-la-profondeur-des-couleurs/
A part importer une photo dans une time line video et retravailler la courbe dynamique je ne connait pas de soft grand publique qui pourrait afficher autant de profondeur de couleur qu'une vidéo HDR.
quelqu'un pour me dire le contraire ?

Verso92

Citation de: scotjh le Avril 19, 2019, 13:35:24
16 bits ! C'est quoi comme écran ?

Pas compris... j'ai parlé d'affichage en 3 x 10 bits.

scotjh

Ok tu as donc un écran certifié HDR ?  Quelle est la marque, le model ? Combien de nits fait il ? Peux tu lancer une video youtube par exemple et voir ceci ?
Désolé je cherche à comprendre, comment sais tu que photoshop affiche bien les 3 X 10 bits et n'affiche pas une conversion, cela déclenche t il un logo  ?

Verso92

Citation de: scotjh le Avril 19, 2019, 15:59:08
Ok tu as donc un écran certifié HDR ?

Je ne sais pas (connais pas cette certification)... j'ai juste acheté (il y a bien sept ou huit ans maintenant) un écran 3 x 10 bits, une carte 3 x 10 bits, et vérifié, en activant le 3 x 10 bits et en affichant le fichier ad-hoc sous Photoshop, que c'était pris en compte.

scotjh

Ok il y a 7 ou 8 ans la norme ne devait pas être encore établis, tu ne dois sans doute pas dépasser les 300 nits, je pense que ton écran est trop vieux pour être concerné mon problème.
C'est à dire que tu as bien le nombre de couleur mais pas la luminosité nécessaire .

frmfrm

Je n'ai pas d'expérience dans ce que tu veux faire, mais je crois que je procèderais comme cela pour commencer :

1- générer une image "scene refered" cad sans courbe de gamma ni courbe en S de contraste. Pour cela on peut suivre la méthode donnée par le site color.org.

Faire une sortie LR en prophoto tiff 16 bits. Pour le développement choisir le process 2010 et mettre tous les curseurs à 0.

Se fabriquer un profil prophoto avec une trc linéaire . Utiliser DisplayCal / Tool / Create ICC profil et prendre les primaires prophoto et une un gamma lineaire.

Sous photoshop convertir l'image dans le profil créé.

2- Convertir dans un profil HDR.

Se créer le profil avec DisplayCal et choisir en fonction de ton écran, les primaires du REC2020 (ou autre) et une courbe de gamma SMPTE 2084. Choisir le point blanc ( si tu as 300 nits ou plus).

Le passage par le profil linéaire va te permettre de placer le blanc 100% dans un espace  linéaire, ce qui sera surement plus pratique / juste.

Enfin , faire attention à ne pas cramer ton écran, car je ne sais pas si les écrans HDR sont bien adaptés pour afficher des image fixes longtemps.

Voila comment je partirais pour utiliser le couple LR / Photoshop. Maintenant, tu dois pouvoir utiliser Da Vinci Resolve plus facilement, mais ca va peut être te prendre plus de temps de formation ;-)

scotjh

#9
frmfrm

Concernant Da Vinci au contraire ça m'arrangerait et raccourcirait finalement.
Comment importer un RAW dans Da Vinci ? la solution serait là !
Ou bien en quoi devrais je transformer mon RAW en gardant sa dynamique pour l'ouvrir sous Da Vinci ?

Verso92

Citation de: scotjh le Avril 19, 2019, 17:12:41
Ok il y a 7 ou 8 ans la norme ne devait pas être encore établis, tu ne dois sans doute pas dépasser les 300 nits, je pense que ton écran est trop vieux pour être concerné mon problème.

Par curiosité, qu'est-ce qu'un "nit(s)" ?

Citation de: scotjh le Avril 19, 2019, 17:12:41
C'est à dire que tu as bien le nombre de couleur mais pas la luminosité nécessaire .

Pour la luminosité, je crains fort que pour un écran étalonné pour l'impression, il n'y ait pas une grande marge de manœuvre (je suis à ~90 cd/m2).

scotjh

Verso 92 : le nit, est une unité dérivée de luminance du Système international (SI) correspondant à 1 candela par mètre carré (cd/m2)
Bref une échelle de luminosité.

frmfrm : Bingo ! Da vinci ne prend pas mon RAW Sony A7 mais le PSD ! Je peux du coup caler le graph du scoope sur 1000 et grâce à ffmpeg introduire les metadata et enfin afficher la dynamique du raw (enfin en théorie, je suis phase de test là lol)


Verso92

Citation de: scotjh le Avril 19, 2019, 18:02:15
Verso 92 : le nit, est une unité dérivée de luminance du Système international (SI) correspondant à 1 candela par mètre carré (cd/m2)
Bref une échelle de luminosité.

Un extrait des caractéristiques techniques :

scotjh

Dommage 360 tu y était presque ... 400 est la norme basse, mais en vérité il faut plutôt tendre vers 800 et puis ça concerne surtout la 4K, ton écran full HD est un peu juste même si en théorie le HDR 10 est compatible full HD.
Je ne pense pas que ton écran puisse gérer le signal toute façon, un spécialiste pourrait te le dire.
Lance  cette video et regarde dans les paramètres youtube si tu vois HDR comme le screen plus haut
https://www.youtube.com/watch?v=9uyyOHIidMA

Verso92

Citation de: scotjh le Avril 19, 2019, 19:19:17
Dommage 360 tu y était presque ... 400 est la norme basse, mais en vérité il faut plutôt tendre vers 800 et puis ça concerne surtout la 4K, ton écran full HD est un peu juste même si en théorie le HDR 10 est compatible full HD.
Je ne pense pas que ton écran puisse gérer le signal toute façon, un spécialiste pourrait te le dire.
Lance  cette video et regarde dans les paramètres youtube si tu vois HDR comme le screen plus haut
https://www.youtube.com/watch?v=9uyyOHIidMA

Pas de mention "HDR" pour cette vidéo.

Citation de: scotjh le Avril 19, 2019, 15:59:08
Désolé je cherche à comprendre, comment sais tu que photoshop affiche bien les 3 X 10 bits et n'affiche pas une conversion, cela déclenche t il un logo  ?

C'est marqué dans les specs de l'écran (1 073 741 824 = 3 x 2^10) et largement documenté par ailleurs.

scotjh

Oui verso92 c'était un excellent écran photo mais pas vidéo effectivement.

ChatOuille

Je ne suis pas cette discussion, trop compliquée pour moi, mais dans mon temps on parlait de lux = 1 lumen/m2 et c'est une unité du Système international. Le nit ne correspond pas aux standards internationaux, mais on peut compliquer les choses pour induire en erreur le consommateur.

scotjh

Citation de: ChatOuille le Avril 19, 2019, 20:18:36
Je ne suis pas cette discussion, trop compliquée pour moi, mais dans mon temps on parlait de lux = 1 lumen/m2 et c'est une unité du Système international. Le nit ne correspond pas aux standards internationaux, mais on peut compliquer les choses pour induire en erreur le consommateur.

Sans doute mais moi, mon temps, commence ici et on parle à présent de nits qui effectivement correspondent, je le découvre, à d'anciennes unités.
Peut être que ce changement d'unités est volontaire pour designer de nouvelles techniques,de nouveaux afficheurs comme l'oled, de nouvelles normes comme l'HDR10 ou le Dolby Vision
et donc qu'on ne les confonde pas avec d'anciens écrans comme celui possédé par Verso92 par exemple.     

Verso92

Citation de: scotjh le Avril 19, 2019, 21:50:02
[...] et donc qu'on ne les confonde pas avec d'anciens écrans comme celui possédé par Verso92 par exemple.   

En fait, j'ai l'impression qu'il y a un mélange des genres : les écrans les plus récents dédiés à la retouche photo sont caractérisés comme il y a quelques années, sans surprise.

Les termes, normes et mesures que tu emploies me sont complètement étrangers, et semblent dédiés à un autre univers technologique ?

philooo

Citation de: Verso92 le Avril 19, 2019, 19:28:13les specs de l'écran (1 073 741 824 = 3 x 2^10)

1 073 741 824 = 2^30 = (2^10)^3  :)

Verso92


scotjh

Citation de: Verso92 le Avril 19, 2019, 22:15:05
En fait, j'ai l'impression qu'il y a un mélange des genres : les écrans les plus récents dédiés à la retouche photo sont caractérisés comme il y a quelques années, sans surprise.

Les termes, normes et mesures que tu emploies me sont complètement étrangers, et semblent dédiés à un autre univers technologique ?

Oui lol j'essai de mélanger le meilleur des deux mondes, photo et vidéo d'où des termes qui te sont peut etre étrangers

ChatOuille

Non, il ne s'agit pas d'un problème ni de générations ni d'évolution technologique. Au temps de la mondialisation il faut essayer que tout le monde se comprenne. Au Moyen Âge (et bien plus tard) chaque région avait son système de poids et mesures. On essaye tan bien que mal de se comprendre, surtout au niveau scientifique. Les Anglais ont maintenu jusqu'à assez avancé le 20ème siècle la libre sterling, shillings et pence, ce que pour faire les achats demandait de la torture cérébrale. Finalement ils ont adopté le système décimal, ce qui et bien plus simple. Ils ont gardé les milles, et les gallons pour faire différent des autres et ne parlons pas des pieds, pouces et yards. Idem aux USA, bien qu'au niveau scientifique on essaye d'exprimer les valeurs selon le système international. Le Canada a adopté autour de 1980 le système métrique. A cause de ça un avion a failli s'écraser : il avait rempli les tanks avec des litres en croyant que c'était des gallons.

Le système international de mesures existe depuis belle lurette. Ce qui a changé c'est la définition de certaines unités qui n'étaient pas vraiment très scientifiques, comme le mètre mais les unités n'ont pas changé. Avant on parlait de millibars et maintenant de Hectopascals, mais ça revient au même. C'est juste pour adapter le langage pour que tout le monde se comprenne. Pour la taille des formats, on a adopté la norme DIN, provenant d'Allemagne. Cela n'a rien de scientifique, mais c'est pour que tout le monde parle de la même chose.

Au niveau technique, les anglophones continuent à mesurer la pression en PSI. Dans le domaine de l'aviation on donne la hauteur en pieds, la distance en mètres et la vitesse en nœuds, mais c'est une question pratique pour qu'il n'y ait pas de confusion au niveau communication. RAS. Dans les années 70, le plus grand multiplicateur que le commun des mortels utilisait c'était le Méga. Le Giga était réservé aux centrales électriques qui pouvaient parler de Gigawatt. Maintenant Giga et Téra fait partie du langage courant. Et bientôt Peta, Exa, Yotta et Zetta, mais cela existait déjà. Rien de neuf !

D'autre part, je ne vois pas la différence entre vidéo et photo lorsqu'on parle de résolution écran. Eventuellement on peut parler de format, mais la seule différence est le paramètre temps, car la photo c'est figé par définition.

scotjh

Chatouille waouh ! Merci pour ces éclaircissements, je sais enfin pourquoi on donne la hauteur en pieds en avion.
Par contre non on ne choisit pas de la même manière un écran photo ou vidéo.
Certes la résolution est la même pour les deux mais un excellent écran photo n'est pas forcément excellent pour la vidéo ! Le contraire plutôt vrai cependant.
D'où peut-être des caractéristiques identiques  appelés différemment pour qu'on sache à qui on s'adresse.
Nit écran vidéo,  cd/m écran photo par exemple.
Il y a aussi  que chaque corps de métier aime utiliser son propre jargon.  Voir les enciens symboles chimiques différents des symboles mécaniques.
S'il y a des métalleux ils sauront de quoi je parle si je dis : Z8CNF18.09, NSU, ou 303..blanc...

FredEspagne

Je ferai une remarque sur les moniteurs qui affichent des millions de couleurs, les milliers suffisent car nos yeux ne savent pas distinguer des millions de couleurs même si, dernièrement, est apparue une mutation génétique où certaines femmes ont 4 sortes de bâtonnets (au lieu de 3) sur la rétine et distinguent mieuz les couleurs que le commun des mortels
35 ans de film et labo argentique , 21 de numérique

ChatOuille

Citation de: scotjh le Avril 21, 2019, 09:41:52
Par contre non on ne choisit pas de la même manière un écran photo ou vidéo.
Certes la résolution est la même pour les deux mais un excellent écran photo n'est pas forcément excellent pour la vidéo ! Le contraire plutôt vrai cependant.
Je suis bien d'accord, quoique je ne suis pas spécialiste en la matière comme toi, ce que j'ai voulu dire c'est que la différence entre la vidéo et la photo c'est le facteur temps. Donc la fréquence de renouvellement, la réaction des cristaux etc. Par contre question résolution, qualité des couleurs et contraste, les mêmes caractéristiques devraient convenir.
;)

scotjh

Citation de: ChatOuille le Avril 21, 2019, 20:21:59
Je suis bien d'accord, quoique je ne suis pas spécialiste en la matière comme toi, ce que j'ai voulu dire c'est que la différence entre la vidéo et la photo c'est le facteur temps. Donc la fréquence de renouvellement, la réaction des cristaux etc. Par contre question résolution, qualité des couleurs et contraste, les mêmes caractéristiques devraient convenir.
;)

Pas tout à fait concernant le contraste et je suis persuadé sans y arriver tout à fait qu'il doit être possible d'afficher ses photos sur un écran vidéo en exploitant les caractéristiques spécifiques à la vidéo.
HDR10 par exemple.
Voici une petite explication de quelques termes.
http://www.mediakwest.com/broadcast/item/mk28-2-hdr-les-nouveaux-termes-apparus-partie-2.html

egtegt²

Citation de: scotjh le Avril 19, 2019, 21:50:02
Sans doute mais moi, mon temps, commence ici et on parle à présent de nits qui effectivement correspondent, je le découvre, à d'anciennes unités.
Peut être que ce changement d'unités est volontaire pour designer de nouvelles techniques,de nouveaux afficheurs comme l'oled, de nouvelles normes comme l'HDR10 ou le Dolby Vision
et donc qu'on ne les confonde pas avec d'anciens écrans comme celui possédé par Verso92 par exemple.   

En fait, c'est exactement l'inverse, le nit est une ancienne unité utilisée dans le système mksa (mètre, kilogramme, seconde, Ampère) Pour information, ce système d'unités de mesures était déjà obsolète quand j'ai appris sa signification en 1984, il avait été remplacé par les unités SI quelques décennies auparavant ;)

https://fr.wikipedia.org/wiki/Candela_par_m%C3%A8tre_carr%C3%A9

A mon avis, si tu patientes un peu, tu pourras acheter des pantalons pat d'éph trop stylés pour aller s'acheter un écran  ;D

egtegt²

Citation de: FredEspagne le Avril 21, 2019, 10:48:13
Je ferai une remarque sur les moniteurs qui affichent des millions de couleurs, les milliers suffisent car nos yeux ne savent pas distinguer des millions de couleurs même si, dernièrement, est apparue une mutation génétique où certaines femmes ont 4 sortes de bâtonnets (au lieu de 3) sur la rétine et distinguent mieuz les couleurs que le commun des mortels
Ca c'est totalement faux. Il suffit de regarder une image en 16 bits (du vrai 16 bits, pas 3x16 bits mais 65536 couleurs en tout) pour se rendre compte que c'est plus qu'insuffisant. Que 10 bits soient superflus, je veux bien en discuter, mais quelques milliers de couleurs, c'est largement insuffisant.

FredEspagne

Le CIE nous papprened que c'est de l'ordre de 300 000 nuances. On est dans les milliers et pas dans les millions
http://www.cndp.fr/crdp-dijon/IMG/pdf/science2.pdf
De plus, la vision des couleurs est différente entre les femmes et les hommes et dans le règne animal, certains oiseaux et insectes sont très loin devant nous.
35 ans de film et labo argentique , 21 de numérique

scotjh

Citation de: egtegt² le Avril 24, 2019, 00:13:09
En fait, c'est exactement l'inverse, le nit est une ancienne unité utilisée dans le système mksa (mètre, kilogramme, seconde, Ampère) Pour information, ce système d'unités de mesures était déjà obsolète quand j'ai appris sa signification en 1984, il avait été remplacé par les unités SI quelques décennies auparavant ;)

https://fr.wikipedia.org/wiki/Candela_par_m%C3%A8tre_carr%C3%A9

A mon avis, si tu patientes un peu, tu pourras acheter des pantalons pat d'éph trop stylés pour aller s'acheter un écran  ;D

L'art de faire du neuf avec un vieux... Lol

scotjh

Plus sérieusement je ne sais pas pourquoi ce terme ressort un peu partout concernant exclusivement la vidéo.

egtegt²

Citation de: scotjh le Avril 24, 2019, 10:29:37
Plus sérieusement je ne sais pas pourquoi ce terme ressort un peu partout concernant exclusivement la vidéo.
Parce que les jeunes s'imaginent qu'en utilisant des termes différents des vieux, ça les rend plus compétents ;)

scotjh

Extrait du manuel davinci :

... dans la page Gestion des couleurs, et définissez le niveau «nit» (argot pour cd / m2) sur le niveau de luminance de crête de votre HDMI ...

C'est donc argotique...

scotjh

je ne comprendre pas qu'il y a si peu de personnes que ça intéresse d'afficher leurs images en vrai mode HDR et d'avoir une plus grande plage dynamique native. Pourquoi n'y a t il pas de norme Jpeg HDR10. Pourquoi cela intéresse les vidéastes et pas les photographes ?   

egtegt²

Citation de: scotjh le Avril 24, 2019, 19:30:46
je ne comprendre pas qu'il y a si peu de personnes que ça intéresse d'afficher leurs images en vrai mode HDR et d'avoir une plus grande plage dynamique native. Pourquoi n'y a t il pas de norme Jpeg HDR10. Pourquoi cela intéresse les vidéastes et pas les photographes ?
Peut-être parce que beaucoup de photographes ont pour objectif d'imprimer et que de toute façon, la dynamique d'une impression est largement inférieure ;)

Pour beaucoup de photographes, l'écran est avant tout un outil de travail et pas un médium d'affichage. Pour un vidéaste, l'écran est son unique médium d'affichage, donc c'est normal qu'il y attache plus d'importance.

Tonton-Bruno

Citation de: scotjh le Avril 24, 2019, 19:30:46
Pourquoi cela intéresse les vidéastes et pas les photographes ?
Je n'ai pas l'impression qu'il y ait beaucoup de vidéastes intéressés par la vidéo HDR.

Tous ceux qui travaillent pour la télévision n'en font pas, puisque la télé ne diffuse pas en HDR.

Tous ceux qui font des reportages pour Youtube ou Vidéo non plus, pour les mêmes raisons.

A mon humble avis, il ne doit pas y avoir beaucoup de professionnels du journalisme ou de la télé qui font de la vidéo HDR.

Cela doit être aussi anecdotique que la 3D.

scotjh

#37
egtegt², Tonton-Bruno vos réponses se tiennent mais ne vous y trompez pas la norme HDR10 et Dolby vision sont clairement l'avenir.

Ca n'a rien d'anecdotique, la 4K est et en sera indissociable.

Nous pouvons affirmer que la plupart des photos prises aujourd'hui seront majoritairement visualisés sur un écran.

La TV diffuse en 4K HDR la norme HLG est faite pour cela. OK ça reste plutôt rare mais canal diffuse des films en 4K HDR quelques rencontre sportive F1 etc...

La question n'est pas de savoir si la photo va suivre mais quand elle va le faire : Jpeg 2000,  Jpeg HDR Dolby ... Reste à adapter les visionneuses et les appareil photo à ces normes.

Tonton bruno c'est en quelle année la dernière fois que tu as été sur youtube lol (OK je chambre là) https://www.youtube.com/results?search_query=hdr

Pour moi la première fois que j'ai posé les yeux sur un écran de qualité qui diffusait une vidéo en Dolby Vision il y eu un avant-après.
Si vous etes un amoureux des belles images vous ne voudrez plus revenir en arrière et rêverez de la même claque pour la photo.
Bien sur si pour vous la photo ne s'apprécie que sur papier, ce que je comprend aussi, ce fil ne vous est pas destiné.


matopho

Citation de: scotjh le Avril 25, 2019, 18:48:45
...
Tonton bruno c'est en quelle année la dernière fois que tu as été sur youtube lol (OK je chambre là) https://www.youtube.com/results?search_query=hdr
...

A part des vidéos explicatives ou de courtes démonstrations, y a-t-il des reportages, des films ou autre ?

Merci de poster un lien sur Youtube.

Merci
+ c loin - c net

scotjh

Comme ca par exemple : https://www.youtube.com/watch?v=ejKCtVE7eb8
ou ca https://www.youtube.com/watch?v=Mn7HB1AqqTQ ?

Sinon il y a les films de cinema que l'on peut louer aussi en 4K HDR...

Tonton-Bruno

#40
Ces quelques pauvres liens me confortent dans l'idée que pour l'instant, la vidéo HDR n'est qu'un gadget sans intérêt et sans véritables utilisateurs.

Cela doit être encore plus confidentiel que la 3D, dont on nous jurait naguère qu'elle serait la norme universelle au cinéma et à la télé avant 2020.  ;D ;D ;D

Dans le domaine voisin du son, on a connu le même genre d'erreur technologique avec les tentatives de dépassement du CD Audio, par des systèmes bien plus performants et qui devaient tout bouffer.

En fait le CD c'est bel et bien fait bouffer, mais par le podcast mp3, d'une qualité bien plus faible que celle des CD, mais qui suffit amplement aux milliards d'utilisateurs qui font la loi du marché.

Tôt ou tard, la même chose se passera pour la TV. Le public de masse ne suivra plus les innovations technologiques qu'il considèrera sans plus-value réelle.

Aujourd'hui on tourne en 4K et on diffuse en 2K.
C'est la norme sur toute la terre et ça ne changera pas à court terme.

Perso en tant que photographe je réalise chaque mois des diaporamas diffusés en public selon la norme HD.
Toutes mes photos sont en JPG sRGB préparées sur un écran 8 bits bien étalonné, et je diffuse dans ce même format.
Je me refuse à acquérir un écran 10 bits carje veux voir au développement la même chose que les spectateurs verront à la projection.
Les serments des geeks qui me juraient il y a 4 ans que les projecteurs 4K 10 bits en Adobe RGB allaient devenir la norme avant 2018, et je n'en vois toujours aucun dans les salles de projection que je fréquente.

scotjh

Mon opinion est que la 3d était morte d'avance le port des lunettes était trop rédhibitoire. Pour la HDR ce n'est pas la norme de demain mais celle d'aujourd'hui pour le cinéma. La beaucoup  de productions cinématographiques  en 4k native sont en HDR ou mieux dolby vision.
Pour l'instant cantonné aux tv haut de gamme,  on arrête pas l'avancée technologique,  qui arrive sur les afficheurs d'entrés de gamme.
Tout comme on a pas arrêté le16/9, le 720p puis le full HD puis la 4k, le HDR est la suite logique.
Certes les logiciels de montage commencent seulement maladroitement d'en tenir compte, ça arrive doucement sur les caméras.
Vu les avancées que cela fait faire à l'image je ne vois pas qu'est ce qui pourrait faire que l'industrie fasse marche arrière.
C'est un peu tôt pour le quidam comme moi pour s'y mettre le terrain n'est pas encore vraiment défriché. Et tu as entièrement raison,  pour une diffusion pour le plus grand public possible c'est inutile.
Mais je ne suis pas un professionnel,  je n'ai pas d'exigence de rentabilité,  je veux juste essayer d'exploiter en passionné mon matériel.
C'est vrai que pour un professionnel ça doit être lourd de se dire qu'il faut qu'il change de caméra, de moniteur, de logiciels, d'habitude de tournage etc...

Juste par curiosité tapes TV HDR sur n'importe quel site marchand tu va voir que cela est loin d'être anecdotique. Tout ça n'est pas nouveau d'un côté on attend que les gens soient équipés et de l'autre on attend les contenus pour s'y mettre...

Mais cela reste mon opinion...

Tonton-Bruno

Citation de: scotjh le Avril 26, 2019, 08:29:26
je veux juste essayer d'exploiter en passionné mon matériel.
Pour un passionné de technologie, cela peut se comprendre, mais le passionné de technologie doit aussi comprendre que les passionnés de photo et les passionnés de vidéo ne se soucient absolument pas des moniteurs HDR pour le moment.

scotjh

Pour les passionnés de photo je veux bien, pour les passionnés de vidéo ça fait un petit moment qu'ils ont compris qu'ameliorer seulement  les caméras ne suffisait pas.
L'avenir de la vidéo passe aussi par l'amélioration constante des écrans. Qui tournerait exclusivement en 480p aujourd'hui sur un écran 4/3 ?
Peut-être que les plus jeunes sont plus sensible aux avancées technologiques.
Mais je t'assure qu'il y a toute une jeune génération de videaste  qui s'intéresse aux HDR. Fais un tour sur YouTube dans les tutos hdr ça foisonne.
Bien sûr pour les reportages à la papa c'est encore trop tôt. Mais passionné de vidéo tu ne pourras ignorer longtemps la tendance...


egtegt²

Je crois que tu manques un peu de recul. Des nouveautés qui devaient tout bousculer, j'en ai connu des centaines, et l'immense majorité a disparu au fond d'un placard. Et celles qui ont perduré sont rarement celles dont on pensait qu'elles le feraient.
Peut-être que le HDR sera la principale technologie pour les écrans dans quelques années ... ou pas ;)

scotjh

Mais ouvrez les yeux pour certains c'est un saut qualitatif tel que nous ne l'avons peut-être pas connu depuis le passage de la télévision en noir et blanc à la télévision en couleur.
C'est pas demain,  Netflix diffuse en HDR, iTunes diffuse en HDR, canal plus et arte commence aussi  Les DVD bluray sont en hdr c'est aujourd'hui les gars réveillez  vous.
Pourquoi cela vous fait peur ? Peut-être avez vous été échaudé par l'échec de la 3d ?
Là c'est pas une annonce de technologie qui ne verra jamais le jour c'est une réalité.

MimiOne

Citation de: egtegt² le Avril 24, 2019, 00:13:09
En fait, c'est exactement l'inverse, le nit est une ancienne unité utilisée dans le système mksa (mètre, kilogramme, seconde, Ampère) Pour information, ce système d'unités de mesures était déjà obsolète quand j'ai appris sa signification en 1984, il avait été remplacé par les unités SI quelques décennies auparavant ;)

https://fr.wikipedia.org/wiki/Candela_par_m%C3%A8tre_carr%C3%A9

A mon avis, si tu patientes un peu, tu pourras acheter des pantalons pat d'éph trop stylés pour aller s'acheter un écran  ;D
Et  en 2002, la norme a encore changé...
http://asqualab.com/documents/qualite/metrologie/19-unites_pifometriques.pdf
OK, je sors..!

scotjh

OK le hdr est une norme en partie ouverte donc peut être aussi pifometrique 😁

egtegt²

Citation de: scotjh le Avril 26, 2019, 10:33:25
Mais ouvrez les yeux pour certains c'est un saut qualitatif tel que nous ne l'avons peut-être pas connu depuis le passage de la télévision en noir et blanc à la télévision en couleur.
C'est pas demain,  Netflix diffuse en HDR, iTunes diffuse en HDR, canal plus et arte commence aussi  Les DVD bluray sont en hdr c'est aujourd'hui les gars réveillez  vous.
Pourquoi cela vous fait peur ? Peut-être avez vous été échaudé par l'échec de la 3d ?
Là c'est pas une annonce de technologie qui ne verra jamais le jour c'est une réalité.
Heu ... ça c'est le genre d'affirmation typique qu'on fait sur les nouveautés destinées au placard  ;D. Comparer le HDR qui ajoute un peu de dynamique au passage du N&B à la couleur ? ...  ::)

Tu confonds une vraie révolution qui modifie la donne et une évolution qui améliore la  qualité de l'image. Je pense effectivement que le HDR va devenir la norme, comme le 4K, mais pas parce que c'est tellement génial par rapport à du full HD, parce que ça va finir par être au même prix. Franchement, actuellement, je ne mettrais pas un copek dans un écran 4K par rapport à du Full HD. C'est mieux, mais la différence reste quand même à la marge. Idem pour le HDR : c'est mieux mais ça ne change pas la vie. Une télé Full HD donne déjà en vidéo d'excellentes image.

FredEspagne

Un élément important à prendre en compte: les JO de Tokyo, c'est l'année prochaine. La chaine mationale japonaise NHK va filmer en 16k et diffuser en 8k et 4k.
A l'heure présente, les téléviseurs 4 K sont moins chers que les fullHD d'il y a 2 ans. Les fabricants sont obligés d'aller de l'avant pour conserver des marges. Si il est vrai que pour un particulier le 8k n'a pas trop d'intérêt, le 4k est la norme optimale pour un écran de plus de 50". Au niveau de la luminosité maxi, les techniques OLED s'améliorent et vont arriver au niveau des QLED cette année. Reste le gamut qui plafonne un peu à 70% du REC 20 et atteint 98% du DCI-P3 (la norme des projecteurs utilisés dans les cinémas)
35 ans de film et labo argentique , 21 de numérique

scotjh

Citation de: egtegt² le Avril 26, 2019, 18:19:33
Heu ... ça c'est le genre d'affirmation typique qu'on fait sur les nouveautés destinées au placard  ;D. Comparer le HDR qui ajoute un peu de dynamique au passage du N&B à la couleur ? ...  ::)

Tu confonds une vraie révolution qui modifie la donne et une évolution qui améliore la  qualité de l'image. Je pense effectivement que le HDR va devenir la norme, comme le 4K, mais pas parce que c'est tellement génial par rapport à du full HD, parce que ça va finir par être au même prix. Franchement, actuellement, je ne mettrais pas un copek dans un écran 4K par rapport à du Full HD. C'est mieux, mais la différence reste quand même à la marge. Idem pour le HDR : c'est mieux mais ça ne change pas la vie. Une télé Full HD donne déjà en vidéo d'excellentes image.

Full HD qui ne change pas la vie par rapport à la HD ready, qui ne change pas la vie par rapport à la SD, qui ne change pas la vie par rapport au 4/3 etc on va jusqu'au n/b ? Lol

egtegt²

Je suis un peu dubitatif sur les besoins en vidéo. Sur ma télé qui est seulement en 720p, je n'ai jamais été gêné en regardant des films, même des blu-ray. Par contre, si j'affiche des photos, la qualité est largement insuffisante. Je ne dis pas que mieux est inutile, mais clairement, le saut technologique a été fait quand on a dépassé les 625 lignes des formats PAL/SECAM.

ChatOuille

Bien que je ne fais pas de la vidéo, je suis assez clairvoyant et je crois que scotjh a tout à fait raison. A l'époque des 625 lignes je disais à un vidéaste que cette résolution n'était pas suffisante pour obtenir une bonne image. Il me rétorquait que sur ses moniteurs il avait une image parfaite. Puis il a réfléchi et il m'a dit : c'est vrai car on enregistre avec le nombre de lignes doublé et nos moniteurs ont aussi un nombre de lignes en double.

Lorsque le 3D est apparu, j'ai compris aussi qu'il était déjà mort né. Pas seulement à cause des lunettes, mais l'effet que ça produit est artificiel. C'est fantaisiste et n'a rien à voir avec la réalité. On n'a que 2 images ; ce n'est pas de l'holographie. Alors on a tendance à bouger pour voir ce qui se trouve derrière le sujet et on est déçu.

Le 4k, sous l'un ou l'autre décodage (peu importe) est l'avenir. Et cela pour 3 raisons :
1) La qualité des écrans tant en résolution, rendu des couleurs ou contraste ne fait que progresser et très rapidement.
2) La bande passante des signaux ne fait qu'augmenter avec les méthodes de transmission actuelles (fibre optique etc.).
N'oublions pas qu'il y a quelques années à peine, pour télécharger un JPEG il fallait patienter. Maintenant on peu visualiser un film en HD en temps réel.
3) Les capteurs des caméras ont aussi subit une forte amélioration, tant en rendu comme en dynamique.

Actuellement, à la maison (je ne parle pas des projections grand public) je trouve que la norme 1080 est suffisante pour nos écrans d'un mètre de largeur. Il ne faut pas plus. Mais lorsqu'on passera aux 4k cela va nous permettre d'avoir des écrans plus grands. C'est beau la vie !

C'est vrai que le grand saut a été fait lors du passage au numérique. Maintenant ce ne sont que des améliorations, mais cela en vaut la peine.

scotjh

Quelque part je vous envie vous qui n'avez qu'un écran HD SDR, vous n'avez pas encore eu le flash du HDR,  comme j'aimerais retrouver  l'effet waouh de la première fois !
J'imagine que vous trouvez votre écran magnifique et avez du mal à imaginer ce que cela pourrait ajouter de plus. Moi aussi j'étais dans votre cas. Un peu de luminosité ça ou là ? Bof... Des pixels en plus pour la 4k? Bof, je ne les  voyais déjà pas en full HD.
Le jour où dans la pénombre de votre salon vous visionnerez votre 1ere demo HDR vous vous rendrez compte de l'avancée que cela représente. C'est une expérience qui se vit ça ne peut être décrit.
Évidemment pour les vidéos de tata ginette ça  ne va pas révolutionner grand chose. Mais si vous êtes amoureux de belles images, nature, grand espace, vous allez vite comprendre le potentiel.
Pour vous aussi il y aura un avant après.
Si vous êtes honnête on en reparlera.

Est ce que quelqu'un ici a acquit un oled ou qled HDR et ne voit pas de quoi je parle ?
L'effet waouh  est beaucoup plus grand et n'a rien à voir avec le passage du SD au HD.
Le truc c'est que vous êtes forcément des passionnés d'images pour être ici  et quand vous aurez adopté ces fameux écrans vous en deviendrez vous aussi d'ardent défenseurs mais cette fois ci vous saurez pourquoi...

scotjh

Apres la philosophie la pratique:

Voici MA méthode en 3 phases pour voir vos photos comme vous ne l'ai avez jamais vues, enfin en toute bonne foi je parle pour moi parce qu'en réalité j'en sais rien comment vous les voyez lol...

1) Sous photoshop:
Travaillez votre photo de préférence issu d'un raw en faisant attention que les basses lumières ou les ombres ne soient pas trop durs ou bouchés, ceci afin de faciliter la suite,
sauvegardez en TIFF.

2)Sous DaVinci:
Ouvrez un workflow en INPUT COLOR: Rec 709 Gamma 2.4; Timeline et output color : S-gammut S-log.
Ne pas oublier de cocher : Enable HDR Scopes for ST.2084
Importer votre TIFF dans la timeline
A l'aide du scope remonter le gain à 1000 sans trop le dépasser.
A l'aide de la roue d'offset et ou la roue shadow remonter le bas du diagramme à plus de 5.
Un p'tit render en MP4 H265 UHD.

3) Sous ffmpeg: (Oui je sais c'est chiant mais j'arrive pas à faire sans pour l'instant)
Taper ceci en ligne de commande: .\ffmpeg -i photo.mp4 -movflags faststart -c:v copy -c:a copy -bsf:v hevc_metadata=colour_primaries=0:transfer_characteristics=16:matrix_coef
ficients=9 .\photoHDR.mp4
Ceci afin de déclencher le passage de votre afficheur en mode HDR
Remplacer bien sur "photo.mp4" par le nom de votre photo et récupérer la nouvelle vidéo photo sous le nom de photoHDR.mp4

Merci frmfrm pour m'avoir orienté.

PS cette méthode va surement faire sursauter les pros de DaVinci, merci de me dire si on peut la raccourcir mais surtout l'améliorer.
Matériel utilisé pour l'expérience :  RAW issu d'un appareil photo Sony A700 et A7 R2, Moniteur HDR BenQ , TV Sony Oled HDR 55' AF8.
Peut être que l'expérience utilisateur sera différente voir non valable avec d'autres matériels surtout si la TV Sony effectue un traitement supplémentairement.

Si vous testez merci de partager pour faire avancer la méthode.


audio-promo

CitationActuellement, à la maison (je ne parle pas des projections grand public) je trouve que la norme 1080 est suffisante pour nos écrans d'un mètre de largeur. Il ne faut pas plus. Mais lorsqu'on passera aux 4k cela va nous permettre d'avoir des écrans plus grands. C'est beau la vie !

surement que le 4 k ou 8k est super sur de grands écrans  chez soit mais les apparts sont deux plus en plus petits pour cause de budgets .

va falloir être sacrément ingénieux pour trouver  où placer les foutus grands écrans.    ;D ;D ;D
replacer ces engins à leur juste place  : elle d'un outil en s'affranchissant des arguments marketing du moment peut parfois être intéressant.
bon week end

ChatOuille

Citation de: audio-promo le Avril 27, 2019, 15:34:41
surement que le 4 k ou 8k est super sur de grands écrans  chez soit mais les apparts sont deux plus en plus petits pour cause de budgets .

Attention car 4k ne signifie pas 2x plus large, mais 2x plus grand en superficie (pour percevoir la même résolution), donc moins en largeur. C'est probable que dans quelques années le 4k sera la règle, bien que pour le 8k je suis bien plus sceptique. Pour l'instant je me contente de 1080px et c'est très bien.

Citation de: scotjh le Avril 27, 2019, 08:47:23
Des pixels en plus pour la 4k? Bof, je ne les  voyais déjà pas en full HD.

Quand-même. Sur un grand écran je vois bien la différence lorsqu'une émission TV est en HD réel. Parfois on regarde des programmes en HD, mais on s'aperçoit que l'enregistrement n'a pas été fait en HD. On le remarque immédiatement. Une fois une amie m'a signalé qu'elle avait reçu une vidéo en 4k et elle ne voyait pas la différence. Bien sûr : sur un écran d'ordinateur standard. Le 4k prend seulement ses lettres de noblesse avec des écrans de grandes dimensions et si c'est du HDR, tant mieux.

Tonton-Bruno

Citation de: ChatOuille le Avril 27, 2019, 19:56:08
Attention car 4k ne signifie pas 2x plus large, mais 2x plus grand en superficie (pour percevoir la même résolution), donc moins en largeur.
Non.
4K c'est (1920*2)*(1080*2). A taille de pixel identique, c'est 2 fois plus large et 2 fois plus haut, donc une surface quatre fois plus large.
Lorsque je trouverai une TV 4K de 85 pouces à 500€, je m'équiperai vite, histoire de pouvoir regarder les films diffusés en HDTV sur un grand écran, mais sans rechercher le clinquant fatigant du HDR.

Pour le moment je regarde les films sur un 45 pouces à 2m de distance et je trouve que ce n'est pas assez immersif.
A 2,5m l'écran de 85 pouces sera un régal à regarder, même pour les films diffusés en 2K.

Mais je ne valorise pas un tel écran à plus de 500€, car les très bons films sont rares.

ChatOuille

Oui, je fais mon mea culpa car tu as raison. Je me suis trompé. Je trouve aussi qu'un 85 pouces, bien que ce ne soit en soi une révolution, c'est bien du progrès.

J'attache plus d'importance à la durée de vie de l'écran plutôt qu'au prix. Si on m'offre un écran de 85" avec une durée de vie de 20 ans j'achète, même si le prix approche les 1000€. Les cristaux peuvent avoir une vie de 30 ans, mais les fabricants connaissent bien l'obsolescence programmée.

philooo

Citation de: ChatOuille le Avril 27, 2019, 01:11:46C'est vrai que le grand saut a été fait lors du passage au numérique. Maintenant ce ne sont que des améliorations, mais cela en vaut la peine.
Bien d'accord : le passage au DVD quoi, pour ceux qui ont connu l'horreur des cassettes vidéo :) .


Citation de: ChatOuille le Avril 28, 2019, 01:35:47J'attache plus d'importance à la durée de vie de l'écran plutôt qu'au prix. Si on m'offre un écran de 85" avec une durée de vie de 20 ans j'achète
C'est sûr qu'un écran de 1999 (40 kilos de tube cathodique pour 73 cm - soit 29 pouces - de diagonale en 625 lignes) valait la peine qu'on le garde 20 ans ;D .

scotjh

Je te rejoins sur de nombreux points chatouille,  que mais dieu (ou diable) me préserve de ne pouvoir changer de tv par décennie. Force est d'avouer que je suis un sacré fils de pub.  J'adore voir la tête des vendeurs de la fnac quand ils essaient de me refiler une extension de garantie et que je leur rétorque : '' Surtout pas malheureux ! Je serai bien content quand dans 7 ou 8 ans je serai obligé d'en changer et pas repartir pour 7 ans  avec une réparation ! ''
Pour l'instant je n'ai jamais eu de tv en panne et j' opére un roulement salon, chambres, cuisine, don...

Pour en revenir au sujet je re-découvre et est surtout la joie de faire re-découvrir de vieux raw à mon entourage sous un  nouveau jour et sans jeux de mots un nouvel éclairage. J'adore les voir béa s' exclamer '' Ho ! C'est beau ! '' Surtout sur des photos que l'on croit connaître par cœur. C'est un peu l'effet musique qu'on écoute sur du matos haut de gamme et où l'on découvre des sons ignorés jusque-là.

Il est sur que traiter une  photo en HDR TV c'est sortir de sa zone de confort. C'est pas grand public, on a parfois l'impression de jouer les pionniers et de faire la trace.
Mais quel plaisir de découvrir un nouveau monde,  de nouveaux horizons.

egtegt²

C'est sûr qu'on ne joue pas dans la même catégorie : j'ai une télévision, (surtout jamais dans la cuisine ou dans une chambre !) et je fais une rotation Salon-poubelle pour mes télévisions.  :)

Cela dit, je ne suis pas d'accord avec toi sur l'intérêt de la résolution : en vidéo d'accord, je vois peu de différence entre une HD et une 4K, par contre, pour afficher des photos, la différence est énorme. Je suppose que c'est parce qu'on a plus de temps pour examiner une image fixe. Et on le constate également en impression, un 4K correspond en gros à un format A3 en 200 dpi qui est considéré comme le minimum pour une impression de qualité, on est loin des dimensions de la plupart des télévisions.

Je n'essaye même plus de regarder mes photos sur ma télé en HD 720p, la résolution est vraiment trop mauvaise.

scotjh

Non non mais si,  on est d'accord sur l'intérêt de la résolution en photo,  je disais '' bof '' AVANT d'en changer.
Mais plus que la résolution la révolution sur la manière de voir ses photos c'est bien le HDR TV.
A quoi bon avoir plus de pixels si ceux-ci ne sont pas plus beaux ? Avec les nouvelles normes de luminosité les blancs sont éclatant s les noirs...  Noirs pas gris foncé. C'est difficilement descriptible c'est une sensation.

egtegt²

Il va falloir que j'aille dans un magasin pour me faire une idée, je reste un peu dubitatif mais j'ai peut-être tort ;)

En tout cas, je suis convaincu d'une chose : il ne faut pas se limiter aux valeurs couramment acceptées de définition de l'œil.

C'est comme en musique, nous sommes capables d'entendre des fréquence dans une plage donnée (en général entre 20 Hz et 20 Khz environ, ça change beaucoup d'un individu à l'autre et en fonction de l'âge), et pourtant, nous sommes capables d'entendre des petites différences entre un son strictement limité à 20 kHz et un son qui va jusqu'à 30 kHz, alors qu'on n'entend pas la plage 20kHz-30 kHz.


ChatOuille

Citation de: Stepbystep le Mai 06, 2019, 18:08:34
Les JO de Tokyo de 2020 seront diffusés en 8K au Japon, ce n'est qu'une question de temps avant que ça n'arrive chez nous et les prix des télés ne faisant que baisser avec le temps, comme pour les PC à une autre époque, les fabricants doivent constamment se renouveler pour continuer à vendre des télés, probable que les JO de Paris seront aussi en 8K.
D'après ce que j'ai lu, les JO de Tokyo seront diffusés en 8k mais d'une façon expérimentale. En d'autres mots : je ne crois pas que tous les Japonais vont regarder les JO en 8k à la maison. Ce sera réservé aux endroits spécialement aménagés pour. Et probablement idem pour ceux de Paris, quoique je crois que le standard japonais (rapport HxL) n'est pas le même que chez nous. Je ne dis pas que le 8k ne seras jamais le standard, mais pour vraiment voir la différence il faudra des écrans énormes et il faudra trouver de la place. Je pense que si le 8k devient le standard à long terme (ce n'est pas impossible) la plupart des foyers ne vont voir que du 4k tout au plus.

FredEspagne

Et pour les JO, la NHK tournera en 16k et diffusera en 8k. L'accélération de la montée de la défintion pour les fabricants de téléviseurs est la seule manière de faire un peu de marge la première année d'un produit nouveau. On peut craindre que cette méthode ne dure pas longtemps et soit la mort de nombreuses firmes qui ensuite renaissent pour désigner des produits chinois.
35 ans de film et labo argentique , 21 de numérique

scotjh

Stepbystep : Pas compris l'intérêt ? Pour les visionner, j'ai deux méthodes soit à travers une câble hdmi 4k, soit je copie les fichiers sur une clé usb ou sur un dd externe que je connecte à la télé.

Réponse :
La tentative de ma méthode était de s'affranchir des limitations de la dynamique du jpeg et tenter d'afficher la dynamique d'un raw par une méthode utilisée en vidéo.

Nicolas Meunier

Bonjour

Alors... j'ai une TV Oled 2018 HDR qui va vien qui peut afficher en pic dans les 800Nits et des noirs à 0.05Nits.
Elle est calibrée et à un DeltaE inférieur à 1 et affiche 100% du DCI p3.

Afficher des photos en HDR pose un soucis... et ce soucis c'est WINDOWS.
En effet Windows, ajd a une limitation : il ne peut afficher correctement du HDR qu'en plein écran. Donc on ne peut pas retoucher une photo en HDR tranquillement dans une application comme photoshop.
Par contre oui on peut afficher en 10bits sans soucis avec ce type d'écran.

Il faudrait voir si on peut stocker une image à haute dynamique en TIFF 16bits ou PNG 16bits et l'afficher en HDR. Faudra que je teste Attention a ne pas forcer le HDR dans Windows puis de calibrer... ou alors faut vraiment du matériel spécial et des mires spéciales. Sinon on se retrouve avec une image beaucoup beaucoup trop lumineuse alors qu'en HDR c'est seulement les très très hautes lumières qui doivent être très lumineuse mais le blanc « classique » doit rester à 100nits.

scotjh

N'hésite pas à partager si tu obtiens des résultats.