surexposer ou sousexposer ?

Démarré par macarel12, Septembre 19, 2024, 18:04:17

« précédent - suivant »

frmfrm

Citation de: polohc le Septembre 30, 2024, 23:49:30Arrivé à ce point de la discussion, pour ceux qui débarqueraient ici, je pense qu'on peut préciser que la méthode à suivre pour enregistrer un film diverge de celle pour prendre une image fixe ; dans un cas on doit obtenir dès la prise la meilleure exposition possible d'une séquence, dans l'autre en RAW on choisit les zones souhaitables de cramer en acceptant une image sous exposée (même fortement) à corriger en post traitement.

Ben non, les pbs rencontrés en photos se retrouvent aussi en vidéo...

Les caméras les plus performantes permettent d'enregistrer aussi en RAW ou en log. Cela nécessite aussi un développement en post traitement / à l'étalonnage.

On choisit de filmer en RAW ou en log pour avoir le max de dynamique et augmenter les possibilités de traitement à postériori, comme en photographie.
Sinon, on filme en REC709 ... Ca me semble équivalent à photographier en jpeg.

Maintenant, si on photographie en jpeg, on peut quand même choisir ce que l'on capture comme HLs avec les modes "priotité des HL" Canon, ou DR200 ou DR400 chez Fuji. Sur une caméra on joue sur ce qu'on appelle le Knee qui va utiliser plus de HL et les compresser ... c'est la même chose.

Enfin, pour revenir à la question initiale :
- Les optimisateurs de RAW + 1.33 surexposent systématiquement.
- Un fuji en mode DR200 sous-expose d'un diaph et de 2 diaphs en mode DR400.
- Il  y a de forte chance que le Z8  en  mode log sous-expose de 3 diaphs (comme le ferait un DR800).

Maintenant à quoi ça sert de sous-exposer de 3 diaphs ?

Ben, si on photographie une scène à l'ombre et que le sunny f/16 indique de sur-exposer de 4 diaphs par rapport à une scène au soleil.

En ne sur-exposant que de 1 diaph. Les zones au soleil sont sur-exposée d'1 diaph et les zones à l'ombre sont sous-exposes de 3 diaphs. Il suffit de remonter les zones à l'ombre de 3 diaphs au post-traitement.

Si on sur-expose de 4 diaphs à la prise de vue on aura perdu des informations sur la zone éclairée par le soleil. Si en plus un optimise le RAW sur une mesure à l'ombre, on va avoir un rendu bien crado :)

Pierock

#176
On dirait qu'un directeur de la photo du cinéma ne serait pas un photographe. Pourtant il doit exposer correctement 24 images par seconde, gérer la lumière et paramétrer sa caméra.

Quand Nikon rachète RED, on voit très bien le besoin de convergence technique par rapport à Sony, Canon ou Panasonic qui ont des branches cinéma puissantes.

La post-traitement cinéma s'est démocratisé avec l'arrivée du RAW vidéo dans les caméra et APN. Le Post-traitement est plus complexe à cause de la puissance de calcul demandé aux ordinateurs pour traiter le nombre d'images par seconde dans de hautes résolutions. Mais même cette contrainte semble s'estomper au niveau du grand publique aujourd'hui.

En marché, il y a autant de consommation de photographies que de vidéos sur les réseaux sociaux. Pourquoi mettre une barrière ?

Artistiquement, le cinéma est une source d'inspiration.
On a tous des images dans la tête de film qui nous ont procurées de l'émotion, consciemment ou non et qui quelque part nous influencent sur les cadrages, la composition etc.

Il n'y a que 2 choses importantes qui distinguent la photo et la vidéo mais qui ne sont pas techniques photo mais techniques de réalisation.

L'important c'est d'y prendre du plaisir.





polohc

Citation de: frmfrm le Octobre 01, 2024, 09:45:15Ben non, les pbs rencontrés en photos se retrouvent aussi en vidéo...

Les caméras les plus performantes permettent d'enregistrer aussi en RAW ou en log. Cela nécessite aussi un développement en post traitement / à l'étalonnage.

On choisit de filmer en RAW ou en log pour avoir le max de dynamique et augmenter les possibilités de traitement à postériori, comme en photographie.
Sinon, on filme en REC709 ... Ca me semble équivalent à photographier en jpeg.

...


Maintenant à quoi ça sert de sous-exposer de 3 diaphs ?

Ben, si on photographie une scène à l'ombre et que le sunny f/16 indique de sur-exposer de 4 diaphs par rapport à une scène au soleil.

En ne sur-exposant que de 1 diaph. Les zones au soleil sont sur-exposée d'1 diaph et les zones à l'ombre sont sous-exposes de 3 diaphs. Il suffit de remonter les zones à l'ombre de 3 diaphs au post-traitement.

Si on sur-expose de 4 diaphs à la prise de vue on aura perdu des informations sur la zone éclairée par le soleil. Si en plus un optimise le RAW sur une mesure à l'ombre, on va avoir un rendu bien crado :)

Désolé, je ne fais pas de film et ne savais pas qu'on peut filmer en RAW, mais je pense qu'on peut visuellement supporter plus de bruit en video que sur un tirage (les logiciels de traitement video n'ont peut-être pas la qualité de débruitage de DeepPrimeXD)

En photo, c'est pas comme en video, je ne choisi jamais par ex. de sous exposé de 3 diaph., c'est la conséquence d'une expo pour obtenir les HL cramées à garder ou pas sur indications du zebra. Le capteur du A7RIII et DeepPrimeXD en traitement gèrent très bien cette sous-ex.
Il est plus tard que tu penses

Pierock

Citation de: polohc le Octobre 01, 2024, 10:57:34Désolé, je ne fais pas de film et ne savais pas qu'on peut filmer en RAW, mais je pense qu'on peut visuellement supporter plus de bruit en video que sur un tirage (les logiciels de traitement video n'ont peut-être pas la qualité de débruitage de DeepPrimeXD)


C'est une idée préconçue. Aujourd''hui un logiciel comme DaVinci Resolve (dans sa version payante) à une fonction pour débruiter l'image avec I.A comme en photo. On peut traiter dans DaVinci Resolve aussi bien une photo en RAW qu'une vidéo en RAW. Les outils d'étalonnage sont bien plus complet qu'un Lightroom par exemple.

Ce ne sont que les outils d'exports des photos qui sont moins pratiques et trop éloignées de l'impression pour qui font que je ne bascule pas totalement.

Pierock


C'est une idée préconçue. Aujourd'hui un logiciel comme DaVinci Resolve (dans sa version payante) a une fonction pour débruiter l'image avec I.A comme en photo. On peut traiter dans DaVinci Resolve, aussi bien une photo en RAW qu'une vidéo en RAW. Les outils d'étalonnage sont bien plus complets que dans Lightroom par exemple.

Ce ne sont que les outils d'exports des photos qui sont moins pratiques et trop éloignés de l'impression, qui font que je ne bascule pas totalement.


frmfrm

Citation de: polohc le Octobre 01, 2024, 10:57:34Désolé, je ne fais pas de film et ne savais pas qu'on peut filmer en RAW, mais je pense qu'on peut visuellement supporter plus de bruit en video que sur un tirage (les logiciels de traitement video n'ont peut-être pas la qualité de débruitage de DeepPrimeXD)

En vidéo, quand l'excès de bruit provoque un fourmillement, ce n'est pas forcement top. Cependant, ajouter du bruit/faux grain permet de gommer le banding.

Ceci dit, quand tu te payes (loue) une caméra ARRI, tu te payes généralement aussi de quoi travailler l'éclairage de tes scènes pour avoir une belle image :)

polohc

Bonnes réalisations vidéo Pierock et frmfrm avec autant de plaisir que je prends à faire des tirages pour expo ;)
Il est plus tard que tu penses

Pierock

Citation de: polohc le Octobre 01, 2024, 17:29:50Bonnes réalisations vidéo Pierock et frmfrm avec autant de plaisir que je prends à faire des tirages pour expo ;)

Merci polohc, tu as raison, créons des images et partageons les.  ;)  La technique ne doit être qu'un support à la création.

rsp

Désolé de remettre 1€ dans la machine, juste pour être sûr que je ne me trompe pas : si tout était parfait, un gris à 18% serait bien à -2,5 IL de l'écrêtage ? Il m'est déjà arrivé de me planter de nombreuses fois dans les calculs...
Et j'ai bien compris que la question ensuite est de savoir où ce gris se trouve en réalité par rapport à l'écrêtage quand les ISO bougent.

egtegt²

Citation de: rsp le Octobre 01, 2024, 18:52:04Désolé de remettre 1€ dans la machine, juste pour être sûr que je ne me trompe pas : si tout était parfait, un gris à 18% serait bien à -2,5 IL de l'écrêtage ? Il m'est déjà arrivé de me planter de nombreuses fois dans les calculs...
Et j'ai bien compris que la question ensuite est de savoir où ce gris se trouve en réalité par rapport à l'écrêtage quand les ISO bougent.
De toute façon c'est approximatif pour une raison très simple : la mesure de la lumière est une mesure globale qui ne différencie pas les 3 canaux donc si tu as une couleur très saturée et proche d'une des trois primaires, la mesure va t'indiquer une valeur assez lointaine de la saturation alors que dans les faits tu seras déjà saturé sur ce canal.

Essaye de prendre en photo un coquelicot par exemple, sans correction tu auras une photo globalement bien exposée mais avec des rouges sans détail car saturés.

Strictement parlant la seule méthode qui permet de s'en tirer dans toutes les situations c'est un histogramme RVB. Toutes les autres méthodes sont des approximations.

Nikojorj

Citation de: egtegt² le Octobre 02, 2024, 13:30:06Strictement parlant la seule méthode qui permet de s'en tirer dans toutes les situations c'est un histogramme RVB. Toutes les autres méthodes sont des approximations.
Ou alors des zebras RVB basés sur le raw. ;)

frmfrm

Citation de: rsp le Octobre 01, 2024, 18:52:04... si tout était parfait, un gris à 18% serait bien à -2,5 IL de l'écrêtage ?


Pourquoi parfait ???

Une carte blanche 90% Kodak est à 2.3 stop du gris moyen.

C'est à peu près ce que capturait un film polaroid grand public. C'est ce que tu veux pour ton APN qui t'a couté un rein et hypothéqué l'avenir de tes gamins ???

Sinon, si mes souvenir sont bons :)

Le zone system du père Adams va jusqu"à la zone X, il ne s'arrête pas à la zone VII 1/2 .
Un film cinéma Kodak moderne permet de capturer 3,5 au dessus de la carte blanche pour capturer les spéculaires. Ca fait presque 6 diaphs au dessus du gris moyen ... Comme le mode log du Z8 à 800 ISO.



frmfrm

Citation de: Nikojorj le Octobre 02, 2024, 13:42:43Ou alors des zebras RVB basés sur le raw. ;)

Si j'me souviens bien, Magic Lantern permet le zebra sur le RAW. Mais c'est assez rustique.

Nikojorj

Et y'a pas de MagicLantern pour mes Olympus, accessoirement... Sur mon 600D je l'avais mais je ne souviens pas qu'il utilise le raw, à l'époque au moins.

frmfrm

Citation de: Nikojorj le Octobre 02, 2024, 14:33:35Et y'a pas de MagicLantern pour mes Olympus, accessoirement...

Ben, j'peux te refourguer mon 550D qui permet de filmer en RAW.

Cependant, le prix risque d'être élevé car grâce à l'histo RAW, tu réussiras probablement à mieux exposer tes tofs ;)

Nikojorj

C'est vrai que quand j'ai vu le prix que MPB me proposait de mon 600D... Y'a de quoi s'acheter au moins un café et un croissant avec ça!

rsp

Citation de: frmfrm le Octobre 02, 2024, 14:25:00Pourquoi parfait ???

Une carte blanche 90% Kodak est à 2.3 stop du gris moyen.


C'est bien à ces valeurs que j'arrive aussi, je ne commets donc pas d'erreur de calcul, ce qui était ma question.

egtegt²

Citation de: Nikojorj le Octobre 02, 2024, 13:42:43Ou alors des zebras RVB basés sur le raw. ;)
Oui, ce que je voulais dire c'est que faire une mesure globale de la lumière sans différencier les trois canaux pour faire une photo couleur, c'est de toute façon une approximation assez facile à tromper. Si par contre tu as un appareil numérique N&B alors c'est parfaitement satisfaisant :)

Jean-Claude

Merci au cador qui me traite de petit amateur qui mélange tout ce qu'il lit sur le net en n'y comprenant rien 🤣

ne t'en fais pas pour moi,...

matopho

La meilleure réponse n'est-elle pas de faire un essais :
- faire une mesure spot sur une charte de gris,
- augmenter l'exposition par tiers d'IL jusqu'à saturation d'un canal,
- prendre comme valeur de surexposition possible celle juste avant écrêtage d'un canal, en général le vert.
RawDigger peut aider dans cet essais.
+ c loin - c net