Page FB inaccessible

Démarré par seba, Février 26, 2023, 18:28:53

« précédent - suivant »

seba

Nath Sakura bave souvent sur ses coreligionnaires (les livres, les tutos, les formations...etc. sont tous nuls à part les siens).
Là elle accuse Olivier Chauvignat de plagier sa prose dans ses vidéos Youtube.
Pourtant il me semble bien que certaines idées qu'on peut voir dans les livres ou les vidéos de Nath Sakura ont été énoncées ici même par Olivier Chauvignat et ce depuis bien longtemps, avant la publication de ses bouquins justement.
Je me demande si elle n'inverse pas les rôles.

Verso92

Ah oui, là ça craint, quand même !!!

"Petit retour sur une grande escroquerie." Rien que ça...

Verso92

Etonnant !!!


(au bout du compte, je ne suis pas sûr qu'elle ait compris ce qu'est un photosite...)

Nikojorj

Une agente infiltrée de Big Foveon, on dirait.

Verso92

Au cas où, pour ne pas laisser le lecteur de ce fil enduit avec de l'erreur, un capteur Bayer a autant de photosites que de pixels (ou l'inverse, ça marche aussi !  ;-).

Pour un Nikon D700, par exemple (4 256 pixels pour 36mm), ça nous fait 36 / 4 256 =  0,0085mm, soit 8,5µm pour le diamètre (théorique) du photosite.

seba

Citation de: Verso92 le Décembre 01, 2023, 20:19:02
Au cas où, pour ne pas laisser le lecteur de ce fil enduit avec de l'erreur, un capteur Bayer a autant de photosites que de pixels (ou l'inverse, ça marche aussi !  ;-).

Pour un Nikon D700, par exemple (4 256 pixels pour 36mm), ça nous fait 36 / 4 256 =  0,0085mm, soit 8,5µm pour le diamètre (théorique) du photosite.

Méchant Verso92.
Tu devrais juste écrire : clair, précis avec un langage technique qui enrichi notre connaissance photographique. Merci.

frmfrm

Citation de: Verso92 le Décembre 01, 2023, 20:19:02
... un capteur Bayer a autant de photosites que de pixels (ou l'inverse, ça marche aussi !  ;-).

Si le capteur de Bayer est dans une caméra, ça peut devenir plus compliqué, enfin si on regarde/compare les résolutions/définitions mesurées.

Pour ceux qui ne savent pas comment s'occuper ce WE ... un peu de lecture, mais que si on a vraiment rien d'autre à faire  :)

https://www.afcinema.com/Les-televisions-britanniques-restreignent-le-choix-de-formats-d-acquisition-pour-la-TV-UHD.html
https://tech.ebu.ch/docs/r/r118.pdf
https://tech.ebu.ch/docs/tech/tech3335.pdf

Col Hanzaplast

Citation de: frmfrm le Décembre 01, 2023, 23:11:24Pour ceux qui ne savent pas comment s'occuper ce WE ... un peu de lecture, mais que si on a vraiment rien d'autre à faire  :)

https://www.afcinema.com/Les-televisions-britanniques-restreignent-le-choix-de-formats-d-acquisition-pour-la-TV-UHD.html

La fin du lien est un délice de gourmet :
« Les recommandations proposées par le DPP pour les programmes UHD laissent nombre de questions sans réponse, et rappellent tristement, pour ceux qui s'en souviennent, le langage similaire utilisé pour signer l'arrêt de mort du 16 mm dans les premiers jours de 2007 (et partiellement contredit en 2013). Ces recommandations ne font aucun cas de l'art du cinéma et, de façon condescendante, laissent entendre que les acheteurs de téléviseurs 4K ne voudront voir qu'une image ultra définie, ultra brillante, aux couleurs saturées, et vont se plaindre s'ils voient quoi que ce soit qui n'aura pas été tourné avec une caméra étiquetée "4K". Exactement les mêmes arguments erronés utilisés dans les premiers temps de la HD, mais finalement, le bon sens a prévalu. La BSC va rencontrer les auteurs de ces recommandations dans une recherche de clarification sur de nombreux points, et afin de voir ce qui peut être fait pour offrir aux metteurs en scène et aux directeurs de la photographie plus de liberté dans leurs choix de média d'acquisition. »

seba

Il y a une autre question qui me vient à l'esprit. Dans une camera tri-CCD (ou un capteur Foveon), il y a autant de photosites verts que de rouges ou de bleus.
Or pour la matrice de Bayer, les proportions sont 2-1-1. Pour la raison que l'oeil est plus sensible au vert.
Pourtant cette raison tombe à l'eau pour les tri-CCD (et le Foveon).

Tonton-Bruno

Le Tri-ccd cherche en théorie à enregistrer les valeurs exactes R,V,B pour chaque photosite. C'est un soucis de précision de mesure.
Un capteur traditionnel enregistre une matrice de 4 photosites  R,V,V,B et extrapole les valeurs manquantes à partir des 8 ou 24 photosites qui se trouvent autour de chaque photosite de la matrice afin de restituer 4 pixels RVB.
C'est une extrapolation très fine mais c'est néanmoins une extrapolation, justifiée par le fait que les photosites verts étant sur-représentés, la faible erreur d'extrapolation sera encore plus faible dans la partie du spectre la plus sensible et la plus discriminante de la vision humaine.

Quand il n'y a pas d'extrapolation des composantes R,V,B de chaque pixel, il n'y a aucune raison de sur-représenter une couche.

Néanmoins les photosites du système Fovéon ne réagissent pas de la même aux longueurs d'ondes des 3 composantes R,V,B et l'imprécision de mesure qui en résulte est compensée par la disposition des 3 couches.

Cette disposition des 3 couches repose au fond sur un principe apparenté à celui qui amène à sur-représenter la couche verte avec une matrice de Bayer.

Verso92

Citation de: seba le Décembre 02, 2023, 09:04:35
Il y a une autre question qui me vient à l'esprit. Dans une camera tri-CCD (ou un capteur Foveon), il y a autant de photosites verts que de rouges ou de bleus.
Or pour la matrice de Bayer, les proportions sont 2-1-1. Pour la raison que l'oeil est plus sensible au vert.
Pourtant cette raison tombe à l'eau pour les tri-CCD (et le Foveon).

L'explication le plus plausible est qu'il est plus facile de structurer la matrice de Bayer avec quatre pixels plutôt que trois.

Alors, tant qu'à faire, autant privilégier la couleur la plus sensible de la vision humaine...

seba

Les deux explications se tiennent et se complètent.
Encore un autre truc : on voit souvent des tests de résolution du couple objectif-capteur, avec des résolutions chiffrées.
Mais à mon avis la résolution ne devrait pas être la même en diagonale. Par exemple si une mire est constituée de traits orientés comme les photosites du capteur, ce sera plus favorable que si les traits sont orientés à 45°.
Quelqu'un a déjà illustré cette différence ?

egtegt²

Citation de: seba le Décembre 02, 2023, 14:21:50
Les deux explications se tiennent et se complètent.
Encore un autre truc : on voit souvent des tests de résolution du couple objectif-capteur, avec des résolutions chiffrées.
Mais à mon avis la résolution ne devrait pas être la même en diagonale. Par exemple si une mire est constituée de traits orientés comme les photosites du capteur, ce sera plus favorable que si les traits sont orientés à 45°.
Quelqu'un a déjà illustré cette différence ?
C'est parfaitement vrai si tu ne considères qu'une ligne diagonale mais si tu réfléchis en deux dimensions et non en une seule en prenant en compte toute la surface ça n'est pas si simple.

Si par exemple tu as une matrice avec un écart de 1 horizontalement et verticalement entre chaque centre de photosite, une diagonale va donner un écart de 1,4 entre chaque centre si on prend une ligne, ce qui semblerait te donner raison, mais maintenant si tu prends deux diagonales adjacentes, elles sont décalée de 0,7 et donc pour deux diagonales tu as un centre tous les 0,7 alternativement sur une et sur l'autre et les deux diagonales sont décalées de 0,7 et non de 1. Au final la densité de pixels en diagonal est la même qu'en vertical ou en horizontal.

frmfrm

Citation de: seba le Décembre 02, 2023, 14:21:50
Les deux explications se tiennent et se complètent.
Encore un autre truc : on voit souvent des tests de résolution du couple objectif-capteur, avec des résolutions chiffrées.
Mais à mon avis la résolution ne devrait pas être la même en diagonale. Par exemple si une mire est constituée de traits orientés comme les photosites du capteur, ce sera plus favorable que si les traits sont orientés à 45°.
Quelqu'un a déjà illustré cette différence ?

Pour parler des caméras tri-capteurs, il y a des trucs marrants :

- Sur certaines caméras le capteur vert est décalé d'1/2 pixel par rapport aux capteurs bleus et rouges. ( J'sais plus pourquoi ??? ) .
- J'ai des caméras tri-capteurs qui ne sortent pas du 4:4:4 , mais au mieux du 4:2:2 et 4:2:0   . cad que lors de l'enregistrement, on privilégie au final la luminance sur la chrominance.

Pour faire des tests de résolution, on peut utiliser des mires comme sur la figure 2 de la doc https://tech.ebu.ch/docs/tech/tech3335.pdf .  Cela permet voir les différences hori/vert/diagonales. On peut avoir peu d'aliasing en horizontal/vertical mais commencer à en avoir en diagonale ...

Il y a des exemples concrets sur le site https://tech.ebu.ch/camera_reports_legacy

Nikojorj

Citation de: Tonton-Bruno le Décembre 02, 2023, 10:23:15
C'est une extrapolation très fine mais c'est néanmoins une extrapolation, justifiée par le fait que les photosites verts étant sur-représentés, la faible erreur d'extrapolation sera encore plus faible dans la partie du spectre la plus sensible et la plus discriminante de la vision humaine.
Une autre justification est que la vision humaine a une résolution en chrominance inférieure à sa résolution en luminance : nous avons aussi des capteurs plus ou moins verts, rouges et bleus répartis sur la rétine (au moins dans la fovéa je crois?).
D'où aussi le 4:2:0.

Quant aux foveon, ne pas oublier que leurs couches de couleur ne sont pas bleu/vert/rouge mais plutôt blanc/jaune/rouge, car un photon rouge est susceptible d'être enregistré par n'importe laquelle des trois couches.
Cf. https://blog.kasson.com/the-last-word/why-foveon-images-are-so-noisy/ par exemple.

seba

Citation de: frmfrm le Décembre 02, 2023, 14:44:55
Pour parler des caméras tri-capteurs, il y a des trucs marrants :

- Sur certaines caméras le capteur vert est décalé d'1/2 pixel par rapport aux capteurs bleus et rouges. ( J'sais plus pourquoi ??? ) .
- J'ai des caméras tri-capteurs qui ne sortent pas du 4:4:4 , mais au mieux du 4:2:2 et 4:2:0   . cad que lors de l'enregistrement, on privilégie au final la luminance sur la chrominance.

Pour faire des tests de résolution, on peut utiliser des mires comme sur la figure 2 de la doc https://tech.ebu.ch/docs/tech/tech3335.pdf .  Cela permet voir les différences hori/vert/diagonales. On peut avoir peu d'aliasing en horizontal/vertical mais commencer à en avoir en diagonale ...

Il y a des exemples concrets sur le site https://tech.ebu.ch/camera_reports_legacy

Intéressant, merci.

restoc

Citation de: seba le Décembre 02, 2023, 14:21:50
Les deux explications se tiennent et se complètent.
Encore un autre truc : on voit souvent des tests de résolution du couple objectif-capteur, avec des résolutions chiffrées.
Mais à mon avis la résolution ne devrait pas être la même en diagonale. Par exemple si une mire est constituée de traits orientés comme les photosites du capteur, ce sera plus favorable que si les traits sont orientés à 45°.
Quelqu'un a déjà illustré cette différence ?

C'est pour çà que le FTM mesurée à partir d'une prise de vue sur mire selon la méthode du Slant Edge utilise une mire inclinée de 15 18 ou 21 ° par ex pour ne privilégier ni le x ni le y ni la diagonale.

Nikojorj

C'est aussi que cet angle permet d'étaler la transition sur plus de pixels.

restoc

Citation de: Nikojorj le Décembre 02, 2023, 22:08:43
C'est aussi que cet angle permet d'étaler la transition sur plus de pixels.

Oui. C'est simple la FTM  ;)

seba

Comment comparer les FTM quand on prend des images d'une mire sur un capteur ?
Car le contraste va dépendre de l'objectif mais aussi du capteur et du traitement de l'image.

Col Hanzaplast

Tous à l'école, les neuneus !  Et prenez-en de la graine... :laugh:

https://www.youtube.com/watch?v=jJ0JuJa4zYw

seba

Citation de: Col Hanzaplast le Décembre 03, 2023, 09:57:53
Tous à l'école, les neuneus !  Et prenez-en de la graine... :laugh:

https://www.youtube.com/watch?v=jJ0JuJa4zYw

Ce qui est marrant, c'est qu'elle prend beaucoup de précautions pour minimiser la lumière indirecte (réfléchie sur les parois du studio), chose qu'elle oublie totalement quand elle essaye de démontrer l'effet d'une lumière directe.

Tonton-Bruno

A environ 12', l'assistante mesure la lumière sur le fond du studio coupole du flashmètre sortie.

A 13' elle mesure une lumière latérale coupole rentrée.

On peut considérer que dans le premier cas, elle avait la cellule pointée vers la caméra, mais la paroi du studio étant plane, d'après le mode d'emploi du flashmètre, elle aurait dû prendre cette mesure coupole rentrée.
Dans le second cas, cellule dirigée vers la source lumineuse, elle mesure la lumière coupole rentrée, comme le préconise le manuel.

Ce qui est cocasse, c'est que Nath donne des indications précises au dixième de tiers de diaphragme, alors que les variations entre coupole rentrée ou sortie dépassent généralement le demi-diaphragme.  ;)

seba

Beaucoup de photographes n'utilisent pas la sphère intégratrice conformément au mode d'emploi.
Je dois dire que si on le fait, on aura en principe un résultat typé « Norwood » (puisque les modes d'emploi sont calqués sur sa méthode) qui est un choix esthétique et n'a pas de valeur absolue.
Mais beaucoup aussi préconisent des utilisations assez bizarres avec des explications assez obscures, comme cet extrait d'un bouquin de Nath Sakura.
Ainsi elle écrit que le contraste dépend du point de vue. Le contraste de quoi ? Et en quoi le contraste dépend-il du point de vue ?
Et il faut « contrôler », « vérifier »...pour faire quoi ensuite ? On ne sait pas.
En plus ce qu'elle contrôle, c'est surtout l'image sur l'écran de son ordinateur, du coup à quoi sert son flashmètre ?

Tonton-Bruno

Je suis d'accord avec ce qui est écrit sous les 3 premières vignettes mais le texte de la quatrième me laisse perplexe.

Quoi qu'il en soit, il faut bien distinguer les différentes fonctions du flashmètre:

  • Calculer l'exposition pour le sujet principal en pointant la sphère vers la caméra
  • Vérifier le delta d'éclairage des éléments secondaires (accessoires, arrière-plan...) toujours en pointant vers la caméra
  • Noter les puissances respectives des torches secondaires sphère rentrée dirigée vers la source lumineuse pour pouvoir refaire le même dispositif d'éclairage au cours d'une autre séance.

Typiquement c'est ce qu'elle fait quand elle dit que l'éclairage des cheveux noirs doit avoir une puissance de + 3 IL par rapport à l'éclairage principal. Il s'agit de la quantité de lumière envoyée sur les cheveux, pas de celles qu'ils vont réfléchir vers la caméra.
Dans ce cas-là, il peut être légitime de sortir la sphère pour tenir compte aussi de la lumière apportée par les autres sources d'éclairage.

Comme bien souvent, elle maîtrise très bien sa pratique, mais elle l'explique de manière trop brouillonne et incomplète, sans se rendre compte des incohérences et des contradictions que ses mauvaises explications introduisent.