PdC et diffraction...

Démarré par Verso92, Mars 09, 2015, 20:58:56

« précédent - suivant »

restoc

Citation de: chelmimage le Mars 11, 2015, 07:18:22
Bon et bien il ne reste plus à Verso92 que de retourner sur place avec sa chaîne d'arpenteur! ;D ;D

Oh ... ! Chaine d'arpenteur avec un D810 çà ne va pas ...!
Nikon vend d'excellents télémètres laser précis au 1/1000  à 1000 m .
http://www.nikon.fr/fr_FR/product/sport-optics/laser-range-finders/laser-1200s

Avec un support de flash déporté on peut même le fixer au niveau du plan focal !! . Un vrai labo de précision ambulant pour tester les courbes de diffraction.

Verso92

Citation de: Olivier Roche le Mars 10, 2015, 23:33:25
 Oui, n'en reste pas moins que tes exemples sont très mous. Je ne suis pas certain que le 24-70 soit le meilleur exemple pour ce
 ce type de démonstration. Bien plus que les effets de la diffraction,  on voit surtout que ce zoom est incapable de sortir le jus
 d'un 36 Mpxl défiltré.

D'où ma réponse à Lorca, Olivier...  ;-)

Citation de: Verso92 le Mars 10, 2015, 21:54:34
Je te sens un brin optimiste, sur ce coup-là : moi, j'ai l'impression qu'il atteint ses limites...
(j'avais failli doubler les PdV avec le f/1.8 50 AF-S, étant donnée la focale... mais je ne l'avais pas emmené, ayant préféré le f/2 35 Zeiss qui, finalement, n'est pas sorti du fourre-tout. C'est toujours pareil avec les focales fixes : on n'a jamais la bonne avec soi !  ;-)
J'attends le modèle II avec impatience... mais quand va-t-il sortir ?

Verso92

Citation de: Jean-Claude le Mars 11, 2015, 07:01:49
Il suffit de voir comment Nikon procède pour coder les distances qui renseignent les automatismes du boitier et les EXIF.

L'information de distance est issues de pistes circulaires autour du fûts de map avec des balais collecteurs qui transmettent des positions de contact de ces pistes.

Le résultat de distance calculé donne un chiffre avec des décimales, mais la valeur absolue de distance est pas mal fausse.

Je sais que lors du calibrage de mon ensemble, 58G + D800E le SAV à aussi contrôlé le calage de ces pistes, c'est Çe qu'il ressort du compte rendu d'intervention.

N'empêche que la valeurs absolues de distance sont toujours pas mal fausses dans les EXIFS de tous mes objeçtifs !

Oui : c'est ce qui ressort des multiples discussions sur le sujet...

nickos_fr

Citation de: Verso92 le Mars 09, 2015, 21:01:47
1/9 - crop 100% sur le pylône, f/8 :

c'est bizzare elle ne fait pas net comme un flou de bougé  ??? à f11 c'est bon à16 c'est aussi peu net que à f8 mais sans cette sensation de bougé !

chelmimage

Citation de: Verso92 le Mars 10, 2015, 21:54:34
Je te sens un brin optimiste, sur ce coup-là : moi, j'ai l'impression qu'il atteint ses limites...
ça serait le moment de le faire passer à la moulinette de cet essai..
http://www.chassimages.com/forum/index.php/topic,182435.msg3853395.html#msg3853395
C'est simple mais ça a l'avantage de donner un repère de valeur..Surtout pour un 36 Mpix qui est une valeur encore peu habituelle (actuellement). Il faut une impression la plus soignée possible de la mire. Ensuite en une seule photo on voit si on est plutôt bon, tangent ou mauvais.

al646

Elément super important et pourtant non mentionné ici, mais la diffraction dépendant de la longeur d'onde, elle se manifeste donc beaucoup plus tôt pour le rouge, le bleu étant le plus épargné.
Prenez un D7100 et fermez à f/8 ou plus, la resolution max sera 3x plus élevée dans les bleus que dans les rouges...
Pour un D810, fermez à f/11 ou plus et ce sera pareil, on aura 3x plus de detail dans les bleus que dans les rouges...
Si Verso pouvait faire un test de diffraction avec un sujet rouge et un sujet bleu, ce serait interessant :)

chelmimage

Citation de: al646 le Mars 11, 2015, 15:54:06
Elément super important et pourtant non mentionné ici, mais la diffraction dépendant de la longeur d'onde, elle se manifeste donc beaucoup plus tôt pour le rouge, le bleu étant le plus épargné.
Prenez un D7100 et fermez à f/8 ou plus, la resolution max sera 3x plus élevée dans les bleus que dans les rouges...
Pour un D810, fermez à f/11 ou plus et ce sera pareil, on aura 3x plus de detail dans les bleus que dans les rouges...
Si Verso pouvait faire un test de diffraction avec un sujet rouge et un sujet bleu, ce serait interessant :)
Il me semble que j'ai déjà lu ça dans un fil..je ne sais plus à propos de quoi..

seba

Citation de: al646 le Mars 11, 2015, 15:54:06
Prenez un D7100 et fermez à f/8 ou plus, la resolution max sera 3x plus élevée dans les bleus que dans les rouges...
Pour un D810, fermez à f/11 ou plus et ce sera pareil, on aura 3x plus de detail dans les bleus que dans les rouges...

3x je ne pense pas car le rapport des longueurs d'onde n'est pas égal à 3.

Bernard2

À f/8
Dans le bleu           4,68µm,     R= 213 cy/mm
Dans le jaune-vert  5,46µm,     R=183 cy/mm
Dans le rouge         6,3µm,      R= 158 cy/mm

al646

Apparement si, et le calcul n'est pas simplement base sur le rapport des longueurs d'onde... voir ce lien (table 3):
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/

Citation de: seba le Mars 11, 2015, 16:13:54
3x je ne pense pas car le rapport des longueurs d'onde n'est pas égal à 3.


Bernard2

Citation de: al646 le Mars 11, 2015, 17:12:19
Apparement si, et le calcul n'est pas simplement base sur le rapport des longueurs d'onde... voir ce lien (table 3):
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/

correction je ne regardais pas le tableau  voulu

restoc

Citation de: al646 le Mars 11, 2015, 17:12:19
Apparement si, et le calcul n'est pas simplement base sur le rapport des longueurs d'onde... voir ce lien (table 3):
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/


L'article pose les bonnes bases mais oublie un détail : il reste au niveau analytique de la tache de Ayry comme s'il s'agissait de taches discrètes en matrice ( juxtaposées pour faire simple) . C'est ok pour caractériser un objectif+ diaph  isolément mais inadapté au système objectif + capteur : l'information qui arrive au niveau du capteur n'est pas une matrice de taches de Ayry mais une information continue que seul le capteur va discrétiser.  De plus ce qui arrive au niveau du capteur est un mix des longueurs d'ondes et pas une suite de raies spectrales.

Il est donc à mon avis totalement hasardeux d'utiliser leur tableau différenciant les Rvb qui part sur une mauvaise base.
Seule la mesure de MTF objectif ( diaphragmé ) + capteur permet d'avoir une mesure réelle du système complet et d'évaluer l'impact de la diffraction.

Il n'est pas inutile de rappeler que l'œil est essentiellement sensible à la luminance, donnée à 80 % par le canal vert-jaune, lui même sur-représenté dans la matrice de Bayer, et donc ne pas tenir compte des bavures du rouge et bleu ne fait pas faire une grosse erreur pour étudier la diffraction qui sort  du système.

seba

Citation de: al646 le Mars 11, 2015, 17:12:19
Apparement si, et le calcul n'est pas simplement base sur le rapport des longueurs d'onde... voir ce lien (table 3):
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/

Je n'ai pas compris sur quoi il se base.
En microscopie par exemple, la résolution est proportionnelle à la longueur d'onde  (d = 1,22xlambda/NA , lambda étant la longueur d'onde).

chelmimage

Dans la continuité de la manip de Verso92, j'ai imaginé celle-ci.
J'ai crée une "mire" qui comporte des applats de couleurs R, V  et bleu.
Vu en macro, chaque applat est en fait une de mire de barres rouge-noir..., bleu-noir...., vert-noir.....
Le noir correspond aux couleurs non allumées dans chaque pixel d'écran.
J'ai donc photographiée cette mire affichée en 400% de façon que j'aie 4 pixels de photo par pixel théorique de la mire.240X4soit environ 1000 pixels.
J'ai fait la photo à f5,6 avec un appareil dont la dimension du pixel est 3,75 µ.
Dans ces conditions, la dimension du disque de Airy est:
Bleu 5,5 µ soit < 2 pixels
Vert 7,5 µ soit juste 2 pixels
rouge 9,6 µ soit > à 2 pixels..
On voit que sur cet extrait de photo en zoom 400% le bleu et le vert sont discriminés et le rouge ne l'est plus.
à f4 la discrimination existe mais plus floue
à partir de f8 on ne voit plus les barres, tout est uniforme..
ça semble conforme à la théorie!!  :D :D :D
Voici l'extrait à f5,6.

chelmimage

#89
Et pour concrétiser un peu plus le flou dans le rouge voici un autre extrait de la même photo.

chelmimage

Et si vous êtes tentés par la même manip, la mire..un peu moins parfaite que mon original en TIF..
à afficher en 400%.

seba

Citation de: chelmimage le Mars 13, 2015, 08:34:40
J'ai fait la photo à f5,6 avec un appareil dont la dimension du pixel est 3,75 µ.
Dans ces conditions, la dimension du disque de Airy est:
Bleu 5,5 µ soit < 2 pixels
Vert 7,5 µ soit juste 2 pixels
rouge 9,6 µ soit > à 2 pixels..
On voit que sur cet extrait de photo en zoom 400% le bleu et le vert sont discriminés et le rouge ne l'est plus.
à f4 la discrimination existe mais plus floue
à partir de f8 on ne voit plus les barres, tout est uniforme..
ça semble conforme à la théorie!!  :D :D :D

Conforme oui et non car le nombre de photosites rouges et bleus est moindre que les verts.

chelmimage

Citation de: seba le Mars 13, 2015, 20:28:20
Conforme oui et non car le nombre de photosites rouges et bleus est moindre que les verts.
Je n'oublie pas ce détail..que je connais pour le rouge depuis la nuit de mes temps..
Mais ça ne semble pas gêner le bleu? pourquoi?

Bernard2

#93
Citation de: chelmimage le Mars 13, 2015, 20:52:24
Je n'oublie pas ce détail..que je connais pour le rouge depuis la nuit de mes temps..
Mais ça ne semble pas gêner le bleu? pourquoi?
Sans doute parce que la plage bleue est plus résolue que la plage violette de droite donc les inclusions rouges bénéficient de la résolution des contours nets du bleu dans la plage bleue
Alors que dans la plage violette 'qui est constituée de beaucoup de rouge ne peut "encadrer" les zones rouges

chelmimage

Citation de: Bernard2 le Mars 13, 2015, 21:39:44
Sans doute parce que la plage bleue est plus résolue que la plage violette de droite donc les inclusions rouges bénéficient de la résolution des contours nets du bleu dans la plage bleue
Alors que dans la plage violette 'qui est constituée de beaucoup de rouge ne peut "encadrer" les zones rouges
Bonne réponse... :D :D :D :D
Un début d'effet aquarelle, par ex?

restoc

Si j'ai bien compris tu essayes de tirer une conclusion ( visuelle)  de validation théorique de cette manip qui si je résume présente le résultat
-de la ftm de la matrice pleine du capteur
-convoluée par la matrice de Bayer -
-convoluée par l'optique
-convoluée par la ftm de l'écran
-le tout avec un illuminant qui a peu de chance d'être spectralement et énergétiquement égal au sensibilités du capteur après filtrage.

A mon avis il vaut mieux ne pas essayer de généraliser cette manip et lui donner une valeur théorique universelle . Disons que c'est le résultat de ta pise de vue dans tes conditions de matériel , d'illuminant, de pose et de dématriçage .

Pour info en optique seule ( hors les pb de discrétisation imposés par la matrice capteur) la dimension du disque de Ayry lié à la longueur d'onde est de 0,16 micron à 400 Nm ( bleu-violet) et 0,38 micron pour le rouge. Ayry= 0,61*lambda ( longueur d'onde /  n*sin alpha de lambda.). Sur le jaune en milieu de spectre Ayry= 0, 28 micron.  Cà laisse encore un peu de marge aux bonnes optiques voir même aux entrée de gamme.
D'ailleurs les Smartphones avec 1,5 micron de pixel et des lentilles en plastique ne sortent pas de la bouillie dans le rouge. Donc ...

Essayes déjà de voir si ton écran traduit des pixels bien nets  en ne faisant que des barres de 1 pixels rouge 100 %  et noir  etc. ( mm si tu regroupes par 4 après il faut déjà que tu re-photographies ce qui se passe à ce niveau pour éliminer l'écran comme source du pb). Si tu as déjà de la bouillie à ce niveau ...pas la peine d'invoquer Ayry et les longueurs d'onde. Ensuite tu rajoute le vert à 100% et il faut vérifier avec une loupe que la matrice de l'écran ne bave pas d'une couleur sur l'autre ce qui est fréquent même sur les très bons écrans. SI çà bave un peu alors il faudrait régler l'écran .

Heureusement le mauvais temps est de retour pour le week end ...

chelmimage


Tout ça c'est des paroles verbales!
Malgré tout, j'arriverais à faire tout ça avec une seule photo? C'est plus que ce que j'espérais..
Le week end commence bien.. ;D ;D ;D

Bernard2

Citation de: restoc le Mars 13, 2015, 22:28:33
Si j'ai bien compris tu essayes de tirer une conclusion ( visuelle)  de validation théorique de cette manip qui si je résume présente le résultat
-de la ftm de la matrice pleine du capteur
-convoluée par la matrice de Bayer -
-convoluée par l'optique
-convoluée par la ftm de l'écran
-le tout avec un illuminant qui a peu de chance d'être spectralement et énergétiquement égal au sensibilités du capteur après filtrage.

A mon avis il vaut mieux ne pas essayer de généraliser cette manip et lui donner une valeur théorique universelle . Disons que c'est le résultat de ta pise de vue dans tes conditions de matériel , d'illuminant, de pose et de dématriçage .

Pour info en optique seule ( hors les pb de discrétisation imposés par la matrice capteur) la dimension du disque de Ayry lié à la longueur d'onde est de 0,16 micron à 400 Nm ( bleu-violet) et 0,38 micron pour le rouge. Ayry= 0,61*lambda ( longueur d'onde /  n*sin alpha de lambda.). Sur le jaune en milieu de spectre Ayry= 0, 28 micron.  Cà laisse encore un peu de marge aux bonnes optiques voir même aux entrée de gamme.
D'ailleurs les Smartphones avec 1,5 micron de pixel et des lentilles en plastique ne sortent pas de la bouillie dans le rouge. Donc ...

Essayes déjà de voir si ton écran traduit des pixels bien nets  en ne faisant que des barres de 1 pixels rouge 100 %  et noir  etc. ( mm si tu regroupes par 4 après il faut déjà que tu re-photographies ce qui se passe à ce niveau pour éliminer l'écran comme source du pb). Si tu as déjà de la bouillie à ce niveau ...pas la peine d'invoquer Ayry et les longueurs d'onde. Ensuite tu rajoute le vert à 100% et il faut vérifier avec une loupe que la matrice de l'écran ne bave pas d'une couleur sur l'autre ce qui est fréquent même sur les très bons écrans. SI çà bave un peu alors il faudrait régler l'écran .

Heureusement le mauvais temps est de retour pour le week end ...

Ça ne bave pas du tout voila les pixels de mon écran en micro photo dans une zone blanche bien sûr :)


chelmimage

Citation de: Bernard2 le Mars 13, 2015, 23:25:34
Ça ne bave pas du tout voila les pixels de mon écran en micro photo dans une zone blanche bien sûr :)
Merci Bernard2 pour ton intervention, je n'aurais pas su aussi bien photographier mon écran qui n'a peut être pas la qualité du tien.
Mais je l'ai peut être bien regardé, de près, plus de mille fois!! Et il ne me parait pas souffrir de tous les maux dont Restoc le suspecte.. ;D ;D ;D ;D

chelmimage

Citation de: restoc le Mars 13, 2015, 22:28:33
Si j'ai bien compris tu essayes de tirer une conclusion ( visuelle)  de validation théorique de cette manip qui si je résume présente le résultat
-de la ftm de la matrice pleine du capteur
-convoluée par la matrice de Bayer -
-convoluée par l'optique
-convoluée par la ftm de l'écran
-le tout avec un illuminant qui a peu de chance d'être spectralement et énergétiquement égal au sensibilités du capteur après filtrage.

A mon avis il vaut mieux ne pas essayer de généraliser cette manip et lui donner une valeur théorique universelle . Disons que c'est le résultat de ta pise de vue dans tes conditions de matériel , d'illuminant, de pose et de dématriçage .

Pour info en optique seule ( hors les pb de discrétisation imposés par la matrice capteur) la dimension du disque de Ayry lié à la longueur d'onde est de 0,16 micron à 400 Nm ( bleu-violet) et 0,38 micron pour le rouge. Ayry= 0,61*lambda ( longueur d'onde /  n*sin alpha de lambda.). Sur le jaune en milieu de spectre Ayry= 0, 28 micron.  Cà laisse encore un peu de marge aux bonnes optiques voir même aux entrée de gamme.
D'ailleurs les Smartphones avec 1,5 micron de pixel et des lentilles en plastique ne sortent pas de la bouillie dans le rouge. Donc ...
Essayes déjà de voir si ton écran traduit des pixels bien nets  en ne faisant que des barres de 1 pixels rouge 100 %  et noir  etc. ( mm si tu regroupes par 4 après il faut déjà que tu re-photographies ce qui se passe à ce niveau pour éliminer l'écran comme source du pb). Si tu as déjà de la bouillie à ce niveau ...pas la peine d'invoquer Ayry et les longueurs d'onde. Ensuite tu rajoute le vert à 100% et il faut vérifier avec une loupe que la matrice de l'écran ne bave pas d'une couleur sur l'autre ce qui est fréquent même sur les très bons écrans. SI çà bave un peu alors il faudrait régler l'écran .
Heureusement le mauvais temps est de retour pour le week end ...
Merci pour tous ces conseils..Je les pratique déjà depuis de nombreuses années..Et des manips avec mon écran.............!!! . ::) ::) ::)
Dans ce que tu dis il y a quelque chose qui me soucie c'est le diamètre du cercle de Ayry. Tu donnes des valeurs qui sont environ 10 fois plus faibles que ce qu'on trouve ailleurs, par ex ici:
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/

S'agit_il de la même grandeur ou de grandeurs différentes. Pour un, le diamètre extérieur du cercle, pour toi, la dimension d'une couronne, ou que sais je d'autre?( A moins que je me trompe dans les unités?
Je comprend peut être mal ce que je lis. Quand il est écrit que le diamètre du cercle de Ayry peut atteindre la dimension du cercle de confusion, c'est à dire 20 à 30 µ, c'est d'une autre dimension que les 0,2, 04 µ dont tu parles.
Et moi, j'aimerais bien, en effet, que tu aies raison. Parce que lorsque le  cercle de Ayry fait des "tâches" de plusieurs pixels (au moins~10) sur un 36 Mpix je ne voit pas comment l'image peut être nette.? Et ton argument du smartphone est troublant. ???

PS: Pourquoi: ne pas généraliser cette manip?
Au contraire, je pense que si une majorité d'essayeurs trouvait la même chose elle serait au moins représentative d'un phénomène physique..Peut être pas celui que je décris, mais tant pis, ça resterait une vérité statistique!