Bonjour à toutes et à tous,
lors de PdV réalisées hier, je me suis amusé à faire la même photo à f/8, à f/11 et à f/16 pour essayer de voir ce que donnaient les conséquences de l'ouverture sur la PdC et la diffraction... gains et pertes, en quelque sorte !
Ces photos ont été réalisées sur trépied, avec un D810 + 24-70, à la focale de 48mm.
Pas de prétentions scientifiques, hein... juste un partage, histoire de papoter le bout de gras !
Les photos ont été développées dans Capture One v8, avec les options par défaut. Pas de P/T particulier de ma part.
La vue entière, réduite :
Et le (re)cadrage imaginé lors de la PdV, juste pour info :
1/9 - crop 100% sur le pylône, f/8 :
2/9 - crop 100% sur le pylône, f/11 :
3/9 - crop 100% sur le pylône, f/16 :
4/9 - crop 100% sur le fond, f/8 :
5/9 - crop 100% sur le fond, f/11 :
6/9 - crop 100% sur le fond, f/16 :
7/9 - crop 100% sur le premier plan, f/8 :
8/9 - crop 100% sur le premier plan, f/11 :
9/9 - crop 100% sur le premier plan, f/16 :
Voilà, c'est à vous !
;-)
Un sujet qui va m'intéresser.
Mais où a été faite la map exactement?
Citation de: JP31 le Mars 09, 2015, 21:11:18
Mais où a été faite la map exactement?
Sur le pylône.
J'ai l'impression que sur le pylône la meilleure qualité est à f/11, sur l'ar plan je dirais f/8 parce qu'il y a une perte de contraste à f/11 et encore plus à f/16.
Pour le premier plan je dirais le meilleur f/16 mais probablement normal puisque plus de pdc, les autres sont noyées dans le flou.
Citation de: JP31 le Mars 09, 2015, 21:19:08
J'ai l'impression que sur le pylône la meilleure qualité est à f/11, sur l'ar plan je dirais f/8 parce qu'il y a une perte de contraste à f/11 et encore plus à f/16.
Pour le premier plan je dirais le meilleur f/16 mais probablement normal puisque plus de pdc, les autres sont noyées dans le flou.
Un peu la même analyse.
Un peu de malice, aussi, de ma part, sachant que je suis le premier à dire que les critères techniques/esthétiques sur la PdC doivent l'emporter sur la diffraction éventuelle (bien sûr, ça fait un peu exercice d'école : dans la vraie vie, je me moque ici d'avoir les brins d'herbe au premier plan les plus nets possible, aussi...).
Citation de: JP31 le Mars 09, 2015, 21:19:08
J'ai l'impression que sur le pylône la meilleure qualité est à f/11, sur l'ar plan je dirais f/8 parce qu'il y a une perte de contraste à f/11 et encore plus à f/16.
Pour le premier plan je dirais le meilleur f/16 mais probablement normal puisque plus de pdc, les autres sont noyées dans le flou.
+1, exactement les memes constats.
Mes premières impressions sur cette expérience intéressante :
- La diffraction ne cause pas des "ravages" même à f/16. Il aurait été intéressant de pousser jusqu'à f/22.
- La différence de profondeur de champ est bien plus importante.
Chacun sait que ces extraits correspondent à des photos de plusieurs m².
Les différences sur des A3+ ou même un peu plus grand sont probablement insignifiantes.
Citation de: B [at] R le Mars 09, 2015, 21:32:35
- La diffraction ne cause pas des "ravages" même à f/16. Il aurait été intéressant de pousser jusqu'à F/22.
A f/22, j'ai pas osé... ;-)
Citation de: B [at] R le Mars 09, 2015, 21:32:35
- La différence de profondeur de champ est bien plus importante.
A vrai dire, je ne pensais pas que le gain en PdC sur le premier plan aurait été aussi significatif (oui, je sais : 2/3~1/3 ! ;-).
Citation de: B [at] R le Mars 09, 2015, 21:32:35
Chacun sait que ces extraits correspondent à des photos de plusieurs m².
Il faut imaginer, effectivement, que ce sont des portions d'une image de 2m de large lorsque visualisée sur écran...
.
Citation de: Verso92 le Mars 09, 2015, 21:36:00
A f/22, j'ai pas osé... ;-)
En format DX je pense qu'il faut fuir f/22 et au delà.
En FX j'ai quelques appréhensions dès f/16 mais je crois que ça passe souvent jusqu'à f/22 lorsque tous les plans doivent être nets.
Citation de: Verso92 le Mars 09, 2015, 21:36:00
A vrai dire, je ne pensais pas que le gain en PdC sur le premier plan aurait été aussi significatif (oui, je sais : 2/3~1/3 ! ;-).
Plutôt l'inverse ...
A moins que tu raisonnes d'arrière en avant.
Citation de: Suche le Mars 09, 2015, 21:45:45
Plutôt l'inverse ...
A moins que tu raisonnes d'arrière en avant.
2/3 devant, 1/3 derrière...
Citation de: Suche le Mars 09, 2015, 21:45:45
Plutôt l'inverse ...
A moins que tu raisonnes d'arrière en avant.
Effectivement c'est l'inverse.
Je ne suis pas sûr d'interpréter correctement le smiley de Verso mais peut-être pense-t-il comme moi que cette règle des 1/3 en profondeur de champ est vraiment... farfelue car à peu près toujours fausse !
Citation de: B [at] R le Mars 09, 2015, 21:50:38
Effectivement c'est l'inverse.
Je ne suis pas sûr d'interpréter correctement le smiley de Verso mais peut-être pense-t-il comme moi que cette règle des 1/3 en profondeur de champ est vraiment... farfelue car à peu près toujours fausse !
Conséquences d'une journée de travail un peu fatigante... oui, 1/3 devant, 2/3 derrière, en première approximation !
Désolé... ;-)
Citation de: Verso92 le Mars 09, 2015, 21:48:19
2/3 devant, 1/3 derrière...
Ah non!
EDIT: pardon, c'est corrigé..
Les réponses à Çe sujet son connues depuis des décénies, non acceptées par les rationnels de forums ou qui croient l'être, et pourtant parfaitement visibles sur des images :)
Nikon a l'habitude de limiter la plus petite ouverture d'un objeçtif à celle qui présente une chute de résultat vraiment bien sensible par diffraction.
En principe quand on reste un ouverture sous la plus petite ouverture la perte par diffraction est faible.
sur des images nécessitant une grosse profondeur de champ, c'est l'ouverture un cran sous le minimum qui donne le meilleur résultat visuel global
A l'inverse sur un sujet plan c'est l'optimum optique qui donne le meilleur résultat, ( souvent autour de 5,6)
après il y a aussi tous les cas intermédiaires qui dépendent de la profondeur du sujet
Voilà, Çe n'est pas plus sorcier que celà.
Citation de: Verso92 le Mars 09, 2015, 21:52:33
Conséquences d'une journée de travail un peu fatigante... oui, 1/3 devant, 2/3 derrière, en première approximation !
Désolé... ;-)
Faut se lever tôt pour te prendre en défaut, mais je ne suis pas mécontent de moi sur ce coup ... ;D ;)
C'est dommage qu'on ne connaisse pas la distance de prise de vue?
Citation de: Jean-Claude le Mars 09, 2015, 21:53:59
Les réponses à Çe sujet son connues depuis des décénies, non acceptées par les rationnels de forums ou qui croient l'être, et pourtant parfaitement visibles sur des images :)
Nikon a l'habitude de limiter la plus petite ouverture d'un objeçtif à celle qui présente une chute de résultat vraiment bien sensible par diffraction.
En principe quand on reste un ouverture sous la plus petite ouverture la perte par diffraction est faible.
sur des images nécessitant une grosse profondeur de champ, c'est l'ouverture un cran sous le minimum qui donne le meilleur résultat visuel global
A l'inverse sur un sujet plan c'est l'optimum optique qui donne le meilleur résultat, ( souvent autour de 5,6)
après il y a aussi tous les cas intermédiaires qui dépendent de la profondeur du sujet
Voilà, Çe n'est pas plus sorcier que celà.
Tout à fait d'accord avec toi, JC.
Après, je me posais la question, sur le terrain, de savoir si f/16 m'apporterait quelque chose par rapport à f/8 sur le fond (la maison taguée et les arbres). Je ne m'attendais pas, par contre, à l'écart de PdC sur le premier plan, par contre...
Citation de: Suche le Mars 09, 2015, 21:56:04
Faut se lever tôt pour te prendre en défaut, mais je ne suis pas mécontent de moi sur ce coup ... ;D ;)
Il m'arrive souvent d'écrire (de dire) l'inverse de ce que je pense... je ne suis pourtant pas un gaucher contrarié !
;-)
Citation de: chelmimage le Mars 09, 2015, 22:02:04
C'est dommage qu'on ne connaisse pas la distance de prise de vue?
Sachant que la photo a été prise avec un 24x36 avec une focale de 50mm environ, on peut la déduire assez facilement avec un risque d'erreur faible...
(je dirais 30~40m pour le pylône du milieu, à la louche...)
35 m alors!
Citation de: chelmimage le Mars 09, 2015, 22:20:53
35 m alors!
Ça me semble tangible...
(je sens que tu vas nous pondre un graphique Excel... ;-)
Citation de: Verso92 le Mars 09, 2015, 22:21:40
Ça me semble tangible...
(je sens que tu vas nous pondre un graphique Excel... ;-)
exact!
J'ai été un peu long.!
Voici le graphique brut sans correction qui montre la résolution théorique selon les distances si la mise au point est faite à 35 m. On voit que pour f8 la résolution à l'arrière vers l'infini ne rste plus à son maximum..
Va suivre un graphique pour 30 m...
L'échelle des distances est logarithmique pour bien voir les distances proches et lointaines.
Pour une mise au point à 30 m il y a une baisse de la netteté vers les arrières plans plus différenciées que pour 35 m même si on reste toujours dans la profondeur de champ donnée par les tables..
Et pour le même prix, le même graphique que précedemment auquel j'ai ajouté la courbe à f5,6 et allongé en distance..Je voulais voir si à f16 la résolution baissait au delà du km..ça n'est pas le cas..
Il ne reste plus qu'à faire quelques manips pour vérifier tout ça !! ;D ;D ;D ;D
Citation de: chelmimage le Mars 09, 2015, 23:12:56
Il ne reste plus qu'à faire quelques manips pour vérifier tout ça !! ;D ;D ;D ;D
Heu... comme d'hab', j'ai rien compris.
:-(
Citation de: Verso92 le Mars 09, 2015, 23:15:39
Heu... comme d'hab', j'ai rien compris.
:-(
Tu veux vraiment me faire de la peine!! :( :( :( :( ;D ;D ;D
Plus c'est haut, plus c'est net;
Plus c'est à gauche, plus c'est proche (en mètres) de celui qui fait la photo
et réciproquement..
Dans l'intervalle du plateau haut il n'y a aucune différence de netteté vu en crop 100%. En dehors si!
Tout ça c'est du théorique, il faut diviser les valeurs verticales par au moins 1,5 et on se rapproche du réel observé par DXO par ex.
EDIT: du moment que les points sont au-dessus de la droite rouge du bas on est dans la zone de profondeur de champ.
Le bas est bien bas, d'accord!! Voilà ce que c'est que d'avoir 36 Mpix.....
Pendant que j'y suis..Ces courbes sont valables pour tout appareil de format FX. La seule différence, c'est le plateau haut il est positionné à la résolution max de l'appareil. La profondeur de champ ne change pas ! ce qui va changer c'est la pente de la courbe dès qu'on quitte le plateau. Plus il y a de Mpix et plus l'arrivée du flou en zoom 100% sera brutale.
Les effets de la diffraction sont bien visibles.
Ici, ouvertures 8 , 22 et 32. Evidemment, c'est plus grossi que 100%.
Note : la répartition 1/3 - 2/3 pour la profondeur de champ est un cas particulier.
C'est surtout en macro que c'est très gênant, l'ouverture étant rapidement très réduite (f/d = 8 et 22).
Salut,
je ne voudrai pas foutre la m..
mais je trouve l'image pas franchement nette, surtout ou la map est faite...
Pour les 1/3,2/3, cela datait de l'argentique et ce n'est plus vraiment juste, surtout en fonction des mr effectués (à voir)
Sinon l'idée était bonne et je trouve les exemples de Seba plus "parlants"
Citation de: gebulon le Mars 10, 2015, 07:36:07
Salut,
je ne voudrai pas foutre la m..
mais je trouve l'image pas franchement nette, surtout ou la map est faite...
Les structures en béton sont toujours difficiles à rendre en photo...
Citation de: gebulon le Mars 10, 2015, 07:36:07
Pour les 1/3,2/3, cela datait de l'argentique et ce n'est plus vraiment juste, surtout en fonction des mr effectués (à voir)
Cette formule est juste une approximation (même en argentique)...
Heureusement la perte est pour partie constituée par une perte de contraste qu'il est assez facile de compenser en PT.
Evidemment la résolution des plus fins détails ne sera pas améliorée mais ils seront plus visibles.
Citation de: seba le Mars 10, 2015, 07:24:57
C'est surtout en macro que c'est très gênant, l'ouverture étant rapidement très réduite (f/d = 8 et 22).
La comparaison est éloquente !
Il faut tout de même préciser que c'est en format APSC, où la diffraction apparait plus tôt.
En outre, j'ai l'impression que c'est plus une question de perte de contraste que de résolution.
[Edit]
Pendant que je visualisais les données EXIF des photos de Seba, Bernard a été beaucoup plus rapide, précis et son illustration se passe de commentaires.
Citation de: B [at] R le Mars 10, 2015, 10:04:11
En outre, j'ai l'impression que c'est plus une question de perte de contraste que de résolution.
Les deux.
Citation de: chelmimage le Mars 09, 2015, 23:26:12
Dans l'intervalle du plateau haut il n'y a aucune différence de netteté vu en crop 100%. En dehors si!
Je ne comprends pas non plus ton schéma et ta remarque puisque Verso montre bien qu'il y a une perte à f16 par rapport à f11 sur la maison en arrière plan.
Je ne pense pas qu'il s'agisse uniquement d'une perte de micro-contraste, mais également de résolution.
Citation de: Suche le Mars 10, 2015, 17:43:47
Je ne comprends pas non plus ton schéma et ta remarque puisque Verso montre bien qu'il y a une perte à f16 par rapport à f11 sur la maison en arrière plan.
Je ne pense pas qu'il s'agisse uniquement d'une perte de micro-contraste, mais également de résolution.
De 8 à 11 il y a une amélioration physique visuelle. La formule mathématique semble donc vérifiée.
De 11 à 16, il n'y a pas de raison de ne pas appliquer la même formule donc il doit y avoir encore une amélioration . Or il y a dégradation. Il y a donc un autre phénomène qui intervient. Mais ce n'est pas la résolution. C'est tout ce que je peux dire.
Il est dommage que nous n'ayons pas la distance exacte de mise au point. Pour quelques mètres d'écart les courbes changent,. Il n'y aura jamais d'inversion mais à l'infini 400 m où mon graphique s'arrête (les branches lointaines prises comme référence) une différence peut exister.
Citation de: chelmimage le Mars 10, 2015, 18:33:59
De 8 à 11 il y a une amélioration physique visuelle. La formule mathématique semble donc vérifiée.
Ca me semble normal, puisque c'est lié à l'augmenttion de la profondeur de champ.
Citation de: chelmimage le Mars 10, 2015, 18:33:59
Il est dommage que nous n'ayons pas la distance exacte de mise au point. Pour quelques mètres d'écart les courbes changent,. Il n'y aura jamais d'inversion mais à l'infini 400 m où mon graphique s'arrête (les branches lointaines prises comme référence) une différence peut exister.
Pourtant ton graphique indique que même à plus de 1000m, et à f16, la résolution ne baisse pas.
Citation de: Suche le Mars 10, 2015, 19:32:35
Ca me semble normal, puisque c'est lié à l'augmenttion de la profondeur de champ.
Pourtant ton graphique indique que même à plus de 1000m, et à f16, la résolution ne baisse pas.
C'est dans le cas où la mise au point serait plus proche..!
Dans le cas d'une mise au point à 26 m(différent de l'hypothèse Verso92 mais!)
à f16 l"'infini" chute aussi mais le rapport est conservé..
Citation de: chelmimage le Mars 10, 2015, 19:43:08
C'est dans le cas où la mise au point serait plus proche..!
Ah ?
Tu es beaucoup plus calé que moi dans ce genre de domaine (mais petite confidence, ce n'est pas difficile vu mon niveau ... ;D) donc je te fais confiance sur cette théorie.
Après, par commodité et simplicité, je préfère m'en remettre au petit conseil conseil prodigué sur ce fil par JC.
la courbe
Citation de: chelmimage le Mars 10, 2015, 18:33:59
De 8 à 11 il y a une amélioration physique visuelle. La formule mathématique semble donc vérifiée.
De 11 à 16, il n'y a pas de raison de ne pas appliquer la même formule donc il doit y avoir encore une amélioration . Or il y a dégradation. Il y a donc un autre phénomène qui intervient. Mais ce n'est pas la résolution. C'est tout ce que je peux dire.
Attention : ta formule ne prend en compte que la PdC. La résolution diminue à cause de la diffraction (ça se calcule, bien sûr... mais ça sort de mon domaine de compétence !).
La dégradation observée à f/16 est donc "normale"...
Citation de: chelmimage le Mars 10, 2015, 18:33:59
Il est dommage que nous n'ayons pas la distance exacte de mise au point.
La photo contient les EXIF.
Avec un logiciel indiquant tous les champs, la distance de MaP (approximative ?), transmise par l'objectif au boitier, devrait donc apparaitre.
Citation de: Verso92 le Mars 10, 2015, 20:01:50
Attention : ta formule ne prend en compte que la PdC. La résolution diminue à cause de la diffraction (ça se calcule, bien sûr... mais ça sort de mon domaine de compétence !).
La dégradation observée à f/16 est donc "normale"...
Ah je comprends mieux, j'étais persuadé qu'avec un
calcul savant il avait intégré cette diffraction ... Et je ne voulais pas mettre un pied dans ce domaine.
Donc en effet rien de nouveau, sinon une mise en relief de la pratique avec la théorie.
Citation de: Verso92 le Mars 10, 2015, 20:01:50
Attention : ta formule ne prend en compte que la PdC. La résolution diminue à cause de la diffraction (ça se calcule, bien sûr... mais ça sort de mon domaine de compétence !).
La dégradation observée à f/16 est donc "normale"...
Et plus les détails sont fins (ou éloignés) plus la diffraction est délétère.
Donc dans tes courbes la résolution maxi (36Mpix), ne devrait être atteinte qu'à environ f/5,6 pour la plupart des bons objectifs et commence à décroitre à partit de f/8 à cause de la diffraction qui devient sensible à f/11 et très visible à f/16. Après quantifier la dégradation est un autre problème.
Au plan théorique la formule approchée proposée par zeiss 1600/n donne la limite de résolution en cy/mm selon le diaphragme.
La taille du pixel du D310 étant de 4,89µm sa résolution théorique est de 200cy/mm et la limite de résolution d'un objectif à f/16 n'étant plus donc que de 1600/16= 100cy/mm...
Vois si tu peux en tirer quelque chose
EDIT: selon la formule approchée de zeiss. selon la formule "exacte" la résolution à f/5,6 est bien de 261 cy/mm à f/8 elle n'est plus que de 183 cy/mm à f/11 de 133 cy/mm et f/16 de 91,5 cy/mm
source rêne Bouillot
Donc en gros on peut partir sur des valeurs de chute en pourcentage sans doute, à f/16 la résolution effective des objectifs chute donc de +/- 50%
René Bouillot bien sûr.
Ces éléments devraient fortement relativiser le gain en PDC à moyenne et grande distance des diaphragmes à partir de f/11. Car à courte distance les sujets étant plus gros l'effet de la perte de résolution est moins important que le gain en PDC
Citation de: Suche le Mars 10, 2015, 19:52:01
Ah ?
Tu es beaucoup plus calé
Je ne suis pas calé..Je ne fais que mettre des chiffres dans des formules.. ;) ;) ;)
Et je mets à l'épreuve Excel pour tracer les courbes que je trouve plus parlantes qu'un tableau de chiffres!.
En ce qui concerne les exifs j'ai déjà regardé et malheureusement il n'y a pas la distance.
Mêrme si la mise au point était faite à 35 m, la netteté à 500 m à f11 n'est plus maximale.
Dommage!
Par contre une mise au point à 40 m à f11 donnerait une netteté max à plus d'un km..Dans ce cas on pourrait visualiser l'effet de la diffraction en comparant avec f16..
A refaire!! Parce qu'avec ses 36 Mpix, le D810 est le meilleur des modèles d'étude..
Bon, je vois qu'on m'a laissé du travail!
Citation de: chelmimage le Mars 10, 2015, 21:06:52
En ce qui concerne les exifs j'ai déjà regardé et malheureusement il n'y a pas la distance.
C'est parce que tu n'utilises pas le bon visualiseur d'EXIF...
(certains l'indiquent, mais je n'en ai pas sous la main. Un chassimien va certainement venir nous la donner... ;-)
Citation de: Verso92 le Mars 10, 2015, 21:10:37
C'est parce que tu n'utilises pas le bon visualiseur d'EXIF...
(certains l'indiquent, mais je n'en ai pas sous la main. Un chassimien va certainement venir nous la donner... ;-)
J'utilise photoME qui en général sais tout! Donc voyons si un chassimien?
Alors le graphique..J'ai mis une bonne diffraction, je ne sais pas si elle est plausible...Mais c'est bon pour la démo..!
J'ai rentré un demi pixel soit 0,0024 mm.
Alors on voit bien qu'avec cette diffraction la résolution à f16 avec diffraction devient inférieure à f11 sans diffraction.
C'est aussi fonction de la qualité de l'optique. Sur les essais de Verso on peut relever que le 24/70 tient la route. ;-)
Citation de: Matapan le Mars 10, 2015, 21:48:24
Mise au point 1.26m, encore des gens qui parlent de choses qui n'existent pas, PDC 7cm.
A+
Merci mais ce n'est pas de cette photo dont je souhaite connaître la distance, c'est la première en haut du fil!
Citation de: Lorca le Mars 10, 2015, 21:50:54
C'est aussi fonction de la qualité de l'optique. Sur les essais de Verso on peut relever que le 24/70 tient la route. ;-)
Je te sens un brin optimiste, sur ce coup-là : moi, j'ai l'impression qu'il atteint ses limites...
(j'avais failli doubler les PdV avec le f/1.8 50 AF-S, étant donnée la focale... mais je ne l'avais pas emmené, ayant préféré le f/2 35 Zeiss qui, finalement, n'est pas sorti du fourre-tout. C'est toujours pareil avec les focales fixes : on n'a jamais la bonne avec soi ! ;-)
La comparaison serait intéressante.
Citation de: chelmimage le Mars 10, 2015, 21:54:18
Merci mais ce n'est pas de cette photo dont je souhaite connaître la distance, c'est la première en haut du fil!
Essaie avec ExiftoolGui ?
Citation de: Verso92 le Mars 10, 2015, 21:59:02
Essaie avec ExiftoolGui ?
ça me parait un peu complexe à mettre en oeuvre..Je viens d'essayer exifreader qui donne aussi inconnu comme valeur..!
ele est passée par PS qui ne reprends que certains paramètres et ajoute les siens.
Focus Points comme Exif Tool donnent des distances de prise de vue très approximatives avec des paliers beaucoup trop importants.
Dans l'exemple suivant Focus Points donne 281.84 m ce qui est très précis mais bien sûr complétement faux.
Exif Tool donne 282 m et précise "Approximate Focus Distance" ce qui n'est pas superflu !
Bref il n'y a pas grand chose à tirer de cette information.
Citation de: Verso92 le Mars 10, 2015, 08:13:26
Les structures en béton sont toujours difficiles à rendre en photo...
Oui, n'en reste pas moins que tes exemples sont très mous. Je ne suis pas certain que le 24-70 soit le meilleur exemple pour ce
ce type de démonstration. Bien plus que les effets de la diffraction, on voit surtout que ce zoom est incapable de sortir le jus
d'un 36 Mpxl défiltré.
Citation de: Bernard2 le Mars 10, 2015, 20:29:32
Et plus les détails sont fins (ou éloignés) plus la diffraction est délétère.
Donc dans tes courbes la résolution maxi (36Mpix), ne devrait être atteinte qu'à environ f/5,6 pour la plupart des bons objectifs et commence à décroitre à partit de f/8 à cause de la diffraction qui devient sensible à f/11 et très visible à f/16. Après quantifier la dégradation est un autre problème.
Au plan théorique la formule approchée proposée par zeiss 1600/n donne la limite de résolution en cy/mm selon le diaphragme.
La taille du pixel du D310 étant de 4,89µm sa résolution théorique est de 200cy/mm et la limite de résolution d'un objectif à f/16 n'étant plus donc que de 1600/16= 100cy/mm...
Vois si tu peux en tirer quelque chose
EDIT: selon la formule approchée de zeiss. selon la formule "exacte" la résolution à f/5,6 est bien de 261 cy/mm à f/8 elle n'est plus que de 183 cy/mm à f/11 de 133 cy/mm et f/16 de 91,5 cy/mm
source rêne Bouillot
Donc en gros on peut partir sur des valeurs de chute en pourcentage sans doute, à f/16 la résolution effective des objectifs chute donc de +/- 50%
Personnellement, j'utilise une autre formule
très simplifiée de R. Bouillot pour déterminer l'ouverture à partir de laquelle la diffraction devient sensible : taille du photosite en microns * 2, 12.
Et connaissant la gamme optique pléthorique que tu exhibes ici même régulièrement, je ne comprends pas ton attachement,
pour des sujets sérieux, à travailler avec un objectif aussi médiocre. La facilité d'une bague de zooming n'excuse pas tout.
;)
Citation de: B [at] R le Mars 10, 2015, 23:21:50
Focus Points comme Exif Tool donnent des distances de prise de vue très approximatives avec des paliers beaucoup trop importants.
Je ne sais pas si c'est le logiciel ou l'objectif, mais je pense que pour l'information de distance, un 50mm par exemple ne peut pas faire la différence entre 35m et 40m. Il y a sans doute trop peu de paliers. Et s'il donne une information elle n'est pas forcément exacte.
Il suffit de voir comment Nikon procède pour coder les distances qui renseignent les automatismes du boitier et les EXIF.
L'information de distance est issues de pistes circulaires autour du fûts de map avec des balais collecteurs qui transmettent des positions de contact de ces pistes.
Le résultat de distance calculé donne un chiffre avec des décimales, mais la valeur absolue de distance est pas mal fausse.
Je sais que lors du calibrage de mon ensemble, 58G + D800E le SAV à aussi contrôlé le calage de ces pistes, c'est Çe qu'il ressort du compte rendu d'intervention.
N'empêche que la valeurs absolues de distance sont toujours pas mal fausses dans les EXIFS de tous mes objeçtifs !
Bon et bien il ne reste plus à Verso92 que de retourner sur place avec sa chaîne d'arpenteur! ;D ;D
Citation de: chelmimage le Mars 11, 2015, 07:18:22
Bon et bien il ne reste plus à Verso92 que de retourner sur place avec sa chaîne d'arpenteur! ;D ;D
Oh ... ! Chaine d'arpenteur avec un D810 çà ne va pas ...!
Nikon vend d'excellents télémètres laser précis au 1/1000 à 1000 m .
http://www.nikon.fr/fr_FR/product/sport-optics/laser-range-finders/laser-1200s
Avec un support de flash déporté on peut même le fixer au niveau du plan focal !! . Un vrai labo de précision ambulant pour tester les courbes de diffraction.
Citation de: Olivier Roche le Mars 10, 2015, 23:33:25
Oui, n'en reste pas moins que tes exemples sont très mous. Je ne suis pas certain que le 24-70 soit le meilleur exemple pour ce
ce type de démonstration. Bien plus que les effets de la diffraction, on voit surtout que ce zoom est incapable de sortir le jus
d'un 36 Mpxl défiltré.
D'où ma réponse à Lorca, Olivier... ;-)
Citation de: Verso92 le Mars 10, 2015, 21:54:34
Je te sens un brin optimiste, sur ce coup-là : moi, j'ai l'impression qu'il atteint ses limites...
(j'avais failli doubler les PdV avec le f/1.8 50 AF-S, étant donnée la focale... mais je ne l'avais pas emmené, ayant préféré le f/2 35 Zeiss qui, finalement, n'est pas sorti du fourre-tout. C'est toujours pareil avec les focales fixes : on n'a jamais la bonne avec soi ! ;-)
J'attends le modèle II avec impatience... mais quand va-t-il sortir ?
Citation de: Jean-Claude le Mars 11, 2015, 07:01:49
Il suffit de voir comment Nikon procède pour coder les distances qui renseignent les automatismes du boitier et les EXIF.
L'information de distance est issues de pistes circulaires autour du fûts de map avec des balais collecteurs qui transmettent des positions de contact de ces pistes.
Le résultat de distance calculé donne un chiffre avec des décimales, mais la valeur absolue de distance est pas mal fausse.
Je sais que lors du calibrage de mon ensemble, 58G + D800E le SAV à aussi contrôlé le calage de ces pistes, c'est Çe qu'il ressort du compte rendu d'intervention.
N'empêche que la valeurs absolues de distance sont toujours pas mal fausses dans les EXIFS de tous mes objeçtifs !
Oui : c'est ce qui ressort des multiples discussions sur le sujet...
Citation de: Verso92 le Mars 09, 2015, 21:01:47
1/9 - crop 100% sur le pylône, f/8 :
c'est bizzare elle ne fait pas net comme un flou de bougé ??? à f11 c'est bon à16 c'est aussi peu net que à f8 mais sans cette sensation de bougé !
Citation de: Verso92 le Mars 10, 2015, 21:54:34
Je te sens un brin optimiste, sur ce coup-là : moi, j'ai l'impression qu'il atteint ses limites...
ça serait le moment de le faire passer à la moulinette de cet essai..
http://www.chassimages.com/forum/index.php/topic,182435.msg3853395.html#msg3853395 (http://www.chassimages.com/forum/index.php/topic,182435.msg3853395.html#msg3853395)
C'est simple mais ça a l'avantage de donner un repère de valeur..Surtout pour un 36 Mpix qui est une valeur encore peu habituelle (actuellement). Il faut une impression la plus soignée possible de la mire. Ensuite en une seule photo on voit si on est plutôt bon, tangent ou mauvais.
Elément super important et pourtant non mentionné ici, mais la diffraction dépendant de la longeur d'onde, elle se manifeste donc beaucoup plus tôt pour le rouge, le bleu étant le plus épargné.
Prenez un D7100 et fermez à f/8 ou plus, la resolution max sera 3x plus élevée dans les bleus que dans les rouges...
Pour un D810, fermez à f/11 ou plus et ce sera pareil, on aura 3x plus de detail dans les bleus que dans les rouges...
Si Verso pouvait faire un test de diffraction avec un sujet rouge et un sujet bleu, ce serait interessant :)
Citation de: al646 le Mars 11, 2015, 15:54:06
Elément super important et pourtant non mentionné ici, mais la diffraction dépendant de la longeur d'onde, elle se manifeste donc beaucoup plus tôt pour le rouge, le bleu étant le plus épargné.
Prenez un D7100 et fermez à f/8 ou plus, la resolution max sera 3x plus élevée dans les bleus que dans les rouges...
Pour un D810, fermez à f/11 ou plus et ce sera pareil, on aura 3x plus de detail dans les bleus que dans les rouges...
Si Verso pouvait faire un test de diffraction avec un sujet rouge et un sujet bleu, ce serait interessant :)
Il me semble que j'ai déjà lu ça dans un fil..je ne sais plus à propos de quoi..
Citation de: al646 le Mars 11, 2015, 15:54:06
Prenez un D7100 et fermez à f/8 ou plus, la resolution max sera 3x plus élevée dans les bleus que dans les rouges...
Pour un D810, fermez à f/11 ou plus et ce sera pareil, on aura 3x plus de detail dans les bleus que dans les rouges...
3x je ne pense pas car le rapport des longueurs d'onde n'est pas égal à 3.
À f/8
Dans le bleu 4,68µm, R= 213 cy/mm
Dans le jaune-vert 5,46µm, R=183 cy/mm
Dans le rouge 6,3µm, R= 158 cy/mm
Apparement si, et le calcul n'est pas simplement base sur le rapport des longueurs d'onde... voir ce lien (table 3):
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/
Citation de: seba le Mars 11, 2015, 16:13:54
3x je ne pense pas car le rapport des longueurs d'onde n'est pas égal à 3.
Citation de: al646 le Mars 11, 2015, 17:12:19
Apparement si, et le calcul n'est pas simplement base sur le rapport des longueurs d'onde... voir ce lien (table 3):
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/
correction je ne regardais pas le tableau voulu
Citation de: al646 le Mars 11, 2015, 17:12:19
Apparement si, et le calcul n'est pas simplement base sur le rapport des longueurs d'onde... voir ce lien (table 3):
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/
L'article pose les bonnes bases mais oublie un détail : il reste au niveau analytique de la tache de Ayry comme s'il s'agissait de taches discrètes en matrice ( juxtaposées pour faire simple) . C'est ok pour caractériser un objectif+ diaph isolément mais inadapté au système objectif + capteur : l'information qui arrive au niveau du capteur n'est pas une matrice de taches de Ayry mais une information continue que seul le capteur va discrétiser. De plus ce qui arrive au niveau du capteur est un mix des longueurs d'ondes et pas une suite de raies spectrales.
Il est donc à mon avis totalement hasardeux d'utiliser leur tableau différenciant les Rvb qui part sur une mauvaise base.
Seule la mesure de MTF objectif ( diaphragmé ) + capteur permet d'avoir une mesure réelle du système complet et d'évaluer l'impact de la diffraction.
Il n'est pas inutile de rappeler que l'œil est essentiellement sensible à la luminance, donnée à 80 % par le canal vert-jaune, lui même sur-représenté dans la matrice de Bayer, et donc ne pas tenir compte des bavures du rouge et bleu ne fait pas faire une grosse erreur pour étudier la diffraction qui sort du système.
Citation de: al646 le Mars 11, 2015, 17:12:19
Apparement si, et le calcul n'est pas simplement base sur le rapport des longueurs d'onde... voir ce lien (table 3):
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/
Je n'ai pas compris sur quoi il se base.
En microscopie par exemple, la résolution est proportionnelle à la longueur d'onde (d = 1,22xlambda/NA , lambda étant la longueur d'onde).
Dans la continuité de la manip de Verso92, j'ai imaginé celle-ci.
J'ai crée une "mire" qui comporte des applats de couleurs R, V et bleu.
Vu en macro, chaque applat est en fait une de mire de barres rouge-noir..., bleu-noir...., vert-noir.....
Le noir correspond aux couleurs non allumées dans chaque pixel d'écran.
J'ai donc photographiée cette mire affichée en 400% de façon que j'aie 4 pixels de photo par pixel théorique de la mire.240X4soit environ 1000 pixels.
J'ai fait la photo à f5,6 avec un appareil dont la dimension du pixel est 3,75 µ.
Dans ces conditions, la dimension du disque de Airy est:
Bleu 5,5 µ soit < 2 pixels
Vert 7,5 µ soit juste 2 pixels
rouge 9,6 µ soit > à 2 pixels..
On voit que sur cet extrait de photo en zoom 400% le bleu et le vert sont discriminés et le rouge ne l'est plus.
à f4 la discrimination existe mais plus floue
à partir de f8 on ne voit plus les barres, tout est uniforme..
ça semble conforme à la théorie!! :D :D :D
Voici l'extrait à f5,6.
Et pour concrétiser un peu plus le flou dans le rouge voici un autre extrait de la même photo.
Et si vous êtes tentés par la même manip, la mire..un peu moins parfaite que mon original en TIF..
à afficher en 400%.
Citation de: chelmimage le Mars 13, 2015, 08:34:40
J'ai fait la photo à f5,6 avec un appareil dont la dimension du pixel est 3,75 µ.
Dans ces conditions, la dimension du disque de Airy est:
Bleu 5,5 µ soit < 2 pixels
Vert 7,5 µ soit juste 2 pixels
rouge 9,6 µ soit > à 2 pixels..
On voit que sur cet extrait de photo en zoom 400% le bleu et le vert sont discriminés et le rouge ne l'est plus.
à f4 la discrimination existe mais plus floue
à partir de f8 on ne voit plus les barres, tout est uniforme..
ça semble conforme à la théorie!! :D :D :D
Conforme oui et non car le nombre de photosites rouges et bleus est moindre que les verts.
Citation de: seba le Mars 13, 2015, 20:28:20
Conforme oui et non car le nombre de photosites rouges et bleus est moindre que les verts.
Je n'oublie pas ce détail..que je connais pour le rouge depuis la nuit de mes temps..
Mais ça ne semble pas gêner le bleu? pourquoi?
Citation de: chelmimage le Mars 13, 2015, 20:52:24
Je n'oublie pas ce détail..que je connais pour le rouge depuis la nuit de mes temps..
Mais ça ne semble pas gêner le bleu? pourquoi?
Sans doute parce que la plage bleue est plus résolue que la plage violette de droite donc les inclusions rouges bénéficient de la résolution des contours nets du bleu dans la plage bleue
Alors que dans la plage violette 'qui est constituée de beaucoup de rouge ne peut "encadrer" les zones rouges
Citation de: Bernard2 le Mars 13, 2015, 21:39:44
Sans doute parce que la plage bleue est plus résolue que la plage violette de droite donc les inclusions rouges bénéficient de la résolution des contours nets du bleu dans la plage bleue
Alors que dans la plage violette 'qui est constituée de beaucoup de rouge ne peut "encadrer" les zones rouges
Bonne réponse... :D :D :D :D
Un début d'effet aquarelle, par ex?
Si j'ai bien compris tu essayes de tirer une conclusion ( visuelle) de validation théorique de cette manip qui si je résume présente le résultat
-de la ftm de la matrice pleine du capteur
-convoluée par la matrice de Bayer -
-convoluée par l'optique
-convoluée par la ftm de l'écran
-le tout avec un illuminant qui a peu de chance d'être spectralement et énergétiquement égal au sensibilités du capteur après filtrage.
A mon avis il vaut mieux ne pas essayer de généraliser cette manip et lui donner une valeur théorique universelle . Disons que c'est le résultat de ta pise de vue dans tes conditions de matériel , d'illuminant, de pose et de dématriçage .
Pour info en optique seule ( hors les pb de discrétisation imposés par la matrice capteur) la dimension du disque de Ayry lié à la longueur d'onde est de 0,16 micron à 400 Nm ( bleu-violet) et 0,38 micron pour le rouge. Ayry= 0,61*lambda ( longueur d'onde / n*sin alpha de lambda.). Sur le jaune en milieu de spectre Ayry= 0, 28 micron. Cà laisse encore un peu de marge aux bonnes optiques voir même aux entrée de gamme.
D'ailleurs les Smartphones avec 1,5 micron de pixel et des lentilles en plastique ne sortent pas de la bouillie dans le rouge. Donc ...
Essayes déjà de voir si ton écran traduit des pixels bien nets en ne faisant que des barres de 1 pixels rouge 100 % et noir etc. ( mm si tu regroupes par 4 après il faut déjà que tu re-photographies ce qui se passe à ce niveau pour éliminer l'écran comme source du pb). Si tu as déjà de la bouillie à ce niveau ...pas la peine d'invoquer Ayry et les longueurs d'onde. Ensuite tu rajoute le vert à 100% et il faut vérifier avec une loupe que la matrice de l'écran ne bave pas d'une couleur sur l'autre ce qui est fréquent même sur les très bons écrans. SI çà bave un peu alors il faudrait régler l'écran .
Heureusement le mauvais temps est de retour pour le week end ...
Tout ça c'est des paroles verbales!
Malgré tout, j'arriverais à faire tout ça avec une seule photo? C'est plus que ce que j'espérais..
Le week end commence bien.. ;D ;D ;D
Citation de: restoc le Mars 13, 2015, 22:28:33
Si j'ai bien compris tu essayes de tirer une conclusion ( visuelle) de validation théorique de cette manip qui si je résume présente le résultat
-de la ftm de la matrice pleine du capteur
-convoluée par la matrice de Bayer -
-convoluée par l'optique
-convoluée par la ftm de l'écran
-le tout avec un illuminant qui a peu de chance d'être spectralement et énergétiquement égal au sensibilités du capteur après filtrage.
A mon avis il vaut mieux ne pas essayer de généraliser cette manip et lui donner une valeur théorique universelle . Disons que c'est le résultat de ta pise de vue dans tes conditions de matériel , d'illuminant, de pose et de dématriçage .
Pour info en optique seule ( hors les pb de discrétisation imposés par la matrice capteur) la dimension du disque de Ayry lié à la longueur d'onde est de 0,16 micron à 400 Nm ( bleu-violet) et 0,38 micron pour le rouge. Ayry= 0,61*lambda ( longueur d'onde / n*sin alpha de lambda.). Sur le jaune en milieu de spectre Ayry= 0, 28 micron. Cà laisse encore un peu de marge aux bonnes optiques voir même aux entrée de gamme.
D'ailleurs les Smartphones avec 1,5 micron de pixel et des lentilles en plastique ne sortent pas de la bouillie dans le rouge. Donc ...
Essayes déjà de voir si ton écran traduit des pixels bien nets en ne faisant que des barres de 1 pixels rouge 100 % et noir etc. ( mm si tu regroupes par 4 après il faut déjà que tu re-photographies ce qui se passe à ce niveau pour éliminer l'écran comme source du pb). Si tu as déjà de la bouillie à ce niveau ...pas la peine d'invoquer Ayry et les longueurs d'onde. Ensuite tu rajoute le vert à 100% et il faut vérifier avec une loupe que la matrice de l'écran ne bave pas d'une couleur sur l'autre ce qui est fréquent même sur les très bons écrans. SI çà bave un peu alors il faudrait régler l'écran .
Heureusement le mauvais temps est de retour pour le week end ...
Ça ne bave pas du tout voila les pixels de mon écran en micro photo dans une zone blanche bien sûr :)
Citation de: Bernard2 le Mars 13, 2015, 23:25:34
Ça ne bave pas du tout voila les pixels de mon écran en micro photo dans une zone blanche bien sûr :)
Merci Bernard2 pour ton intervention, je n'aurais pas su aussi bien photographier mon écran qui n'a peut être pas la qualité du tien.
Mais je l'ai peut être bien regardé, de près, plus de mille fois!! Et il ne me parait pas souffrir de tous les maux dont Restoc le suspecte.. ;D ;D ;D ;D
Citation de: restoc le Mars 13, 2015, 22:28:33
Si j'ai bien compris tu essayes de tirer une conclusion ( visuelle) de validation théorique de cette manip qui si je résume présente le résultat
-de la ftm de la matrice pleine du capteur
-convoluée par la matrice de Bayer -
-convoluée par l'optique
-convoluée par la ftm de l'écran
-le tout avec un illuminant qui a peu de chance d'être spectralement et énergétiquement égal au sensibilités du capteur après filtrage.
A mon avis il vaut mieux ne pas essayer de généraliser cette manip et lui donner une valeur théorique universelle . Disons que c'est le résultat de ta pise de vue dans tes conditions de matériel , d'illuminant, de pose et de dématriçage .
Pour info en optique seule ( hors les pb de discrétisation imposés par la matrice capteur) la dimension du disque de Ayry lié à la longueur d'onde est de 0,16 micron à 400 Nm ( bleu-violet) et 0,38 micron pour le rouge. Ayry= 0,61*lambda ( longueur d'onde / n*sin alpha de lambda.). Sur le jaune en milieu de spectre Ayry= 0, 28 micron. Cà laisse encore un peu de marge aux bonnes optiques voir même aux entrée de gamme.
D'ailleurs les Smartphones avec 1,5 micron de pixel et des lentilles en plastique ne sortent pas de la bouillie dans le rouge. Donc ...
Essayes déjà de voir si ton écran traduit des pixels bien nets en ne faisant que des barres de 1 pixels rouge 100 % et noir etc. ( mm si tu regroupes par 4 après il faut déjà que tu re-photographies ce qui se passe à ce niveau pour éliminer l'écran comme source du pb). Si tu as déjà de la bouillie à ce niveau ...pas la peine d'invoquer Ayry et les longueurs d'onde. Ensuite tu rajoute le vert à 100% et il faut vérifier avec une loupe que la matrice de l'écran ne bave pas d'une couleur sur l'autre ce qui est fréquent même sur les très bons écrans. SI çà bave un peu alors il faudrait régler l'écran .
Heureusement le mauvais temps est de retour pour le week end ...
Merci pour tous ces conseils..Je les pratique déjà depuis de nombreuses années..Et des manips avec mon écran.............!!! . ::) ::) ::)
Dans ce que tu dis il y a quelque chose qui me soucie c'est le diamètre du cercle de Ayry. Tu donnes des valeurs qui sont environ 10 fois plus faibles que ce qu'on trouve ailleurs, par ex ici:
http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/ (http://luminous-landscape.com/do-sensors-aeoeoutresolveae%C2%9D-lenses/)
S'agit_il de la même grandeur ou de grandeurs différentes. Pour un, le diamètre extérieur du cercle, pour toi, la dimension d'une couronne, ou que sais je d'autre?( A moins que je me trompe dans les unités?
Je comprend peut être mal ce que je lis. Quand il est écrit que le diamètre du cercle de Ayry peut atteindre la dimension du cercle de confusion, c'est à dire 20 à 30 µ, c'est d'une autre dimension que les 0,2, 04 µ dont tu parles.
Et moi, j'aimerais bien, en effet, que tu aies raison. Parce que lorsque le cercle de Ayry fait des "tâches" de plusieurs pixels (au moins~10) sur un 36 Mpix je ne voit pas comment l'image peut être nette.? Et ton argument du smartphone est troublant. ???
PS: Pourquoi: ne pas généraliser cette manip?
Au contraire, je pense que si une majorité d'essayeurs trouvait la même chose elle serait au moins représentative d'un phénomène physique..Peut être pas celui que je décris, mais tant pis, ça resterait une vérité statistique!
La dimension de la tache (sans accent) d'Airy est liée à la longueur d'onde et à l'ouverture, donc il manque quelque chose.
Citation de: restoc le Mars 13, 2015, 22:28:33
Pour info en optique seule ( hors les pb de discrétisation imposés par la matrice capteur) la dimension du disque de Ayry lié à la longueur d'onde est de 0,16 micron à 400 Nm ( bleu-violet) et 0,38 micron pour le rouge. Ayry= 0,61*lambda ( longueur d'onde / n*sin alpha de lambda.). Sur le jaune en milieu de spectre Ayry= 0, 28 micron.
En plus cette formule est incompréhensible. Que vaut alpha ? Ca veut dire quoi alpha de lambda ?
la formule employée pour le diamètre du cercle de diffraction est 1,22*lambda*n ce qui pour le jaune-vert et pour f:8 par ex donne 1,22*0,56µm=0,6832*8=5,46µm
Comme du violet au rouge la longueur d'onde est deux dois plus grande, il en sera de même pour la tache d'Airy.
En supposant que les aberrations (notamment chromatiques) soient suffisamment faibles (ce qui en général est loin d'être le cas) pour que le bleu soit effectivement plus résolu par l'objectif que le rouge.
Après, la matrice de Bayer défavorise le rouge, en plus avec le dematriçage on ne sait pas trop comment ça va influer, il faut aussi tenir compte de ce que la résolution de l'image sera moins bonne avec des traits orientés à 45° par rapport aux rangées de photosites.
Citation de: seba le Mars 14, 2015, 08:45:09
La dimension de la tache (sans accent) d'Airy est liée à la longueur d'onde et à l'ouverture, donc il manque quelque chose.
La formule retenue en microsocopie où on traque un max la résolution est d = 0,61 * . lambda ( long d'onde en nm) / n ( indice de réfringence~ 1, 5 pour un verre de qualité optique moyenne sur le spectre ) * sin ( alpha) ( alpha demi angle d'ouverture).
* Abbe ( 1893) a démontré que le pouvoir résolvant pratique est lié à la moitié de la longueur d'onde donc 0,61 vs 1.22 théorique.
La seule chose que je veux corriger dans ce qui aurait pu être une conclusion de Chelmi c'est que l'influence de longueur d'onde sur ce qu'il nous montre de la manip ( sous réserve d'avoir une bonne optique normale capable de passer tout le spectre visible ) est faible par rapport à tous les autres paramètres de cette manip méritoire.
Par contre bien sûr la diffraction liée au diaph, au processus de discrétisation , à la matrice de Bayer etc etc sont d'un ordre 10 à 20 fois plus grand. Mais çà c'est lié au systéme et aux conditions de la manip plus qu'aux nanomètres
Citation de: restoc le Mars 14, 2015, 09:48:00
La formule retenue en microsocopie où on traque un max la résolution est d = 0,61 * . lambda ( long d'onde en nm) / n ( indice de réfringence~ 1, 5 pour un verre de qualité optique moyenne sur le spectre ) * sin ( alpha) ( alpha demi angle d'ouverture).
* Abbe ( 1893) a démontré que le pouvoir résolvant pratique est lié à la moitié de la longueur d'onde donc 0,61 vs 1.22 théorique.
n c'est l'indice du milieu dans lequel le sujet se trouve.
Citation de: restoc le Mars 13, 2015, 22:28:33
Pour info en optique seule ( hors les pb de discrétisation imposés par la matrice capteur) la dimension du disque de Ayry lié à la longueur d'onde est de 0,16 micron à 400 Nm ( bleu-violet) et 0,38 micron pour le rouge. Ayry= 0,61*lambda ( longueur d'onde / n*sin alpha de lambda.). Sur le jaune en milieu de spectre Ayry= 0, 28 micron.
Tes résultats ne tiennent pas du tout compte de l'ouverture (ou du moins on ne la connaît pas). En plus comment on peut passer de 0,16 micron à 0,38 micron alors que du violet on rouge on passe de 400nm à 800nm ?
Il ne s'agit pas de la quailité visuelle des photosites de la dalle d'écran qui cause problème mais de la conversion des pixels de fichier en photosites écran pour former un détail d'image
De la même manière que le résultat visuel d'une impression dépend moins de la forme et de la précision des gouttes d'encre qui de la transcription des pixels fichier en gouttes.
Citation de: Jean-Claude le Mars 14, 2015, 10:26:32
Il ne s'agit pas de la quailité visuelle des photosites de la dalle d'écran qui cause problème mais de la conversion des pixels de fichier en photosites écran pour former un détail d'image
De la même manière que le résultat visuel d'une impression dépend moins de la forme et de la précision des gouttes d'encre qui de la transcription des pixels fichier en gouttes.
J'aurais parié que, à un détail du fichier jpg de coordonnées XY correspond un photosite de l'écran et un seul. C'est du numérique pas de l'analogique?
Citation de: seba le Mars 14, 2015, 09:54:47
n c'est l'indice du milieu dans lequel le sujet se trouve.
Dans le calcul de la taille du disque d'airy n c'est l'ouverture
car dans le cas des objectifs photo (air) on prend n=1 ce qui simplifie la formule et n dans la formule devient la valeur de diaphragme.
Citation de: Bernard2 le Mars 14, 2015, 17:08:50
Dans le calcul de la taille du disque d'airy n c'est l'ouverture
Dans ta première formule, tu expliques que n = indice du milieu.
Citation de: seba le Mars 14, 2015, 17:51:55
Dans ta première formule, tu expliques que n = indice du milieu.
Non c'est restoc parce que la formule de base qu'il présente inclut les microscopes à immersion pour lesquels il faut tenir compte de l'indice du liquide utilisé
Ah oui c'était restoc.
Je faisais référence à son message.
Citation de: chelmimage le Mars 14, 2015, 10:52:51
J'aurais parié que, à un détail du fichier jpg de coordonnées XY correspond un photosite de l'écran et un seul. C'est du numérique pas de l'analogique?
Théoriquement en visualisation 100% en encore sur un seul axe
Je regarde des images entières si possible :)
Citation de: Jean-Claude le Mars 15, 2015, 05:05:35
Théoriquement en visualisation 100% en encore sur un seul axe
Je regarde des images entières si possible :)
Vu....merci..
Citation de: Jean-Claude le Mars 15, 2015, 05:05:35
Théoriquement en visualisation 100% en encore sur un seul axe
Les pixels d'un écran ne sont pas carrés ?
Citation de: seba le Mars 15, 2015, 09:13:07
Les pixels d'un écran ne sont pas carrés ?
ben non la preuve...
si tu parles des pixels individuels R-V-B
mais le triplet RVB forme un pixel légèrement rectangulaire...
mais cela dépend des écrans bien sûr
Citation de: Bernard2 le Mars 17, 2015, 13:25:52
ben non la preuve...
si tu parles des pixels individuels R-V-B
mais le triplet RVB forme un pixel légèrement rectangulaire...
mais cela dépend des écrans bien sûr
Pixels formé de 3 sous-pixels RVB bien sûr.
Mais s'ils ne sont pas carrés et que 1 pixel image = 1 pixel écran, l'image sera déformée ?
Citation de: Bernard2 le Mars 17, 2015, 13:25:52
mais cela dépend des écrans bien sûr
Sur mon écran un carré 800X800 mesure 235 mm dans les 2 sens.
comme les images ne sont pas déformées il doit y avoir une correction par la carte graphique, utilisation de l'espacement noir ente les rangées?
mais je n'en sais rien, je constate simplement
Citation de: seba le Mars 17, 2015, 13:54:06
Pixels formé de 3 sous-pixels RVB bien sûr.
Mais s'ils ne sont pas carrés et que 1 pixel image = 1 pixel écran, l'image sera déformée ?
Je pense que les pixels de l'écran de Bernard2 sont carrés. Je trouve un pas de 124 pixels de la photo dans les 2 sens pour un pixel d'écran.
Je crée une image de 20x20 pixels affichage 100%, l'image est bien carrée et fait bien 20x20 pixels d'écran.
Comme on peut le voir ici.
Comme vous êtes passionnés, je ne résiste pas au plaisir de vous permettre de faire un peu d'exercice intellectuel par temps pluvieux qui fait le point ( provisoire !!! ) sur les fondamentaux de la diffraction . Ne pas oublier de lire les liens inclus.
On voit que même les ténors des maths , de la physique ondulatoire et de l'optique ont quelque mal a comprendre comment on calcule vraiment les convolutions successives entre optique, filtres AA, matrice de Bayer, et matrice des photosites et ceci d'autant plus qu'ils ne disposent pas des mesures fondamentales que seul le fabricant du capteur possède : la sensibilité spectrale de son capteur et ce avant la matrice de Bayer et celle des filtres de la matrice et celle des poudres magiques logicielles avant la fabrication du raw client.
Prenez deux packs de bière , des sandwiches et prévoyez une bonne semaine pour TOUT lire ( je ne dis pas comprendre ...). C'est ici :
http://www.dpreview.com/forums/post/55488382.
PS (s)
-Regardez une représentation de tache d'Ayry vous comprendrez pourquoi en numérique on retient 0,61 de surface utile ( max d'énergie photonique) en numérique et pas 1,22 surface max avec franges d'exctinction.
-Ne pas confondre n = indice de réfration d'un systéme et N =fstop grandeur pratique en photo . Tout dépend si on est en calcul d'énergie ( pour évaluer ce qui se passe en rendement capteur et ) ou en photo au sens usuel.
Comme sur tout forum c'est tout simplement illisible.
Chacun apporte son grain de sel.
Il faudrait se référer à au moins une cinquantaine de liens !
Déjà en français c'est plus compréhensible ( de mon point de vue)
http://www.galerie-photo.info/forumgp/read.php?3,6569,6569#msg-6569 (http://www.galerie-photo.info/forumgp/read.php?3,6569,6569#msg-6569)
Citation de: Verso92 le Mars 10, 2015, 21:54:34
Je te sens un brin optimiste, sur ce coup-là : moi, j'ai l'impression qu'il atteint ses limites...
(j'avais failli doubler les PdV avec le f/1.8 50 AF-S, étant donnée la focale... mais je ne l'avais pas emmené, ayant préféré le f/2 35 Zeiss qui, finalement, n'est pas sorti du fourre-tout. C'est toujours pareil avec les focales fixes : on n'a jamais la bonne avec soi ! ;-)
Pardonne-moi pour cette intervention tardive, je suis en vadrouille et l'accès à Internet est limité.
Ce que je pense vraiment du 24/70 sur D810 : courbure de champ importante, à aucun moment la couverture du champ est homogène, la mise au point est mauvaise dès que l'on s'écarte des collimateurs centraux.
Bref, dans cette plage de focales, avec le D810 je privilégie les objectifs fixes. ;-)