Ayant cherché les liens entre le BxU et la MTF50 et n'ayant rien trouvé de concluant, je me suis décidé à faire les calculs.
Je ne vais pas tout expliquer, mais juste donner rapidement les résultats et quelques hypothèses.
- H est la hauteur du capteur (24mm sur un FX)
- N est le nombre de pixels sur la hauteur du capteur (4912 sur un D800)
- PSF[x,y] est le Point Spread Function dont on veut mesurer la netteté. Les calculs ci-dessous ont été faits et sont donc valides uniquement si cette fonction est gaussienne dans deux directions orthogonales. Mais les constantes sont différentes, ce qui permet d'avoir des MTF50 sagittales et méridionales différentes.
- MTF50s est la MTF50 sagittale exprimée en LW/PH (Line Width per Picture Height)
- MTF50m est la MTF50 méridionale exprimée en LW/PH (Line Width per Picture Height)
- BxU est défini par DxO dans le papier : http://perso.telecom-paristech.fr/~gousseau/ProjMVA/Flou/blur_long.pdf (http://perso.telecom-paristech.fr/~gousseau/ProjMVA/Flou/blur_long.pdf)
BxU = (1/2) Integrale[ (x^2+y^2) PSF(x,y) dx dy ] / (H/N)^2
Je ne vais pas détailler le calcul de la MTF50 qui est documenté un peu partout. Après calcul, on trouve :
BxU = (Ln(2) / pi^2) ( (N/MTF50s)^2 + (N/MTF50m)^2 )
Dans le cas ou les MTF50 sagittales et méridionales sont égales, on trouve
BxU = (2 Ln(2) / pi^2) (N / MTF50)^2
ou la MTF50 est exprimée en LW/PH.
Sur un D800, on trouve donc une correspondance:
0.50 BxU = MTF50 de 2604 LW/PH = MTF50 de 1302 LP/PH (Line Pair / Picture Height, la moitié de LW/PH)
0.75 BxU = MTF50 de 2126 LW/PH = MTF50 de 1063 LP/PH
1 BxU = MTF50 de 1842 LW/PH = MTF50 de 921 LP/PH
2 BxU = MTF50 de 1302 LW/PH = MTF50 de 651 LP/PH
3 BxU = MTF50 de 1063 LW/PH = MTF50 de 532 LP/PH
4 BxU = MTF50 de 922 LW/PH = MTF50 de 461 LP/PH
5 BxU = MTF50 de 824 LW/PH = MTF50 de 412 LP/PH
6 BxU = MTF50 de 752 LW/PH = MTF50 de 376 LP/PH
7 BxU = MTF50 de 696 LW/PH = MTF50 de 348 LP/PH
Si on regarde les valeurs de MTF50 calculées par Roger Cicala de LensRentals avec Imatest, on trouve que la meilleure mesure sur un D800 (Un Zeiss ZF.2 25mm f/2, au centre à f4) est de 1216 LP/PH. Une telle correspondance donnerait un score de 0.6 BxU, ce qui est exceptionnel.
En pratique, on bon zoom se retrouve souvent avec un BxU au centre aux bonnes ouvertures de 0.9, soit une MTF50 de 970 LP/PH. C'est en accord avec les résultats de Roger Cicala.
PS: Oui, JMS, Photozone donne des résultats de MTF50 délirants. Sur un D3X, ils mesurent une MTF50 de presque 4000 LW/PH, soit presque 0.15 BxU. C'est effectivement irréaliste.
PS: Le fichier Mathematica est disponible ici : https://www.dropbox.com/s/noz83wpj25y6lsy/bxu-mtf50.nb (https://www.dropbox.com/s/noz83wpj25y6lsy/bxu-mtf50.nb). Son PDF est disponible ici : https://www.dropbox.com/s/8m15568rea33xtw/bxu-mtf50.pdf (https://www.dropbox.com/s/8m15568rea33xtw/bxu-mtf50.pdf)
PS: Les commentaires sur un autre fil m'ont fait plaisir. Comme le débat avait été lancé, je n'ai pas résisté à faire le calcul jusqu'au bout et donc faire ce post. Je vous laisse débattre de toutes les contradictions que vous n'allez pas tarder à trouver avec les calculs de MTF50. Il y a tant de choses à dire intéressantes sur ces contradictions.
Merci pour ce nouveau fil..
Tout d'abord, la lecture mathématique du papier du Blur ne m'est pas possible même si je pense en comprendre le sens physique.
D'où la question basique suivante..
La manip que j'ai lancée récemment est fondée sur le théorème que, pour échantillonner correctemment une ligne, il faut au moins 2 pixels. Si je l'applique aux 4912 pix du D800, ça donne une limite max de 2456 lignes soit 1228 paires de lignes..
Ton calcul du 0,5 BxU pour un MTF50 donne 2604 soit une valeur plus élevée. Est ce que cela s'explique ou, est ce que ces 2 estimations ne sont pas comparables, ni en valeur, ni en sens physique? (MTF50 par rapport à une MTF100 peut être?) ??? ???
Chelmimage,
Je pense que tu fais référence au théorème de Shannon et à la fréquence associée appelée souvent fréquence de Nyquist. La fréquence de Nyquist pour le D800 est de 4912 LW/PH, soit 2456 LP/PH.
Sur un D800, Roger Cicala n'a jamais rien mesuré au dessus de 1216 LP/PH ( http://www.lensrentals.com/blog/2012/03/d800-lens-selection (http://www.lensrentals.com/blog/2012/03/d800-lens-selection) ). Les plus grandes MTF50 qu'il a mesuré sont donc d'a peu près la moitié de la fréquence de Nyquist, ce qui est réaliste.
Photozone a mesuré des MTF50 de 3872 LW/PH sur un D3X alors que la fréquence de Nyquist est de 4032 LW/PH. On est beaucoup trop proche de cette fréquence pour que ce soit réaliste. Il est probable qu'une accentuation assez forte soit responsable de cet affolement de MTF50. Je n'ai aucune idée de ce qu'ils font subir à Imatest pour obtenir de tels résultats.
Citation de: sylvatica le Mai 02, 2013, 14:21:14
Je pense que tu fais référence au théorème de Shannon et à la fréquence associée appelée souvent fréquence de Nyquist. La fréquence de Nyquist pour le D800 est de 4912 LW/PH, soit 2456 LP/PH.
Sur un D800, Roger Cicala n'a jamais rien mesuré au dessus de 1216 LP/PH ( http://www.lensrentals.com/blog/2012/03/d800-lens-selection (http://www.lensrentals.com/blog/2012/03/d800-lens-selection) ). Les plus grandes MTF50 qu'il a mesuré sont donc d'a peu près la moitié de la fréquence de Nyquist, ce qui est réaliste.
C'est pour ça qu'il est impossible de faire moirer un D800.
CQFD.
Citation de: Verso92 le Mai 02, 2013, 16:22:39
C'est pour ça qu'il est impossible de faire moirer un D800.
Tu sais bien qu'il est tout à fait possible de faire moirer un D800. Le fait d'avoir des MTF50 qui ne montent pas au dessus de la moitié de la fréquence de Nyquist n'est pas contradictoire avec cela.
Si on regarde le blog de l'auteur de mtfmapper, il semble que le maximum qu'il a observé est de l'ordre de 0.23 cycles/pixel, soit 0.23/0.5 = 0,46 fois la fréquence de Nyquist. Roger Cicala mesure des MTF50 jusqu'à 2 x 1216 / 4912 = 0,49 fois la fréquence de Nyquist sur un D800. Dans le cas ou la PSF est gaussienne, les résultats de Roger Cicala correspondent a un BxU de 0.57. Tout cela me parrait assez coherent avec les résultats de slrgear qui semblent avoir mesuré des BxU descendant jusqu'à 0.7 sur un EOS 40D.
Il faut bien faire attention à ne pas faire dire au BxU et au MTF50 ce qu'ils ne disent pas.
Citation de: sylvatica le Mai 02, 2013, 14:21:14
Chelmimage,
Je pense que tu fais référence au théorème de Shannon et à la fréquence associée appelée souvent fréquence de Nyquist. La fréquence de Nyquist pour le D800 est de 4912 LW/PH, soit 2456 LP/PH.
Sur un D800, Roger Cicala n'a jamais rien mesuré au dessus de 1216 LP/PH ( http://www.lensrentals.com/blog/2012/03/d800-lens-selection (http://www.lensrentals.com/blog/2012/03/d800-lens-selection) ). Les plus grandes MTF50 qu'il a mesuré sont donc d'a peu près la moitié de la fréquence de Nyquist, ce qui est réaliste.
Oui de plus pour un D800, 2456 LP/PH est la limite théorique, lorsque ces mesures sont faites, il faut considérer un système complet comprenant l'optique, le capteur ( et ses filtres éventuels) et l'algo de dématricage de Bayer.
j'ai l'impression que la matrice de bayer est un facteur qui influence de manière importante le résultat de la MTF (plus que les "bonnes optiques?).
Citation de: sylvatica le Mai 02, 2013, 14:21:14
Photozone a mesuré des MTF50 de 3872 LW/PH sur un D3X alors que la fréquence de Nyquist est de 4032 LW/PH. On est beaucoup trop proche de cette fréquence pour que ce soit réaliste. Il est probable qu'une accentuation assez forte soit responsable de cet affolement de MTF50. Je n'ai aucune idée de ce qu'ils font subir à Imatest pour obtenir de tels résultats.
Oui c'est très probable, sur un autre fil, (même sujet), il a été montré qu'en "agissant" sur l'accentuation, il était possible de "repousser" les limites théorique de la fréquence de coupure. C'est une astuce très ancienne, mais elle a ses limites et contraintes.
Si les mesures sont bien faites, le testeur devrait indiqué le set up de l'équipement, et notamment l'accentuation, autrement il n'est pas possible de faire de comparaisons intéressantes. D'où mon extrême réserve à comparer des résultats d'un site à un autre site.
Citation de: sylvatica le Mai 02, 2013, 06:38:26
Si on regarde les valeurs de MTF50 calculées par Roger Cicala de LensRentals avec Imatest, on trouve que la meilleure mesure sur un D800 (Un Zeiss ZF.2 25mm f/2, au centre à f4) est de 1216 LP/PH. Une telle correspondance donnerait un score de 0.6 BxU, ce qui est exceptionnel.
En pratique, on bon zoom se retrouve souvent avec un BxU au centre aux bonnes ouvertures de 0.9, soit une MTF50 de 970 LP/PH. C'est en accord avec les résultats de Roger Cicala.
Valeurs
mesurées ,je suppose que tu voulais dire, ou alors il (Roger Cicala) a fait un simulation numérique du système complet?
Citation de: sylvatica le Mai 02, 2013, 06:38:26
PS: Oui, JMS, Photozone donne des résultats de MTF50 délirants. Sur un D3X, ils mesurent une MTF50 de presque 4000 LW/PH, soit presque 0.15 BxU. C'est effectivement irréaliste.
PS: Le fichier Mathematica est disponible ici : https://www.dropbox.com/s/noz83wpj25y6lsy/bxu-mtf50.nb (https://www.dropbox.com/s/noz83wpj25y6lsy/bxu-mtf50.nb). Son PDF est disponible ici : https://www.dropbox.com/s/8m15568rea33xtw/bxu-mtf50.pdf (https://www.dropbox.com/s/8m15568rea33xtw/bxu-mtf50.pdf)
Le fichier Mathematica [...], c'est un fichier genre Mathlab?
Citation de: sylvatica le Mai 02, 2013, 06:38:26
PS: Les commentaires sur un autre fil m'ont fait plaisir. Comme le débat avait été lancé, je n'ai pas résisté à faire le calcul jusqu'au bout et donc faire ce post. Je vous laisse débattre de toutes les contradictions que vous n'allez pas tarder à trouver avec les calculs de MTF50. Il y a tant de choses à dire intéressantes sur ces contradictions.
Oui c'est un post intéressant, avec tes explications je commence à comprendre et à faire le lien entre BxU et MTF ;)
Les autres aspect intéressants:
- Pour la MTF 50, le taux de modulation (qui me semble aussi important)
- Pour le BxU, je n'avais pas compris que c'était la MTF 50 qui était intégrée dans le calcul, je me demande si ce n'est pas paramétrable? et là encore quid du taux de modulation...
Sylvatica, quel est ton avis sur l'influence du dématricage sur la MTF?
==> Sur le D800 versus D800E, plusieurs articles ont monté que la différence était visible sur des impression en A2/A1 (de mémoire)
Pour ceux qui veulent se familiariser avec la MTF, je propose ce lien :
http://www.niepce-daguerre.com/mtf.html (http://www.niepce-daguerre.com/mtf.html)
MBe,
La mesure de la MTF50 dépend:
- de l'optique (et tous ses paramètres associés : ouverture, distance au centre, etc...)
- du capteur, en particulier le filtre anti-aliasing
- de l'algorithme de dematricage
- de l'accentuation
et surement bien d'autres facteurs.
Si on veut comparer 2 optiques, il faut absolument que les 3 derniers paramètres soient fixés. L'accentuation a en particulier une influence capitale dans le calcul de la MTF50. Dans cet article très bien fait sur le D800/D800E ( http://www.falklumo.com/lumolabs/articles/D800AA/D800AAFilter.html (http://www.falklumo.com/lumolabs/articles/D800AA/D800AAFilter.html) ), à la section 5.1, on voit qu'un accentuation peut multiplier par 2 un calcul de MTF50 (de 2100 LW/PH à 4200 LW/PH).
En terme de BxU, sous les hypothèses précédentes, cela ferait passer d'un BxU de 0,76 à un BxU de 0,18. Mais les hypothèses faites plus haut sont totalement fausses car une accentuation n'a rien à voir avec une convolution avec une psf gaussienne. De toute façon, même en faisant subir les derniers outrages à une image, il semblerait que Le BxU mesuré ne descende pas en dessous de 0,6 (a peu près).
Une des hypothèses fondamentales pour comparer le BxU et la MTF50 est donc de ne pas faire d'accentuation sur le fichier. C'est pourquoi la formule que j'ai donnée plus haut est totalement fausse sur la MTF50 a été mesurée après accentuation, ce qui est le cas sur la majorité des sites utilisant Imatest. C'est pourquoi je n'ai utilisé que les résultats fournis par Roger Cicala et le développeur de mtfmapper, car il semblerait qu'ils utilisent des fichiers derawtissés avec DCRAW, sans appliquer aucune accentuation.
Citation de: MBe le Mai 02, 2013, 19:06:40
==> Sur le D800 versus D800E, plusieurs articles ont monté que la différence était visible sur des impression en A2/A1 (de mémoire)
Sur la différence entre le D800 et le D800E, elle se voit bien sur sur du 100% écran si:
- on utilise des bonnes optiques
- la mise au point est parfaite
- on reste loin de la diffraction (en pratique f5.6 voire f8, mais il faut éviter de fermer plus)
Dans ce cas,
si les deux fichiers sont développés avec les même paramètres, la différence se voit bien sur du 100% écran. Je veux bien croire qu'elle se voit sur un tirage A1.
Maintenant, développer avec les mêmes paramètres un fichier de D800 et un D800E est un moyen de comparaison débile. Aucune méthode de mesure ne peut faire de comparaison intelligente entre un D800 et un D800E. Il faut mieux faire confiance en les personnes qui font des tests pratiques et qui regardent quelle image on peut tirer d'un RAW de D800 et d'un RAW de D800E. Et là, en général, il n'y a plus beaucoup de monde pour voir des différences...
Citation de: MBe le Mai 02, 2013, 19:06:40
- Pour le BxU, je n'avais pas compris que c'était la MTF 50 qui était intégrée dans le calcul, je me demande si ce n'est pas paramétrable? et là encore quid du taux de modulation...
Attention, DxO ne mesure pas la MTF50 pour ensuite calculer le BxU. DxO mesure le BxU directement, et il se trouve que dans le cas ou la Point Spread Function est gaussienne (ce qui n'est pas rigoureusement le cas en pratique), BxU et MTF50 sont liés par la formule donnée plus haut.
Dans le cas ou la Point Spread Function n'est pas gaussienne, il n'y a pas de relation aussi simple. C'est pourquoi, il ne faut surtout pas utiliser la formule que j'ai donnée pour faire des comparaisons entre différents tests. Elle est par contre très utile lorsqu'on essaie de comprendre la différence entre ces deux méthodes de mesure, et elle semble donner des ordres de grandeur assez réalistes.
Citation de: sylvatica le Mai 02, 2013, 20:12:15
MBe,
La mesure de la MTF50 dépend:
- de l'optique (et tous ses paramètres associés : ouverture, distance au centre, etc...)
- du capteur, en particulier le filtre anti-aliasing
- de l'algorithme de dematricage
- de l'accentuation
et surement bien d'autres facteurs.
Si on veut comparer 2 optiques, il faut absolument que les 3 derniers paramètres soient fixés. L'accentuation a en particulier une influence capitale dans le calcul de la MTF50. Dans cet article très bien fait sur le D800/D800E ( http://www.falklumo.com/lumolabs/articles/D800AA/D800AAFilter.html (http://www.falklumo.com/lumolabs/articles/D800AA/D800AAFilter.html) ), à la section 5.1, on voit qu'un accentuation peut multiplier par 2 un calcul de MTF50 (de 2100 LW/PH à 4200 LW/PH).
En terme de BxU, sous les hypothèses précédentes, cela ferait passer d'un BxU de 0,76 à un BxU de 0,18. Mais les hypothèses faites plus haut sont totalement fausses car une accentuation n'a rien à voir avec une convolution avec une psf gaussienne. De toute façon, même en faisant subir les derniers outrages à une image, il semblerait que Le BxU mesuré ne descende pas en dessous de 0,6 (a peu près).
Une des hypothèses fondamentales pour comparer le BxU et la MTF50 est donc de ne pas faire d'accentuation sur le fichier. C'est pourquoi la formule que j'ai donnée plus haut est totalement fausse sur la MTF50 a été mesurée après accentuation, ce qui est le cas sur la majorité des sites utilisant Imatest. C'est pourquoi je n'ai utilisé que les résultats fournis par Roger Cicala et le développeur de mtfmapper, car il semblerait qu'ils utilisent des fichiers derawtissés avec DCRAW, sans appliquer aucune accentuation.
100% d'accord, pour les autres paramètres j'ajoute :
- l'ouverture (diaphragme)
- la mire
- la qualité de la mire (impression)
- l'éclairage de la mire et ses caractéristiques ( spectre...)
- ...je dois en oublier
mais le set up complet du protocole et l'APN devrait être publié!
Citation de: sylvatica le Mai 02, 2013, 20:31:16
Sur la différence entre le D800 et le D800E, elle se voit bien sur sur du 100% écran si:
- on utilise des bonnes optiques
- la mise au point est parfaite
- on reste loin de la diffraction (en pratique f5.6 voire f8, mais il faut éviter de fermer plus)
Dans ce cas, si les deux fichiers sont développés avec les même paramètres, la différence se voit bien sur du 100% écran. Je veux bien croire qu'elle se voit sur un tirage A1.
Maintenant, développer avec les mêmes paramètres un fichier de D800 et un D800E est un moyen de comparaison débile. Aucune méthode de mesure ne peut faire de comparaison intelligente entre un D800 et un D800E. Il faut mieux faire confiance en les personnes qui font des tests pratiques et qui regardent quelle image on peut tirer d'un RAW de D800 et d'un RAW de D800E. Et là, en général, il n'y a plus beaucoup de monde pour voir des différences...
Là également je suis d'accord.
Citation de: sylvatica le Mai 02, 2013, 20:38:47
Attention, DxO ne mesure pas la MTF50 pour ensuite calculer le BxU. DxO mesure le BxU directement, et il se trouve que dans le cas ou la Point Spread Function est gaussienne (ce qui n'est pas rigoureusement le cas en pratique), BxU et MTF50 sont liés par la formule donnée plus haut.
Dans le cas ou la Point Spread Function n'est pas gaussienne, il n'y a pas de relation aussi simple. C'est pourquoi, il ne faut surtout pas utiliser la formule que j'ai donnée pour faire des comparaisons entre différents tests. Elle est par contre très utile lorsqu'on essaie de comprendre la différence entre ces deux méthodes de mesure, et elle semble donner des ordres de grandeur assez réalistes.
Oui j'ai bien compris qu'il ne faisait pas de PSF, mais je comprends que leur méthode, via des "filtres de flou" doit quantifier la "netteté" (le pouvoir séparateur, le contraste) et converger vers une "[MTF = pouvoir séparateur + contraste]" en une valeur qui s'appelle BxU.
Et c'est à partir de là, ou je ne vois pas le poids de chacun des critères pour constituer ce BxU?
le "piqué subjectif, "le blur", "la netteté apparente" sont pour moi pas scientifique et un peu "cache misère".
Il est dit dans le Bouillot que le Bxu correspond "à la variance de la position et de la valeur des pixels dans l'image" (probablement en référence au graphisme de la mire) je préfère cette approche mais je reste sur ma "faim".
Citation de: MBe le Mai 02, 2013, 21:08:11
Oui j'ai bien compris qu'il ne faisait pas de PSF, mais je comprends que leur méthode, via des "filtres de flou" doit quantifier la "netteté" (le pouvoir séparateur, le contraste) et converger vers une "[MTF = pouvoir séparateur + contraste]" en une valeur qui s'appelle BxU.
Et c'est à partir de là, ou je ne vois pas le poids de chacun des critères pour constituer ce BxU?
le "piqué subjectif, "le blur", "la netteté apparente" sont pour moi pas scientifique et un peu "cache misère".
Il est dit dans le Bouillot que le Bxu correspond "à la variance de la position et de la valeur des pixels dans l'image" (probablement en référence au graphisme de la mire) je préfère cette approche mais je reste sur ma "faim".
Je vais pas prendre de risque et dire que la MTF50 mesure la MTF50 et que le BxU mesure le BxU. Par définition:
BxU (transformation) = (1/2) Integrale[ (x^2+y^2) PSF(x,y) dx dy ] / delta^2
ou PSF est la point spread function de la transformation et delta est la largeur du photosite. La citation que tu as mis entre guillemets est du charabia qui ne veut rien dire et je te conseille de ne pas perdre ton temps à essayer de le comprendre. Les termes de "piqué subjectif", "netteté apparente" ne sont que du baratin commercial.
La MTF50 se mesure à partir de la MTF qui est la transformée de Fourier de la PSF.
Si tu veux avoir une idée intuitive de ce à quoi correspond le BxU, il faudrait un document de qualité avec de nombreux exemples, un peu comme ce qu'à fait Zeiss avec les courbes MTF. Comme très peu de gens ont accès à DxO et que DxO ne semble pas vouloir écrire un tel document, on peut attendre longtemps...
Citation de: sylvatica le Mai 02, 2013, 21:20:11
Je vais pas prendre de risque et dire que la MTF50 mesure la MTF50 et que le BxU mesure le BxU. Par définition:
BxU (transformation) = (1/2) Integrale[ (x^2+y^2) PSF(x,y) dx dy ] / delta^2
ou PSF est la point spread function de la transformation et delta est la largeur du photosite. La citation que tu as mis entre guillemets est du charabia qui ne veut rien dire et je te conseille de ne pas perdre ton temps à essayer de le comprendre. Les termes de "piqué subjectif", "netteté apparente" ne sont que du baratin commercial.
Oui
Citation de: sylvatica le Mai 02, 2013, 21:20:11
La MTF50 se mesure à partir de la MTF qui est la transformée de Fourier de la PSF.
Oui, méthode connue, publiée, reconnue, (mais pas toujours bien bien employée ou mis en œuvre comme tu l'indiques dans ton premier message)
Citation de: sylvatica le Mai 02, 2013, 21:20:11
Si tu veux avoir une idée intuitive de ce à quoi correspond le BxU, il faudrait un document de qualité avec de nombreux exemples, un peu comme ce qu'à fait Zeiss avec les courbes MTF. Comme très peu de gens ont accès à DxO et que DxO ne semble pas vouloir écrire un tel document, on peut attendre longtemps...
Sans jeu de mot, la méthode laisse dans le flou ceux qui veulent comprendre ...
De nombreux testeurs l'utilisent...la présentation des résultats n'est pas identique ou d'égale valeur, il faut faire confiance ( ???),
et en effet il n' y a pas de document explicitant clairement la méthode! ce manque de transparence m'a toujours laissé perplexe. ( c'est pourquoi j'aime bien les mesures de MTF)
Citation de: MBe le Mai 02, 2013, 21:45:03
Oui, méthode connue, publiée, reconnue, (mais pas toujours bien bien employée ou mis en œuvre comme tu l'indiques dans ton premier message)
Il y a quand même quelque chose qui me chiffonne depuis un petit moment dans les courbes MTF pour les capteurs numériques. Comme on l'a dit, la BxU et Imatest mesurent une information contenue dans la MTF du système. Or:
MTF(système) = MTF(optique) . MTF(capteur) . MTF(deRawtisation et accentuation)
Pour simplifier, on va oublier la dernière étape. Le problème est qu'une condition indispensable pour définir la MTF n'est pas remplie pour le capteur (En gros si on déplace le capteur d'un demi pixel, on ne va pas avoir une translation de l'image d'un demi pixel ce qui n'aurait aucun sens, mais une nouvelle image : en gros ce sont les problèmes d'aliasing).
Après quelques recherches et de nombreux articles qui passent totalement à travers du problème, j'ai enfin trouvé un article qui parle de cela : http://www.e2v.com/e2v/assets/File/documents/imaging-space-and-scientific-sensors/Papers/ccdtn105.pdf (http://www.e2v.com/e2v/assets/File/documents/imaging-space-and-scientific-sensors/Papers/ccdtn105.pdf) . Ils disent clairement que la MTF d'un capteur n'existe pas, mais qu'il y a plutôt des pseudos-MTF dont les définitions sont toutes légèrement différentes.
Définir cette pseudo-MTF n'est possible qu'en donnant un protocole clair de mesure de la MTF. La méthode "slanted-edge", appelée dans l'article la technique de Vernier, est une de ces méthodes et c'est "La méthode standard" de calcul de MTF pour les systèmes qui contiennent un capteur.
Pour le BxU, l'article donné plus haut permet sans aucun problème de bien définir le BxU de l'optique mais passe totalement sous silence les problèmes liés au capteur. Comme la méthode de mesure du BxU n'est pas publique, on peut en conclure que le BxU du système "optique-capteur" n'est pas clairement défini.
Cette théorie est effectivement complexe..
Si je reviens sur ma petite manip pratique, on a 3 grandeurs d'entrée.
La zone des 2 applats noir et blanc
La zone des barres de fréquence basse
La zone des barres de fréquence haute
(je reste prudent quant à leur appellation)
pour ces 3 zones on a une même grandeur d'entrée en ce qui concerne les niveaux: le noir, niveau bas, le blanc, niveau haut..
cette grandeur d'entrée est conditionnée soit par l'impression papier, soit même par l'affichage écran, éventuellement.
Cette grandeur est caractérisée par une moyenne M et un écart type ET.
En sortie (la photo), En utilisant les histogrammes, on recueille 3 résultats pour 3 zones différentes.
M1 et ET1 pour la zone des applats, fréquence nulle (en équilibrant noir et blanc en surface)
M2 et ET2 pour la zone de fréquence F/2 (en sélectionnant un nombre de colonnes ou lignes multiple de 8)
M3 et ET3 pour la zone de fréquence F (en sélectionnant un nombre de colonnes ou lignes multiple de 4)
Les valeurs M et ET affichés par les histogrammes sont le résultat d'une intégration des niveaux sur un grand nombre de pixels .
Donc, si on calcule les rapports ET2/ET1, ET3/ET1, M2/M1, M3/M1, etc., il me semble qu'on peut leurs prêter une certaine similitude aux MTF.(affaiblissement, perte de contraste..?)
Je vais être à cours de temps libre et d'informatique et ne peux essayer de faire des calculs, avant au moins 2 semaines, donc je vous livre ces réflexions..
Citation de: sylvatica le Mai 03, 2013, 06:03:34
Il y a quand même quelque chose qui me chiffonne depuis un petit moment dans les courbes MTF pour les capteurs numériques. Comme on l'a dit, la BxU et Imatest mesurent une information contenue dans la MTF du système. Or:
MTF(système) = MTF(optique) . MTF(capteur) . MTF(deRawtisation et accentuation)
Pour simplifier, on va oublier la dernière étape. Le problème est qu'une condition indispensable pour définir la MTF n'est pas remplie pour le capteur (En gros si on déplace le capteur d'un demi pixel, on ne va pas avoir une translation de l'image d'un demi pixel ce qui n'aurait aucun sens, mais une nouvelle image : en gros ce sont les problèmes d'aliasing).
Il est en effet possible d'oublier la dernière étape,mais globalement pour l'observateur, il faudrait également prendre en compte le support de visualisation : par exemple écran ou papier (via l'imprimante).
mais en effet le capteur ne permet pas de remplir la condition pour définir la MTF.
Citation de: sylvatica le Mai 03, 2013, 06:03:34
Après quelques recherches et de nombreux articles qui passent totalement à travers du problème, j'ai enfin trouvé un article qui parle de cela : http://www.e2v.com/e2v/assets/File/documents/imaging-space-and-scientific-sensors/Papers/ccdtn105.pdf (http://www.e2v.com/e2v/assets/File/documents/imaging-space-and-scientific-sensors/Papers/ccdtn105.pdf) . Ils disent clairement que la MTF d'un capteur n'existe pas, mais qu'il y a plutôt des pseudos-MTF dont les définitions sont toutes légèrement différentes.
Définir cette pseudo-MTF n'est possible qu'en donnant un protocole clair de mesure de la MTF. La méthode "slanted-edge", appelée dans l'article la technique de Vernier, est une de ces méthodes et c'est "La méthode standard" de calcul de MTF pour les systèmes qui contiennent un capteur.
Une LSF le permettrait, à la condition que la largeur de la mire soit d'environ la moitié de la largeur du photosite (dans le plan image) et de garantir un alignement sur plusieurs photosites. C'est ce dernier critère qu'il est difficile de garantir, cela nécessite un banc optique, marbre...pour garantir l'alignement.
Citation de: sylvatica le Mai 03, 2013, 06:03:34
Pour le BxU, l'article donné plus haut permet sans aucun problème de bien définir le BxU de l'optique mais passe totalement sous silence les problèmes liés au capteur. Comme la méthode de mesure du BxU n'est pas publique, on peut en conclure que le BxU du système "optique-capteur" n'est pas clairement défini.
Peut être, comme à la lecture j'ai pas tout compris, je reste réservé. La lecture de cet article m'a fait penser à la rédaction de type brevet, pour limiter au maximum la divulgation d'information (et la copie).
un lien qui n'est pas récent, mais toujours d'actualité :
http://www.galerie-photo.com/film-contre-silicium-resolution.html (http://www.galerie-photo.com/film-contre-silicium-resolution.html)
J'ai continué un peu mes recherches et j'ai calculé un modèle de MTF pour un système : Objectif limité uniquement par la diffraction + filtre anti-aliasing + capteur monochrome.
Bien que la notion de MTF est "bancale" pour ce type de système, en tirant un peu tout cela par les cheveux, on trouve:
MTF(u) = (2/pi)(Arccos[v] - v.Sqrt[1-v^2]) . Cos[pi u] . (Sin[pi u]/(pi u))^3
Objectif limité par la diffraction Filtre anti-aliasing Echantillonage
ou u est exprime en cycles/pixel et v = (lambda/pixelWidth).Aperture.u. Une valeur de 550nm a été utilisée pour mes calculs. J'ai aussi raisonné pour les données de capteur du D800. On trouve donc comme valeur de MTF50, et donc de BxU avec ce modèle et l'hypothèse de conversion MTF50->BxU par "MTF gaussienne" :
Aperture = 1.4 -> MTF50 = 1211 LP/PH -> BxU = 0.57
Aperture = 2 -> MTF50 = 1192 LP/PH -> BxU = 0.59
Aperture = 2.8 -> MTF50 = 1167 LP/PH -> BxU = 0.62
Aperture = 4 -> MTF50 = 1128 LP/PH -> BxU = 0.66
Aperture = 5.6 -> MTF50 = 1077 LP/PH -> BxU = 0.73
Aperture = 8 -> MTF50 = 1001 LP/PH -> BxU = 0.85
Aperture = 16 -> MTF50 = 774 LP/PH -> BxU = 1.41
Aperture = 32 -> MTF50 = 490 LP/PH -> BxU = 3.5
Tout cela est cohérent avec les résultats que l'on voit sur slrgear. Comme un bon objectif est limité par la diffraction aux alentours de f4, qui donne un BxU de 0.66, c'est cohérent avec le fait que les BxU mesurés les plus faibles soient aux alentours de 0.7.
Sylvatica, tes calculs sont très intéressants, quelques remarques ou questions :
Citation de: sylvatica le Mai 06, 2013, 17:47:44
J'ai continué un peu mes recherches et j'ai calculé un modèle de MTF pour un système : Objectif limité uniquement par la diffraction + filtre anti-aliasing + capteur monochrome.
Pour le filtre anti aliasing, tu as pris une fréquence de coupure à Nyquist/2? (Pour le D800E, le filtrage est très faible).
Citation de: sylvatica le Mai 06, 2013, 17:47:44
Bien que la notion de MTF est "bancale" pour ce type de système, en tirant un peu tout cela par les cheveux, on trouve:
MTF(u) = (2/pi)(Arccos[v] - v.Sqrt[1-v^2]) . Cos[pi u] . (Sin[pi u]/(pi u))^3
Objectif limité par la diffraction Filtre anti-aliasing Echantillonage
ou u est exprime en cycles/pixel et v = (lambda/pixelWidth).Aperture.u. Une valeur de 550nm a été utilisée pour mes calculs. J'ai aussi raisonné pour les données de capteur du D800. On trouve donc comme valeur de MTF50, et donc de BxU avec ce modèle et l'hypothèse de conversion MTF50->BxU par "MTF gaussienne" :
De mémoire il me semblait que : MTF 50 =
4/pi(....), car on est pas dans le cas d'un capteur linéaire (sinus), mais dans le cas d'un système à "barreau" ( comme pour les mires de Foucault),mais je dois faire erreur ou mal interpréter (?).
Pour : u est exprime en cycles/pixel, pxiel représente je suppose la largeur d'un pixel (ou 2 *la largeur du pixel pour correspondre à une période?)
Citation de: sylvatica le Mai 06, 2013, 17:47:44
Aperture = 1.4 -> MTF50 = 1211 LP/PH -> BxU = 0.57
Aperture = 2 -> MTF50 = 1192 LP/PH -> BxU = 0.59
Aperture = 2.8 -> MTF50 = 1167 LP/PH -> BxU = 0.62
Aperture = 4 -> MTF50 = 1128 LP/PH -> BxU = 0.66
Aperture = 5.6 -> MTF50 = 1077 LP/PH -> BxU = 0.73
Aperture = 8 -> MTF50 = 1001 LP/PH -> BxU = 0.85
Aperture = 16 -> MTF50 = 774 LP/PH -> BxU = 1.41
Aperture = 32 -> MTF50 = 490 LP/PH -> BxU = 3.5
Tout cela est cohérent avec les résultats que l'on voit sur slrgear. Comme un bon objectif est limité par la diffraction aux alentours de f4, qui donne un BxU de 0.66, c'est cohérent avec le fait que les BxU mesurés les plus faibles soient aux alentours de 0.7.
Oui les résultats sont bien cohérents, et conformes à la théorie qui dit que la limitation est liée à la diffraction (1/(N*lambda)).
la BxU d'environ 0,6 à 0,8 me semble un peu optimiste, il ne doit pas y avoir beaucoup de systèmes qui ont cette performance, mai on est là sur un calcul théorique.
j'ai retrouvé ou JMS décrivait la méthode qu'il utilise pour faire la mesure de BxU :
http://www.pictchallenge-archives.net/TESTNUM/00BXUnotice.html (http://www.pictchallenge-archives.net/TESTNUM/00BXUnotice.html)
Citation de: MBe le Mai 06, 2013, 19:26:41
Pour le filtre anti aliasing, tu as pris une fréquence de coupure à Nyquist/2? (Pour le D800E, le filtrage est très faible).
Dans les modèles "classiques" de MTF d'un capteur, le premier 0 de la MTF est à 1 cycle/pixel. Par exemple, dans mon modèle, j'ai pris une MTF(u)=(sin(pi u)/(pi u))^3. Le premier 0 de cette fonction est à 1 cycle/pixel.
La fréquence de Nyquist est de 0.5 cycle/pixel et un capteur sans filtre anti-aliasing laisse passer de telles fréquences. C'est la raison pour laquelle on met de tels filtre, qui essaient de couper au dessus de cette fréquence. En pratique, un filtre anti-aliasing "basique" a une "MTF" de la forme MTF(u)=cos(pi u), MTF qui s'annule pour la première fois à une fréquence de 0.5 cycle/pixel. Donc pour répondre à ta question, le filtre anti-aliasing a une "MTF" qui s'annule pour la première fois à la fréquence de Nyquist : 0.5 cycle/pixel.
Citation de: MBe le Mai 06, 2013, 19:26:41
la BxU d'environ 0,6 à 0,8 me semble un peu optimiste, il ne doit pas y avoir beaucoup de systèmes qui ont cette performance, mai on est là sur un calcul théorique.
Tout cela est de toute façon assez pipotesque. Ce sont des modèles grossiers, de capteurs monochromes (pas de matrice de Bayer), avec un modèle grossier de filtre anti-aliasing. Si on enlève le filtre anti-aliasing, ce modèle donne une MTF50 maximale qui passe de 1250 LP/PH à 1800 LP/PH. En pratique, on ne verra pas un tel bond entre un D800 et un D800E. L'interpolation due à la matrice de Bayer est un autre filtre "passe-bas" qui n'est pas pris en compte ici.
Des BxU aussi bas que 0.72 ont été mesurés par slrgear : http://www.slrgear.com/articles/focus/focus.htm (http://www.slrgear.com/articles/focus/focus.htm). C'est assez cohérent avec le BxU optimal que donne la théorie présentée ci-dessus donne : BxU de 0.66 pour une optique limitée par la diffraction à f4.
Pour le BxU théorique optimal de 3.5 à f32, si on regarde les résultats de slrgear, on voit qu'ils ont mesuré des BxU de 3.8 à f32 avec le 70-200 VR f4 (à 135mm). Les mesures sont faites sur un D800E qui n'a pas de filtre anti-aliasing. Mais si on regarde les courbes de MTF générées expérimentalement avec le D800E (par exemple ici : http://www.falklumo.com/lumolabs/articles/D800AA/D800AAFilter.html (http://www.falklumo.com/lumolabs/articles/D800AA/D800AAFilter.html)), on voit quand même que les courbes s'écrasent autour de la fréquence de Nyquist, et je soupçonne l'interpolation liée à la matrice de Bayer d'en être la cause. De toute façon, si on enlève le filtre anti-aliasing de ce modèle (qui a un capteur monochrome je le rappelle), on trouve un BxU optimal de 3.15 à f32.
Bref, tout cela est assez "pipotesque" mais semble donner des résultats cohérents.
J'ai passé un peu de temps à écrire un logiciel de calcul de MTF50 par la méthode "slanted-edge" utilisée par Imatest. J'ai encore quelques interrogations sur la validité des résultats, mais un test de comparaison avec Imatest sur une image m'a donnée une erreur de 1.5% entre les deux.
J'ai donc pris une photo avec un D800 et j'ai développé le NEF avec Capture NX et les paramètres d'accentuation suivants : 0 - 1 - 2 - 3 - 5 - 7 - 9.
On obtient les courbes MTF suivantes. En ordonnée j'ai mis la MTF et en abscisse, la fréquence en cycle/pixel. Évidemment la courbe la plus basse correspond à la netteté 0 et la courbe la plus haute correspond à la netteté 9. Quelques remarques:
- on voit bien que tout s'écrase à la fréquence de Nyquist : 0.5 cycle/pixel.
- Pour les courbes de netteté 7 et 9, on voit que la MTF passe au dessus de 1, ce qui est synonyme de suraccentuation.
- Selon le paramètre de netteté choisit, on obtient des MTF50 (fréquence à laquelle la MTF est égale à 0.5) qui oscillent entre 0.13 cycle/pixel et 0.31 cycle/pixel.
La MTF50 est donc très dépendante au paramètre de netteté.
PS: A mon avis, si les résultats "théoriques" donnés plus haut coïncident avec les résultats donnés par lensrentals, c'est une pure coïncidence. Si il choisissait un paramètre de netteté un peu différent, on aurait des résultats tout à fait différents.
PS: Le logiciel que j'ai écrit a surement plein de défauts. Il faut que je l'améliore.
Citation de: sylvatica le Mai 06, 2013, 20:11:45
Dans les modèles "classiques" de MTF d'un capteur, le premier 0 de la MTF est à 1 cycle/pixel. Par exemple, dans mon modèle, j'ai pris une MTF(u)=(sin(pi u)/(pi u))^3. Le premier 0 de cette fonction est à 1 cycle/pixel.
La fréquence de Nyquist est de 0.5 cycle/pixel et un capteur sans filtre anti-aliasing laisse passer de telles fréquences. C'est la raison pour laquelle on met de tels filtre, qui essaient de couper au dessus de cette fréquence. En pratique, un filtre anti-aliasing "basique" a une "MTF" de la forme MTF(u)=cos(pi u), MTF qui s'annule pour la première fois à une fréquence de 0.5 cycle/pixel. Donc pour répondre à ta question, le filtre anti-aliasing a une "MTF" qui s'annule pour la première fois à la fréquence de Nyquist : 0.5 cycle/pixel.
Merci pour la confirmation, j'avais bien compris cela, mais les calculs de MTF ne sont pas spécialité, par contre c'est intéressant de comprendre.
Citation de: sylvatica le Mai 06, 2013, 20:11:45
Tout cela est de toute façon assez pipotesque. Ce sont des modèles grossiers, de capteurs monochromes (pas de matrice de Bayer), avec un modèle grossier de filtre anti-aliasing. Si on enlève le filtre anti-aliasing, ce modèle donne une MTF50 maximale qui passe de 1250 LP/PH à 1800 LP/PH. En pratique, on ne verra pas un tel bond entre un D800 et un D800E. L'interpolation due à la matrice de Bayer est un autre filtre "passe-bas" qui n'est pas pris en compte ici.
Des BxU aussi bas que 0.72 ont été mesurés par slrgear : http://www.slrgear.com/articles/focus/focus.htm (http://www.slrgear.com/articles/focus/focus.htm). C'est assez cohérent avec le BxU optimal que donne la théorie présentée ci-dessus donne : BxU de 0.66 pour une optique limitée par la diffraction à f4.
Pour le BxU théorique optimal de 3.5 à f32, si on regarde les résultats de slrgear, on voit qu'ils ont mesuré des BxU de 3.8 à f32 avec le 70-200 VR f4 (à 135mm). Les mesures sont faites sur un D800E qui n'a pas de filtre anti-aliasing. Mais si on regarde les courbes de MTF générées expérimentalement avec le D800E (par exemple ici : http://www.falklumo.com/lumolabs/articles/D800AA/D800AAFilter.html (http://www.falklumo.com/lumolabs/articles/D800AA/D800AAFilter.html)), on voit quand même que les courbes s'écrasent autour de la fréquence de Nyquist, et je soupçonne l'interpolation liée à la matrice de Bayer d'en être la cause. De toute façon, si on enlève le filtre anti-aliasing de ce modèle (qui a un capteur monochrome je le rappelle), on trouve un BxU optimal de 3.15 à f32.
Bref, tout cela est assez "pipotesque" mais semble donner des résultats cohérents.
Oui, mais avec tes hypothèses que tu as prises (qui me semblent raisonnables), tes calculs donnent un ordre de grandeur qui vérifient la théorie et confirment les mesures faites par les testeurs.
Citation de: sylvatica le Mai 07, 2013, 15:42:56
J'ai passé un peu de temps à écrire un logiciel de calcul de MTF50 par la méthode "slanted-edge" utilisée par Imatest. J'ai encore quelques interrogations sur la validité des résultats, mais un test de comparaison avec Imatest sur une image m'a donnée une erreur de 1.5% entre les deux.
J'ai donc pris une photo avec un D800 et j'ai développé le NEF avec Capture NX et les paramètres d'accentuation suivants : 0 - 1 - 2 - 3 - 5 - 7 - 9.
On obtient les courbes MTF suivantes. En ordonnée j'ai mis la MTF et en abscisse, la fréquence en cycle/pixel. Évidemment la courbe la plus basse correspond à la netteté 0 et la courbe la plus haute correspond à la netteté 9. Quelques remarques:
- on voit bien que tout s'écrase à la fréquence de Nyquist : 0.5 cycle/pixel.
- Pour les courbes de netteté 7 et 9, on voit que la MTF passe au dessus de 1, ce qui est synonyme de suraccentuation.
- Selon le paramètre de netteté choisit, on obtient des MTF50 (fréquence à laquelle la MTF est égale à 0.5) qui oscillent entre 0.13 cycle/pixel et 0.31 cycle/pixel.
La MTF50 est donc très dépendante au paramètre de netteté.
PS: A mon avis, si les résultats "théoriques" donnés plus haut coïncident avec les résultats donnés par lensrentals, c'est une pure coïncidence. Si il choisissait un paramètre de netteté un peu différent, on aurait des résultats tout à fait différents.
PS: Le logiciel que j'ai écrit a surement plein de défauts. Il faut que je l'améliore.
Super..., ces courbes sont belles et confirment (encore une foi) qu'il est possible de déterminer la plage de niveau d'accentuation optimum.
Je suppose que tu as photographié une mire ISO 12233 et que tu utilisent le barreau incliné au milieu de la mire pour lancer les calculs. Tu fais le calcul sur les 3 couches (RVB) ou tu dé satures pour passer en N&B?
j'ai fait ce type d'essais avec un logiciel, (en photographiant la mire Iso 12233), logiciel qui s'appelle mitre_sfr (v1.3) (voici le lien : http://www.mitre.org/tech/mtf/ (http://www.mitre.org/tech/mtf/)), mais j'avais obtenu des résultats non répétables, j'ai donc abandonné... sans comprendre l'origine du problème.
Si tu fais des essais avec, je suis preneur de ton retour.
Citation de: sylvatica le Mai 07, 2013, 15:42:56
J'ai donc pris une photo avec un D800 et j'ai développé le NEF avec Capture NX et les paramètres d'accentuation suivants : 0 - 1 - 2 - 3 - 5 - 7 - 9.
Il serait intéressant avec Cnx2 de regarder comment la MTF évolue avec l'algo "masque de flou" (aujourd'hui je fais le réglage à "l'oeil", en prenant toujours une marge car je n'aime pas trop les images sur accentuées).
Citation de: MBe le Mai 07, 2013, 20:15:09
Je suppose que tu as photographié une mire ISO 12233 et que tu utilisent le barreau incliné au milieu de la mire pour lancer les calculs. Tu fais le calcul sur les 3 couches (RVB) ou tu dé satures pour passer en N&B?
J'ai pris en photo un carré orienté de 8 degrés avec mon appareil. Le carré a été imprimé sur mon imprimante personnelle. Pour ce qui est du signal mesuré, je suis simplement passé en noir en blanc dans Mathematica.
Ce sont juste les premiers tests, et je dois peaufiner tout cela.
J'aimerai aussi comprendre comment certaines personnes arrivent à générer des fichiers qui ont une MTF qui ne s'écrase pas totalement au dessus de la fréquence de Nyquist. Je testerai tout cela avec des NEFs générés avec Lightroom ce soir.
Citation de: sylvatica le Mai 07, 2013, 21:42:10
J'ai pris en photo un carré orienté de 8 degrés avec mon appareil. Le carré a été imprimé sur mon imprimante personnelle. Pour ce qui est du signal mesuré, je suis simplement passé en noir en blanc dans Mathematica.
Ce sont juste les premiers tests, et je dois peaufiner tout cela.
J'aimerai aussi comprendre comment certaines personnes arrivent à générer des fichiers qui ont une MTF qui ne s'écrase pas totalement au dessus de la fréquence de Nyquist. Je testerai tout cela avec des NEFs générés avec Lightroom ce soir.
le problème de ces MTF sup au Nyquist, c'est peut être que l'appareil prend des artefact pour une résolution, car a l'écran on voit bien encore une alternance ligne blanche ligne noire, mais cette alternance est fausse. Le seul problème, c'est que le logiciel qui mesure ne peux pas le savoir.
Citation de: sylvatica le Mai 07, 2013, 21:42:10
J'ai pris en photo un carré orienté de 8 degrés avec mon appareil. Le carré a été imprimé sur mon imprimante personnelle. Pour ce qui est du signal mesuré, je suis simplement passé en noir en blanc dans Mathematica.
Ce sont juste les premiers tests, et je dois peaufiner tout cela.
J'aimerai aussi comprendre comment certaines personnes arrivent à générer des fichiers qui ont une MTF qui ne s'écrase pas totalement au dessus de la fréquence de Nyquist. Je testerai tout cela avec des NEFs générés avec Lightroom ce soir.
Pour le carré à 8°, je l'ai fait aussi pour voir si j"améliorais les résultats avec Mitre SFR (sans succès!).
Pour " comment certaines personnes arrivent à générer des fichiers qui ont une MTF qui ne s'écrase pas totalement au dessus de la fréquence de Nyquist": je suppose qu'ils connaissent (ou trouvent par itération) cette fréquence et règle le filtre avec un coeff de surtension > 0,7 ( ordre 2) ( il faudrait calculer le coeff pour un filtre d'ordre N en numérique), mais la contrepartie de cette méthode, est que bien souvent il y a rebondissement et inversion de contraste sur un front de montée type Dirac (ce que je déteste...les rebondissements et correspond à une sur-accentuation et souligne le c^té peu naturel d'une image)
SI tu as photographié une transition noir / blanc, en jouant sur les curseurs d'accentuation des softs de traitements, le phénomène de rebondissement est assez facile à mettre en évidence.
Citation de: Powerdoc le Mai 07, 2013, 22:36:16
le problème de ces MTF sup au Nyquist, c'est peut être que l'appareil prend des artefact pour une résolution, car a l'écran on voit bien encore une alternance ligne blanche ligne noire, mais cette alternance est fausse. Le seul problème, c'est que le logiciel qui mesure ne peux pas le savoir.
Oui c'est possible que le logiciel ne voit pas la fausse alternance, il y a souvent inversion de contraste (très visible en N&B) et un logiciel de mesure peut être leurré par le phénomène ( il faut vérifier la phase du signal...).
Et en pratique, (à mon avis), il n'y a rien au dessus de de la fréq de Nyquist, quand des observateurs croient voir quelque chose, c'est une illusion due à cette inversion.
De plus, je trouve que ce "rebondissement " derrière Nyquist génère des images qui ne sont pas très esthétiques et agréables à regarder, c'est le problème du numérique qui permet facilement ce type d'excès. je préfère personnellement une image un peu sous accentuée.
"
L'accentuation est un paramètre important, et elle est différente d'un APN à un autre en réglage natif ( cf. les pâtés de "sable" de CI), c'est pourquoi je reste également réservé sur la comparaison de MTF entre APN, car les constructeur ne règlent pas les curseurs au niveau des raw de la même manière. (finalement les MTF des optiques seules avaient du bon, mais je suis bien d'accord que le résultat globale et visible est bien celui du système complet).
J'ai un peu amélioré mon logiciel de calcul de MTF et j'ai des résultats assez comparables à ce que donne quickmtf. On peut voir ici les courbes tracées par ces deux logiciels sur une image ultra-accentuée (un truc horrible).
Il est intéressant de voir qu'on est toujours à un MTF50 de 0.35 cycles/pixel (0.345 avec mon logiciel et 0.352 avec quickmtf) alors que l'accentuation est insupportable. Lorsque photozone mesure sur un D3X des LW/PH proches de 4000 alors que le capteur D3X a une hauteur en pixels d'a peu près 4000, on est a des MTF50 proche de 0.5 cycles/pixel. C'est tout simplement impossible. Il y a forcement quelque chose qui cloche quelque part et je soupçonne un problème de conversion d'unité.
Sinon, le meilleur pour la fin : j'ai codé un calcul de BxU (C'est un peu différent du BxU de DxO, mais le principe est le même). On peut l'appeler BxU-Sylvatica et sa définition est :
BxU-Sylvatica = Integrale[x^2 PSF
- , x = -infini ... +infini ]
ou x est exprimé en pixels. Je commence à avoir quelques résultats mais je dois encore améliorer le programme.
Un petit exemple:
BxU-Sylvatica = 1.4
MTF50 = 0.18 cycles/pixel
Un autre exemple:
BxU-Sylvatica = 0.6
MTF50 = 0.23 cycles/pixel
Citation de: sylvatica le Mai 08, 2013, 07:43:17
J'ai un peu amélioré mon logiciel de calcul de MTF et j'ai des résultats assez comparables à ce que donne quickmtf. On peut voir ici les courbes tracées par ces deux logiciels sur une image ultra-accentuée (un truc horrible).
Il est intéressant de voir qu'on est toujours à un MTF50 de 0.35 cycles/pixel (0.345 avec mon logiciel et 0.352 avec quickmtf) alors que l'accentuation est insupportable. Lorsque photozone mesure sur un D3X des LW/PH proches de 4000 alors que le capteur D3X a une hauteur en pixels d'a peu près 4000, on est a des MTF50 proche de 0.5 cycles/pixel. C'est tout simplement impossible. Il y a forcement quelque chose qui cloche quelque part et je soupçonne un problème de conversion d'unité.
Sinon, le meilleur pour la fin : j'ai codé un calcul de BxU (C'est un peu différent du BxU de DxO, mais le principe est le même). On peut l'appeler BxU-Sylvatica et sa définition est :
BxU-Sylvatica = Integrale[x^2 PSF- , x = -infini ... +infini ]
ou x est exprimé en pixels. Je commence à avoir quelques résultats mais je dois encore améliorer le programme.
Ton calcul de MTF donne l'impression de vraiment bien marché, avec des résultats très proches de Quick MTF.
Le BxU "Sylvatica" correspond à l'intégral du produit de la PSF par une surface, surface correspondant au blur de DxO, si je comprends bien ton équation(?), c'est en effet très proche du principe mis en œuvre par DxO.
La différence qui subsiste est que cette mesure avec DxO, est faite sur une mire avec des "plots circulaires". je ne pense pas qu'il fasse un calcul de PSF au sens de slanted edge. Avec les informations distances du capteur /APN, focale de l'optique avec la mire , et les caractéristiques de la mire, le soft de Dx0 est capable de déterminer la surface théorique d'un plot et le compare à la version enregistrée par l'APN [optique/capteur/dématriceur (y compris accentuation)].
Le point sensible reste le parallélisme de la mire Dxo avec le capteur afin que les mesures soient très précises, la distance entre capteur et mire, je ne sais pas si le soft de Dx0 récupère la distance indiquée dans les données EXIF du RAW? Ce set up est beaucoup plus sensible qu'une mesure slanted edge.
Citation de: MBe le Mai 08, 2013, 18:02:07
Ton calcul de MTF donne l'impression de vraiment bien marché, avec des résultats très proches de Quick MTF.
Oui, mon soft semble bien marcher et donne des résultats comparables à QuickMTF. Je travaille encore sur l'algorithme qui a mon avis a quelques avantages sur ceux d'Imatest et de QuickMTF, en particulier celui de donner une courbe plus lisse.
Des qu'on accentue un peu, la PSF (Point Spread Function) change de signe, ce qui est caractéristique des liserés sur les bords. Je préfère donc travailler avec des images sans aucune accentuation (netteté à 0 dans Capture NX, tout à 0 dans LightRoom). Dans ce cas, on trouve des MTF50 de l'ordre de 0.15 cycles/pixel pour les meilleures optiques.
Citation de: MBe le Mai 08, 2013, 18:02:07
Le BxU "Sylvatica" correspond à l'intégral du produit de la PSF par une surface, surface correspondant au blur de DxO, si je comprends bien ton équation(?), c'est en effet très proche du principe mis en œuvre par DxO.
Selon leur article, le BxU DxO serait:
BxU-DxO = (1/2) Integrale[(x^2+y^2) PSF(x,y), x = -infini .. +infini, y = -infini ... +infini]
où x et y sont mesurées en pixels. Le BxU-DxO prend donc en compte la Point Spread Function dans son intégralité.
Le BxU-Sylvatica est défini par
BxU-Sylvatica = Integrale[x^2 PSF(x), x = -infini .. +infini]
ou PSF(x) = Integrale[PSF(x,y), y = -infini .. + infini]. C'est donc un BxU-Sylvatica dans la direction x et il faudrait aussi un BxU-Sylvatica dans la direction y. Comme pour le moment je ne fais que des tests au centre de l'optique, ils devraient être égaux.
De toute façon, j'ai encore de gros problèmes pour définir correctement ce BxU-Sylvatica qui semble très sensibles au "bruit de calcul de la PSF" car pour x très grand, un bruit dans la mesure de PSF
- va faire que x^2 PSF
- est énorme et donc totalement perturber la calcul du BxU. Il faut donc limiter les intégrales à x = -largeur ... largeur ou largeur est à calculer. C'est donc un peu difficile. A noter que le calcul de la MTF est aussi sensible à cette "largeur".
Je vais donc en rester au calcul de la MTF50 avec des images non accentuées. Je voudrais voir si mon algo traduit en chiffres l'apparition progressive de la diffraction sur le D800 entre f4 et f11.
Voici par exemple une courbe de MTF provenant de:
- D800
- Nikon 35mm f1.4 fermé à f4
- Développé avec Capture NX et une accentuation de 0
En ordonnée la MTF et en abscisse la fréquence en cycles/pixel. Les barres horizontales sont là pour lire les MTF50 et les MTF30. On mesure une MTF50 de 0.132 cycles/pixel.
Citation de: sylvatica le Mai 08, 2013, 18:26:34
Selon leur article, le BxU DxO serait:
BxU-DxO = (1/2) Integrale[(x^2+y^2) PSF(x,y), x = -infini .. +infini, y = -infini ... +infini]
où x et y sont mesurées en pixels. Le BxU-DxO prend donc en compte la Point Spread Function dans son intégralité.
Le BxU-Sylvatica est défini par
BxU-Sylvatica = Integrale[x^2 PSF(x), x = -infini .. +infini]
ou PSF(x) = Integrale[PSF(x,y), y = -infini .. + infini]. C'est donc un BxU-Sylvatica dans la direction x et il faudrait aussi un BxU-Sylvatica dans la direction y. Comme pour le moment je ne fais que des tests au centre de l'optique, ils devraient être égaux.
De toute façon, j'ai encore de gros problèmes pour définir correctement ce BxU-Sylvatica qui semble très sensibles au "bruit de calcul de la PSF" car pour x très grand, un bruit dans la mesure de PSF- va faire que x^2 PSF
- est énorme et donc totalement perturber la calcul du BxU. Il faut donc limiter les intégrales à x = -largeur ... largeur ou largeur est à calculer. C'est donc un peu difficile. A noter que le calcul de la MTF est aussi sensible à cette "largeur".
Oui l'intérêt n'est pas probant de refaire du BxU, je suis d'accord avec ton analyse pour le calcul dans les 2 directions pour le Bxu de DxO. Le calcul doit en effet être très sensible aux bruits.
Citation de: sylvatica le Mai 08, 2013, 18:26:34
Je vais donc en rester au calcul de la MTF50 avec des images non accentuées. Je voudrais voir si mon algo traduit en chiffres l'apparition progressive de la diffraction sur le D800 entre f4 et f11.
Normalement tu devrais voir l'action de la diffraction, maintenant il y a peut être un effet de seuil lié au dématricage de la matrice de BAyer?
Au passage, le BxU "mesure" la dérivée seconde à l'origine de la MTF en fonction de la fréquence (contrairement à ce que j'avais dit sur ce forum ou je parlais plutôt d'intégrale; j'avais confondu MTF et PSF dans leur article). Le BxU ne regarde donc que ce qui se passe au voisinage de la fréquence nulle.
Citation de: MBe le Mai 08, 2013, 18:43:16
Normalement tu devrais voir l'action de la diffraction, maintenant il y a peut être un effet de seuil lié au dématricage de la matrice de BAyer?
Dans de bonnes conditions, la diffraction se voit sur un D800 à l'oeil nu sur des crops 100%, dès f5.6 / f8. On devrait donc pouvoir mesurer cela si mon programme est "précis".
Citation de: sylvatica le Mai 08, 2013, 18:35:51
Voici par exemple une courbe de MTF provenant de:
- D800
- Nikon 35mm f1.4 fermé à f4
- Développé avec Capture NX et une accentuation de 0
En ordonnée la MTF et en abscisse la fréquence en cycles/pixel. Les barres horizontales sont là pour lire les MTF50 et les MTF30. On mesure une MTF50 de 0.132 cycles/pixel.
La courbe a une belle allure et est très régulière ( Tu as le 800 ou le 800E?)
Avec Cnx tu as bien décoché réduction de bruit et dans Paramètres et correction de l'objectif, décoché les corrections d'AC, de distorsion... qui influent sur ma MTF.
Citation de: MBe le Mai 08, 2013, 18:53:54
La courbe a une belle allure et est très régulière ( Tu as le 800 ou le 800E?)
Avec Cnx tu as bien décoché réduction de bruit et dans Paramètres et correction de l'objectif, décoché les corrections d'AC, de distorsion... qui influent sur ma MTF.
Je suis assez content de la régularité de mes courbes MTF, effectivement :-). Je pense faire l'interpolation de manière beaucoup plus propre que ce qui est fait dans les logiciels de calcul de MTF ce qui peut expliquer cela. Par contre, j'ai encore pas mal de progrès à faire en ce qui concerne le calcul de la fenêtre de traitement.
Sinon, pour Capture Nx, je ne sais plus ce que j'ai fait. Je n'ai rien touché à part la balance des blancs et la netteté mais je ne sais pas quels étaient les paramètres enregistrés dans le NEF.
Sinon, j'ai trouvé un très bon moyen de définir un BxU-Sylvatica beaucoup plus facile à calculer. C'est toujours la même définition, mais pour le calculer je "fite" une gausienne sous la mtf pour que cela colle bien entre la fréquence nulle et la mtf50, et je calcule le BxU-Sylvatica à partir de cette gaussienne. J'obtiens ainsi, sur ma photo faite au D800 et au 35mm f1.4 à f4 (qui doit être très bon ici), développé avec Capture NX :
- Paramètre de netteté 0 : MTF50 = 0.132 cycles/pixel, BxU-Sylvatica = 2.1
- Paramètre de netteté 1 : MTF50 = 0.154 cycles/pixel, BxU-Sylvatica = 1.6
- Paramètre de netteté 2 : MTF50 = 0.198 cycles/pixel, BxU-Sylvatica = 1.0
- Paramètre de netteté 3 : MTF50 = 0.225 cycles/pixel, BxU-Sylvatica = 0.7
Je pense avoir quelque chose qui se rapproche très bien du BxU-DxO. Il y a peut-etre un facteur multiplicatif à caser et une "moyenne" à faire entre le BxU-Sylvatica horizontal et vertical, mais l'idée est là. De toute manière, je n'aurai jamais accès à DxO.
Ci-joint une courbe de MTF avec la gaussienne qui approche la MTF pour les basses fréquences et qui me permet de calculer le BxU-Sylvatica (La MTF est la courbe qui rebondit à la fréquence de Nyquist et l'autre est la gaussienne). On peut d'ailleurs admirer le fait qu'aux basses fréquences, le comportement de la MTF est très proche d'une gaussienne.
Citation de: MBe le Mai 08, 2013, 18:53:54
La courbe a une belle allure et est très régulière ( Tu as le 800 ou le 800E?)
C'est le D800.
Citation de: sylvatica le Mai 08, 2013, 20:59:01
- Paramètre de netteté 0 : MTF50 = 0.132 cycles/pixel, BxU-Sylvatica = 2.1
- Paramètre de netteté 1 : MTF50 = 0.154 cycles/pixel, BxU-Sylvatica = 1.6
- Paramètre de netteté 2 : MTF50 = 0.198 cycles/pixel, BxU-Sylvatica = 1.0
- Paramètre de netteté 3 : MTF50 = 0.225 cycles/pixel, BxU-Sylvatica = 0.7
Les résultats sont bons, et je reste impressionné par les courbes, le paramètre de netteté 0,1,2,3...que tu indiques correspond au niveau qui est défini par 0,1,2,3.. dans Accentuation de Picture control?
Personnellement, sur D700, l'accentuation est paramétrée à 2 de façon nominale, pour les photos faites au delà de 1000 iso, j'ai un set dans CNx qui reconfigure à 0 l'accentuation dans picture control, je "débruite" et je lance une nouvelle étape Masque de flou avec les réglages moyens suivants : intensité de 35 à 55, rayon 4à 5, seuil de 6 à 7 (réglage en fonction de l'utilisation, du contenu)
D'après mes lectures sur le D800, l'accentuation à appliquer serait plus faible.
Citation de: sylvatica le Mai 08, 2013, 21:12:08
C'est le D800.
Merci.
Oui l'écart est très très faible entre D800 et D800E, il ne se voit probablement que sur un tirage en A2/ A1, et encore faut il avoir l'optique adéquat.
Citation de: sylvatica le Mai 08, 2013, 18:45:12
Au passage, le BxU "mesure" la dérivée seconde à l'origine de la MTF en fonction de la fréquence (contrairement à ce que j'avais dit sur ce forum ou je parlais plutôt d'intégrale; j'avais confondu MTF et PSF dans leur article). Le BxU ne regarde donc que ce qui se passe au voisinage de la fréquence nulle.
Merci, c'est mieux! 8) ;)
Citation de: MBe le Mai 08, 2013, 22:13:35
Les résultats sont bons, et je reste impressionné par les courbes, le paramètre de netteté 0,1,2,3...que tu indiques correspond au niveau qui est défini par 0,1,2,3.. dans Accentuation de Picture control?
Effectivement, ce sont les niveaux du paramètre de netteté Nikon : entre 0 et 9.
Citation de: MBe le Mai 08, 2013, 22:19:31
Oui l'écart est très très faible entre D800 et D800E, il ne se voit probablement que sur un tirage en A2/ A1, et encore faut il avoir l'optique adéquat.
Sur le site de Lumolabs, Falk a montré que pour passer d'une courbe MTF d'une image faite avec un D800 à une courbe MTF d'une image faite avec un D800E, il fallait multiplier la MTF par : Sinc[1.82 pi u]/Sinc[pi u]. Un rapide calcul donne un BxU de 0.2 pour cette fonction. Comme les BxU-Sylvatica (et DxO) ont la bonne propriété de s'ajouter lorsqu'on multiplie les MTF, on obtient :
BxU-Sylvatica(D800E) = BxU-Sylvatica(D800) + 0.2
Comme je suis de plus en plus persuadé que BxU-DxO = (BxU-Sylvatica-Horizontal + BxU-Sylvatica-Vertical)/2, on pourrait en déduire que les BxU-DxO vérifient la même relation.
L'écart entre le D800 et le D800E se voit très bien sur du 100% écran avec les mêmes paramètres de netteté. Cela signifierait qu'un écart de 0.2 BxU pour des valeurs autour de 1 BxU se voit bien sur du 100% écran.
Citation de: sylvatica le Mai 08, 2013, 22:43:04
L'écart entre le D800 et le D800E se voit très bien sur du 100% écran avec les mêmes paramètres de netteté. Cela signifierait qu'un écart de 0.2 BxU pour des valeurs autour de 1 BxU se voit bien sur du 100% écran.
Oui, sans oublier que ces mesures / calculs sont réalisés avec une incertitude de 5 à 10%, mais en effet la différence se voit avec une visualisation à 100%.
Pour revenir à l'AFS 35f:1,4 G, il y a un très faible écart (de l'ordre de 0,1 BxU) entre le centre et les bords de f:4 à f:11et d'après l'ebook de JMS, l'optimum est à f:8.
Une baisse de performance commence à se faire voir à partir de f:16 (tout en restant excellent) , ce qui indiquerait que la diffraction n'affecte pas ou moins le BxU et confirme ta remarque sur le fait que le BxU est majoritairement discriminant sur les basses fréquences. (contrairement à la MTF).
Et voici la validation de mon programme de calcul de BxU. Pour faire cela, j'ai utilisé le D800 avec le 70-200 VR f4, réglé à 105mm. J'ai imprimé un carré gris que j'ai scotché au mur. Avec la lumière un peu pourrie de mon salon, je me suis lancé dans les tests et j'ai fait une série de photos avec le carré gris au centre et avec les ouvertures : f4 - f5.6 - f8 - f11 - f16 - f22 - f32.
J'ai ensuite développé ces fichiers dans Capture NX avec les réglages suivants:
- Balance des blancs ajustés sur la cible
- Accentuation 1
- Aberration chromatique latérale auto
- Aberration chromatique longitudinale : 50
J'ai ensuite passé tous les crops dans mon logiciel MTF-BxU-Sylvatica. J'obtient:
- Pour f4 : MTF50 de 0.229 cycles/pixel, BxU-Sylvatica de 0.64
- Pour f5.6 : MTF50 de 0.216 cycles/pixel, BxU-Sylvatica de 0.78
- Pour f8 : MTF50 de 0.183 cycles/pixel, BxU-Sylvatica de 1.18
- Pour f11 : MTF50 de 0.171 cycles/pixel, BxU-Sylvatica de 1.76
- Pour f16 : MTF50 de 0.167 cycles/pixel, BxU-Sylvatica de 2.42
- Pour f22 : MTF50 de 0.127 cycles/pixel, BxU-Sylvatica de 3.30
- Pour f32 : MTF50 de 0.093 cycles/pixel, BxU-Sylvatica de 4.92
On remarque que l'on voit clairement la diffraction apparaitre dès f5.6 car la MTF50 diminue et le BxU-Sylvatica augmente. Il est très difficile de voir à l'oeil nu la diffraction faire son travail à f5.6, mais le logiciel est assez précis pour le voir.
On peut aussi comparer le BxU-Sylvatica mesuré sur un D800 et le BxU mesuré sur un D800E par SLR-Gear. C'est ici : http://slrgear.com/reviews/showproduct.php/product/1570/cat/13 (http://slrgear.com/reviews/showproduct.php/product/1570/cat/13). Et je dois admettre être plutôt fier de mes résultats : ils trouvent les mêmes valeurs de BxU que moi. 8)
Voici les crops qui sont passés dans mon logiciel. De gauche à droite, les ouvertures f2.8, ..., f32.
Ce qui est intéressant est qu'autant sur mur de brique, en m'arrachant les yeux à 100% je vois la diffraction apparaitre à f8 et f11, autant sur ces crops, c'est chaud. Evidemment, à f22 et f32, même sur de tels crops, cela se voit bien.
Maintenant, une réponse à la question du fil : oui ou non BxU et MTF50 sont-ils liés ?
J'ai tracé ici les courbes MTF mesurées plus haut aux focales f4, f8, f16, f32. Elles sont en rouge et bien sur la plus élevée correspond à f4. En ordonnée, il y a bien sur la MTF et en abscisse la fréquence en cycles par pixels. J'ai volontairement réduit ce qui se passait au domaine entre 0 cycles/pixel et 0.24 cycles/pixel (pour vous donner une idée cela correspond sur D800 a des fréquences entre 0 paires de lignes par mm à 50 paires de lignes par mm).
En bleu, j'ai tracé les courbes gaussiennes qui ont le même BxU que les courbes mesurées (elles "collent" leur courbes rouges respectives à l'origine).
En noir, la valeur 1/2 qui permet de mesurer la MTF50 lorsque les courbes rouges coupent cette droite.
Si il y avait une relation simple entre BxU et MTF50, les courbes bleues couperaient au même endroit la valeur 1/2 que les courbes rouges associées. On voit que cela peut être assez éloigné, notamment pour la courbe f16. Cependant, pour les autres, c'est assez proche.
La conclusion de cette expérience est que BxU et MTF50 mesurent "à peu près" la même chose lorsque les images ne sont pas trop accentuées, hypothèse qui me semble de toute façon fondamentale pour faire tout test d'objectif. La formule que j'ai donnée au début de ce fil n'est donc pas toujours vraie, mais elle donne un ordre de grandeur. Cependant, ont peut le voir ici, il y a une différence.
Maintenant, laquelle correspond le mieux à notre impression visuelle ?
Je vous laisse juger sur ces images de briques. De gauche à droite : f4, f8, f16, f32. Les notes correspondantes étaient:
- Pour f4 : MTF50 de 0.229 cycles/pixel, BxU-Sylvatica de 0.64
- Pour f8 : MTF50 de 0.183 cycles/pixel, BxU-Sylvatica de 1.18
- Pour f16 : MTF50 de 0.167 cycles/pixel, BxU-Sylvatica de 2.42
- Pour f32 : MTF50 de 0.093 cycles/pixel, BxU-Sylvatica de 4.92
Citation de: MBe le Mai 08, 2013, 23:41:55
Une baisse de performance commence à se faire voir à partir de f:16 (tout en restant excellent) , ce qui indiquerait que la diffraction n'affecte pas ou moins le BxU et confirme ta remarque sur le fait que le BxU est majoritairement discriminant sur les basses fréquences. (contrairement à la MTF).
Comme tu l'a vu sur mon exemple, le BxU est tout autant affecté par la diffraction que la MTF50.
Si on ne voit pas apparaitre la diffraction dans les bouquins de JMS pour les ouvertures inférieures à f11, c'est qu'ils sont fait en Print A1 et son livre laisse entendre que même si la diffraction se voit en 100% écran entre f5.6 et f11, il faut attendre f16 pour qu'on puisse la voire sur un tirage A1.
Citation de: sylvatica le Mai 09, 2013, 05:44:49
Maintenant, laquelle correspond le mieux à notre impression visuelle ?
Je vous laisse juger sur ces images de briques. De gauche à droite : f4, f8, f16, f32. Les notes correspondantes étaient:
- Pour f4 : MTF50 de 0.229 cycles/pixel, BxU-Sylvatica de 0.64
- Pour f8 : MTF50 de 0.183 cycles/pixel, BxU-Sylvatica de 1.18
- Pour f16 : MTF50 de 0.167 cycles/pixel, BxU-Sylvatica de 2.42
- Pour f32 : MTF50 de 0.093 cycles/pixel, BxU-Sylvatica de 4.92
L'exercice est difficile, l'image n'est pas très grande..., je prends le risque, mais en prenant le critère de "voir" les grains de sable dans le ciment l'image qui donne l'impression d'avoir la meilleure résolution est celle de gauche, ensuite la 2 éme, la 3 éme et celle de droite ( pour celle là, le doute n'existe pas).
En fait j'ai l'impression qu'il y a un voile supplémentaire qui s'ajoute à chaque foi que je me décale d'une image vers la droite, mais je reste circonspect sur "mes impressions" :D
Citation de: sylvatica le Mai 09, 2013, 06:19:29
Comme tu l'a vu sur mon exemple, le BxU est tout autant affecté par la diffraction que la MTF50.
Oui avec les gaussiennes , même avec la divergence sur les paires de courbes et les écarts à l'intersection sur "la droite MTF50", j'ai du mal à me les expliquer.
Citation de: sylvatica le Mai 09, 2013, 06:19:29
Si on ne voit pas apparaitre la diffraction dans les bouquins de JMS pour les ouvertures inférieures à f11, c'est qu'ils sont fait en Print A1 et son livre laisse entendre que même si la diffraction se voit en 100% écran entre f5.6 et f11, il faut attendre f16 pour qu'on puisse la voire sur un tirage A1.[/b]
C'est là ou je reste un peu interrogatif (?) mais il est possible :
Que sur une impression, la résolution de l'imprimante (ou le motif de l'impression) ne permette pas ou pas bien, de faire cette discrimination. (le résultat pourrait être différent en fonction de la marque de l'imprimante)
C'est en effet peut être plus facile sur écran.
L'effet de la diffraction est en tous cas bien plus visible sur la représentation graphique faite pas SLRgear sur l'exemple que tu as mis en lien.
MBe,
Attention à ne pas confondre les différents types de courbes MTF. C'est une jungle dans laquelle on se perd facilement. Je me permet de faire cette précision car je ne voudrais pas qu'il y ait une confusion entre les courbes que j'ai publié et les courbes publiées par les fabricants d'objectif.
- Celle que j'ai tracée et qui mesure la combinaison objectif+capteur+traitement donne la MTF en fonction de la fréquence spatiale. Cette mesure se fait à un endroit de la photo, selon une direction.
- Celle qui est donnée par les constructions d'objectifs ne mesure que l'objectif. En ordonnée, il y a la MTF et en abscisse, il y a la position sur l'image, du centre, vers l'angle. Ces mesures sont faites à une fréquence donnée (par exemple 10 cycles/mm, 20 cycles/mm ou 40 cycles/mm ce qui correspond respectivement sur un D800 à 0.05 cycles/pixel, 0.10 cycles/pixel et 0.19 cycles/pixel). En général, il y a une courbe pour les détails dans une direction vers l'extérieur de l'image et une courbe pour les détails dans une direction perpendiculaire à cette dernière. Malheureusement, les fabricants les publient presque tous uniquement pour la meilleure ouverture, et ce ne sont pas des courbes mesurées mais théoriques. Seul Zeiss semble faire cela correctement en publiant plusieurs ouvertures et en publiant des courbes mesurées.
Entre ces différentes courbes, et toutes les unités dans lesquels mêmes les testeurs semblent s'emmêler les pinceaux, il y a effectivement de quoi perdre son latin.
Citation de: MBe le Mai 09, 2013, 19:10:45
L'exercice est difficile, l'image n'est pas très grande..., je prends le risque, mais en prenant le critère de "voir" les grains de sable dans le ciment l'image qui donne l'impression d'avoir la meilleure résolution est celle de gauche, ensuite la 2 éme, la 3 éme et celle de droite ( pour celle là, le doute n'existe pas).
C'est totalement en accord avec le BxU et la MTF50 qui disent tous que l'image se dégrade. Personnellement, le dégradation entre la seconde et la troisième se voit bien et la dégradation entre la troisième et la quatrième saute aux yeux. Il est bon de mettre tout cela en face des "chiffres" de MTF50 et de BxU pour savoir à qui cela correspond.
Une amie dont le travail est de faire des régimes doit demander aux patients les quantités qu'ils mangent. Quand elle leur demandait : un peu - moyen - beaucoup, il est évident que ses données étaient inexploitables. Depuis qu'elle montre des photos qui correspondent à ce qu'elle entend par ces expressions, c'est devenu beaucoup plus fiable. La diététique semble avoir mieux compris l'intérêt des photos que bien des testeurs d'objectifs.
Pour la netteté, des études ont été faites par Kodak pour savoir ce qu'il est intéressant de mesurer sur une courbe MTF pour bien caractériser la netteté. Il en ressort que ce qui est important de mesurer dépend fortement de la taille du tirage. Par exemple, avec deux images données de même taille (en pixels), il est possible que le premier soit meilleur que le second en sortie A3 mais que le second soit meilleur que le premier en sortie A1. Cette métrique (le SQF http://www.bobatkins.com/photography/technical/mtf/mtf4.html (http://www.bobatkins.com/photography/technical/mtf/mtf4.html)) ne peut être calculée qu'avec la courbe MTF que j'ai donnée et la MTF50 ou le BxU ne suffisent pas. Elle dépend aussi de la taille d'impression.
Maintenant, JMS donne des notes en Print A1, Print A2 et Print A3 dans son bouquin sur le D800. Je ne sais pas si ces notes dépendent uniquement du BxU et de la taille du tirage ou prennent en compte la courbe MTF en entier pour en déduire une sorte de SQF.
Citation de: sylvatica le Mai 09, 2013, 20:36:13
MBe,
Attention à ne pas confondre les différents types de courbes MTF. C'est une jungle dans laquelle on se perd facilement. Je me permet de faire cette précision car je ne voudrais pas qu'il y ait une confusion entre les courbes que j'ai publié et les courbes publiées par les fabricants d'objectif.
- Celle que j'ai tracée et qui mesure la combinaison objectif+capteur+traitement donne la MTF en fonction de la fréquence spatiale. Cette mesure se fait à un endroit de la photo, selon une direction.
- Celle qui est donnée par les constructions d'objectifs ne mesure que l'objectif. En ordonnée, il y a la MTF et en abscisse, il y a la position sur l'image, du centre, vers l'angle. Ces mesures sont faites à une fréquence donnée (par exemple 10 cycles/mm, 20 cycles/mm ou 40 cycles/mm ce qui correspond respectivement sur un D800 à 0.05 cycles/pixel, 0.10 cycles/pixel et 0.19 cycles/pixel). En général, il y a une courbe pour les détails dans une direction vers l'extérieur de l'image et une courbe pour les détails dans une direction perpendiculaire à cette dernière. Malheureusement, les fabricants les publient presque tous uniquement pour la meilleure ouverture, et ce ne sont pas des courbes mesurées mais théoriques. Seul Zeiss semble faire cela correctement en publiant plusieurs ouvertures et en publiant des courbes mesurées.
Entre ces différentes courbes, et toutes les unités dans lesquels mêmes les testeurs semblent s'emmêler les pinceaux, il y a effectivement de quoi perdre son latin.
Je n'ai pas fait de confusion sur tes courbes et les nombreuses autres types (versions) qui sont publiées par les fabricants d'optiques. Pas de problème sur ce point. c'est en effet bien plus compliqué avec les unités utilisées pour exprimer les fréquences spatiales, et j'essaye d'être vigilant et dans la mesure du possible, je traduis bien souvent en c/mm, unité qui me semble la plus parlante ( elle est sans ambiguïté..), c'est en effet un peu la jungle
Mais il est possible que dans mes propos, j'ai laissé planer le doute. A chaque foi que j'avais un doute, je t'ai demandé des précisions ( tu as répondu ;)) pour être sur de bien comprendre et interpréter les mesures et calculs.
Je suis également d'accord que les fabricants publient des courbes qui les arrangent et qu'en effet Zeiss dénote par sa transparence dans ces publications. Zeiss le souligne également dans How to read MTF curves (de H. H. Nasse). il faut espérer que les fabricants d'optiques s'aligneront sur les publications de Zeiss.
Le jour ou Zeiss proposera à la vente des optiques avec la gestion de l'autofocus pour Nikon, Canon, Sony, Pentax... comme le font Sigma, Tamron et quelques autres, je pense que cela changera les us et coutumes, la concurrence ne peut être que bénéfique.
Merci de ta réponse. Je ne voulais pas mal me faire comprendre.
C'est tellement le bazard ces unités, que je me demande si les constructeurs eux-meme ne s'y trompent pas. Sur le site de Nikon, on peut voir de courbes avec des fréquences en lignes par mm. Vu les "chiffres" donnés, je pense que ce sont plutôt des paires de lignes par mm. Zeiss utilise l'expression cycle (= paire de ligne) qui est beaucoup plus claire.
Photozone semble mesurer des MTF50 proches de la fréquence de Nyquist, ce qui fait bondir JMS. Je pense qu'il y a un problème sur leur unité de "LW/PH" (lignes par hauteur d'image). J'imagine que la hauteur d'image est la hauteur de l'image en mode paysage et non en mode vertical, mais ils utilisent peut-etre une autre convention. Cela les éloigneraient de la fréquence de Nyquist pour redescendre à 0.3 cycles/pixel ce qui est faisable avec un peu d'accentuation.
Selon le site de DxO (http://www.dxomark.com/index.php/About/In-depth-measurements/Measurements/Sharpness (http://www.dxomark.com/index.php/About/In-depth-measurements/Measurements/Sharpness)), dans "What is sharpness ?", il font :
The DxOMark score for Sharpness is based on the Perceptual Megapixel (P-Mpix) concept that weights the Modulation Transfer Function (MTF) of the lens with the human visual acuity. Read more about Perceptual Megapixels.
Donc, ils font exactement ce que les gens qui définissent la SQF font. Comme toujours, le site d'Imatest qui est aussi capable de mesurer la SQF, est beaucoup plus clair : http://www.imatest.com/docs/sqf (http://www.imatest.com/docs/sqf).
Citation de: sylvatica le Mai 09, 2013, 21:16:27
Merci de ta réponse. Je ne voulais pas mal me faire comprendre.
De rien. J'apprécie nos échanges et tu as raison de lever toute ambiguité.
Citation de: sylvatica le Mai 09, 2013, 21:16:27
C'est tellement le bazard ces unités, que je me demande si les constructeurs eux-meme ne s'y trompent pas. Sur le site de Nikon, on peut voir de courbes avec des fréquences en lignes par mm. Vu les "chiffres" donnés, je pense que ce sont plutôt des paires de lignes par mm. Zeiss utilise l'expression cycle (= paire de ligne) qui est beaucoup plus claire.
Photozone semble mesurer des MTF50 proches de la fréquence de Nyquist, ce qui fait bondir JMS. Je pense qu'il y a un problème sur leur unité de "LW/PH" (lignes par hauteur d'image). J'imagine que la hauteur d'image est la hauteur de l'image en mode paysage et non en mode vertical, mais ils utilisent peut-etre une autre convention. Cela les éloigneraient de la fréquence de Nyquist pour redescendre à 0.3 cycles/pixel ce qui est faisable avec un peu d'accentuation.
Les unités et les conditions des mesures sont les premières éléments que que j'essaye de trouver avant de regarder dans le détail les tests et en tirer des conclusions.
Citation de: sylvatica le Mai 09, 2013, 21:27:57
Selon le site de DxO (http://www.dxomark.com/index.php/About/In-depth-measurements/Measurements/Sharpness (http://www.dxomark.com/index.php/About/In-depth-measurements/Measurements/Sharpness)), dans "What is sharpness ?", il font :
The DxOMark score for Sharpness is based on the Perceptual Megapixel (P-Mpix) concept that weights the Modulation Transfer Function (MTF) of the lens with the human visual acuity. Read more about Perceptual Megapixels.
Donc, ils font exactement ce que les gens qui définissent la SQF font. Comme toujours, le site d'Imatest qui est aussi capable de mesurer la SQF, est beaucoup plus clair : http://www.imatest.com/docs/sqf (http://www.imatest.com/docs/sqf).
Depuis que Dxo a "traduit" ses résultats en P-Mpix, je regarde pas souvent leurs publications, d'autant plus comme tu l''as souligné, le résultat est certainement donné pour l'ouverture la plus favorable.
Pour Imatest, la démarche globale me semble bonne, sous réserve d'une bonne utilisation (toujours les conditions de mesures...), presque abordable pour un amateur, je regarderais dans le détail, d'autant plus qu'il effectue également des calculs sur la colorimétrie, domaine qui m'intéresse également.
En découvrant toutes les "métriques" pour mesurer a "qualité" d'une courbe MTF en fonction de la fréquence (MTF50, BxU, SQF, ...), il semblerait que celle qui soit la plus intelligente soit bien cette SQF.
J'imagine maintenant que c'est celle utilisée par JMS dans ses bouquins, mais je n'en suis pas sur. Imatest est aussi capable de la mesurer. Bref, ces logiciels semblent faire le même chose au final :).
A noter que DPreview utilise DxO pour ses tests d'objectifs, et qu'ils ont choisi de mesurer la MTF50. Peut-etre que quand le fondateur d'Imatest aura compris ce qu'est le BxU, il sera implémenté dans Imatest. Pour l'instant, il a encore du mal à comprendre comme on peut le voir sur cette page : http://www.imatest.com/docs/blur_mtf (http://www.imatest.com/docs/blur_mtf). Le plus drôle est qu'il a essayé de comprendre cela à partir de plusieurs sources dont une page de JMS, mais il me semble qu'il n'a jamais pu mettre la main sur l'article "The uniqueness of Blur measure" qui est de toute façon un article de matheux et non un article d'ingénieur. Cela explique surement pourquoi que le BxU est très mal compris; étant matheux, il a quand même fallu un peu de temps avant que je le comprenne bien, et il est à mon avis illisible par la majorité des personnes qui font des tests optiques.
Citation de: sylvatica le Mai 08, 2013, 07:43:17
Il est intéressant de voir qu'on est toujours à un MTF50 de 0.35 cycles/pixel (0.345 avec mon logiciel et 0.352 avec quickmtf) alors que l'accentuation est insupportable. Lorsque photozone mesure sur un D3X des LW/PH proches de 4000 alors que le capteur D3X a une hauteur en pixels d'a peu près 4000, on est a des MTF50 proche de 0.5 cycles/pixel. C'est tout simplement impossible. Il y a forcement quelque chose qui cloche quelque part et je soupçonne un problème de conversion d'unité.
Oui l'unité utilisée par Photozone est pour le moins particulière, je trouve pour un D3x avec 3500 lw/ Ph je trouve environ 73 c/mm ce qui dépasse la Freq. de Nyquist...
Pour 4000 lw/Ph cela donne 83 c/mm !
Citation de: sylvatica le Mai 09, 2013, 22:39:51
J'imagine maintenant que c'est celle utilisée par JMS dans ses bouquins, mais je n'en suis pas sur. Imatest est aussi capable de la mesurer. Bref, ces logiciels semblent faire le même chose au final :).
J'ai compris que JMS utilisait uniquement DxO Mark ( donc pas de MTF) et qu'a partir des résultats de BxU, il faisait un "redressement" (comme indiqué dans l'ebook du D800) pour quantifier la netteté apparente du système entre 2 et 5, avec une saturation à 5 si dépassement.
Pour SLRgear, sur les courbes 3D présentées, l'unité de BxU va de 0 à 12, tu connais "l'équivalence"?
Citation de: MBe le Mai 09, 2013, 23:47:05
Oui l'unité utilisée par Photozone est pour le moins particulière, je trouve pour un D3x avec 3500 lw/ Ph je trouve environ 73 c/mm ce qui dépasse la Freq. de Nyquist...
Pour 4000 lw/Ph cela donne 83 c/mm !
Je viens de me ballader sur Photozone et leurs tests, mais dans la page Canon. Sur cette page (http://www.photozone.de/canon_eos_ff/516-canon35f14ff?start=1 (http://www.photozone.de/canon_eos_ff/516-canon35f14ff?start=1)), on peut lire :
Some keen users may note that the LW/PH figures exceed the resolution of the sensor and as such Nyquist - see this document (bottom) for more details about the procedure if you'd like to dive into this. Imatest can look a bit beyond the sensor resolution by taking some additional parameters into account.Donc, ils semblent persister et signer ! Ils font référence, à la page d'Imatest suivante : http://www.imatest.com/docs/sharpness (http://www.imatest.com/docs/sharpness). Sur cette page, je ne vois aucun MTF50 au dessus de la fréquence de Nyquist. Par contre, on peut voir une courbe MTF qui "rebondit" après Nyquist pour remonter aux environs de 0.30. Cette courbe monte même vers le haut pour les basses fréquences (ce qui signifie un BxU négatif). C'est le cas typique d'une image suraccentuée. Je commence à douter très sérieusement de leur compétence à utiliser un logiciel scientifique. Mon hypothèse reste quand même qu'ils se sont mis dedans lors des conversions d'unités.
Citation de: MBe le Mai 09, 2013, 23:59:08
J'ai compris que JMS utilisait uniquement DxO Mark ( donc pas de MTF) et qu'a partir des résultats de BxU, il faisait un "redressement" (comme indiqué dans l'ebook du D800) pour quantifier la netteté apparente du système entre 2 et 5, avec une saturation à 5 si dépassement.
Pour SLRgear, sur les courbes 3D présentées, l'unité de BxU va de 0 à 12, tu connais "l'équivalence"?
DxO Mark mesure la MTF comme tout le monde. Ils proposent ensuite de calculer plusieurs métriques à partir de cette MTF : BxU, MTF50, SQF, etc... Bien sur ils ont leur propre nom, mais c'est à priori la même chose. Pour la SQF, il y a une fonction "poids" qui dépend de ce qu'on veut faire et j'imagine que DxO a optimisé la sienne en fonction de la taille du tirage. Mais tout cela reste des hypothèses.
Imatest fait la même chose. Il semble cependant qu'il y a pas mal d'incompétents qui utilisent Imatest et qui suraccentuent à mort les images qu'ils envoient au logiciel. Le site d'Imatest montre même pas mal de courbes qui correspondent a des images suraccentuées. J'ai entendu dire que DxO a beaucoup plus de gardes fous et refuse de travailler sur de telles images. Peut-etre qu'ils ont aussi une politique différente ou ils forment les gens a qui ils vendent leur logiciel. C'est tout à fait possible.
Il n'y a aucune formule qui permet de passer d'une de ces métriques à l'autre. Ce sont toutes des simplifications de la MTF. C'est uniquement dans l'hypothèse d'une MTF gaussienne (ou d'un autre modèle) qu'on peut trouver une formule qui passe d'une métrique à l'autre. Comme on a vu sur mes tests, une image peu accentuée est "gaussienne" pour les basses fréquences. Ensuite, il y a des variations plus ou moins grandes.
Dans le cas d'une MTF gaussienne, le BxU vérifie (selon mes calculs)
BxU = (2 Ln[2]/pi^2) (1 / (2 MTF50))^2
si on exprime la MTF50 en cycles/pixel. Tu peux par exemple essayer cela sur les résultats publiés plus haut. Il y aura une différence due au fait que les MTF ne sont pas "gaussiennes" comme on a vu sur les courbes plus haut.
Au passage, un capteur Foveon produit des images qui ne s'écrasent pas à la fréquence de Nyquist comme on peut le voir ici : http://www.foveon.com/files/FrequencyResponse.pdf (http://www.foveon.com/files/FrequencyResponse.pdf).
Cette écrasement à la fréquence de Nyquist existe aussi sur le D800E qui n'a pas de filtre anti-aliasing. Il est donc tout à fait possible comme je l'avais suggéré que la matrice de Bayer soit responsable de cet écrasement.
Ohhh. J'ai trouvé un très gros Loup, chez Imatest. La MTF est normalement définie par :
MTF(u) = module( Integrale(PSF(x) Exp[i 2 pi x u] dx, x = -infini .. +infini ) )
A partir de cela, on montre que MTF(-u) = MTF(u), ce qui explique pourquoi on ne trace les courbes MTF que pour u >= 0. Mais comme MTF(0) = 1 > 0 et que MTF est paire, on en déduit que MTF est une fonction dérivable en 0 et que sa dérivée est nulle. C'est d'ailleurs la raison pour laquelle le BxU est défini à partir de la dérivée seconde !
Or le site d'Imatest est bourré de courbes MTF qui ne sont pas plates à l'origine, contrairement aux courbes MTF que j'ai générées avec mon logiciel et contrairement aux courbes générées par QuickMTF. Ma conclusion est donc qu'Imatest est une grosse escroquerie. :o
En réfléchissant, je me demande si il n'y a pas un problème sur la définition de la MTF. Tout cela est très troublant.
Citation de: sylvatica le Mai 10, 2013, 00:50:09
Au passage, un capteur Foveon produit des images qui ne s'écrasent pas à la fréquence de Nyquist comme on peut le voir ici : http://www.foveon.com/files/FrequencyResponse.pdf (http://www.foveon.com/files/FrequencyResponse.pdf).
Je vais regarder, je me suis déjà intéressé à ce capteur, plutôt novateur et et plein de bonnes idées. son problème majeur est l'augmentation du niveau de bruit dès que l'on augment le gain ( hauts iso).
Citation de: sylvatica le Mai 10, 2013, 00:50:09
Cette écrasement à la fréquence de Nyquist existe aussi sur le D800E qui n'a pas de filtre anti-aliasing. Il est donc tout à fait possible comme je l'avais suggéré que la matrice de Bayer soit responsable de cet écrasement.
Possible que cet écrasement provienne du traitement de la matrice de Bayer, mais il est possible aussi que Nikon est mis un filtre numérique, même sur les données en raw (Nef) ?
Citation de: sylvatica le Mai 10, 2013, 01:26:47
Ohhh. J'ai trouvé un très gros Loup, chez Imatest. La MTF est normalement définie par :
MTF(u) = module( Integrale(PSF(x) Exp[i 2 pi x u] dx, x = -infini .. +infini ) )
A partir de cela, on montre que MTF(-u) = MTF(u), ce qui explique pourquoi on ne trace les courbes MTF que pour u >= 0. Mais comme MTF(0) = 1 > 0 et que MTF est paire, on en déduit que MTF est une fonction dérivable en 0 et que sa dérivée est nulle. C'est d'ailleurs la raison pour laquelle le BxU est défini à partir de la dérivée seconde !
Or le site d'Imatest est bourré de courbes MTF qui ne sont pas plates à l'origine, contrairement aux courbes MTF que j'ai générées avec mon logiciel et contrairement aux courbes générées par QuickMTF. Ma conclusion est donc qu'Imatest est une grosse escroquerie. :o
Surprenant en effet (je suis d'accord avec ton raisonnement), maintenant il faut comprendre le pourquoi de la supercherie.
j'ai regardé aussi la définition des unités sur le site d'Imatest, c'est pas toujours clair et cela manque de rigueur scientifique, c'est vraiment dommage!
Si, cette tromperie se confirme, tu vas faire plaisir à JMS, qui je crois n'apprécie pas trop Imatest.
Autre Aspect : Je pense que les utilisateurs licenciés Dx0 Mark ( JMS, CI, ....) sont certainement tenus à la confidentialité et reçoivent également des formations pour l'utilisation de ce logiciel. Cela ne me surprend pas, ni ne me choque, c'est très courant dans le monde professionnel et très compréhensif.
Par contre que le site de Dxo soit aussi flou sur le sujet, ne permet pas aux "spectateurs" et aux scientifiques intéressés de ce faire un avis factuel.
Citation de: sylvatica le Mai 10, 2013, 00:17:31
DxO Mark mesure la MTF comme tout le monde. Ils proposent ensuite de calculer plusieurs métriques à partir de cette MTF : BxU, MTF50, SQF, etc... Bien sur ils ont leur propre nom, mais c'est à priori la même chose. Pour la SQF, il y a une fonction "poids" qui dépend de ce qu'on veut faire et j'imagine que DxO a optimisé la sienne en fonction de la taille du tirage. Mais tout cela reste des hypothèses.
Ce que je voulais dire, c'est que je ne sais pas si DxO Mark met à disposition de l'utilisateur la MTF (?) peut être seulement le BXU, le P-Mpixel (?).
MBe,
DxO Analyzer est capable de tracer les courbes MTF dans deux directions orthogonales (je crois qu'ils regardent cela en horizontal et en vertical).
En fait, le problème essentiel semble lié au fait que la MTF d'un capteur est quelque chose de très difficile à définir. En effet, le passage du continu (image réelle) au discret (image numérique) fait qu'on ne peut plus vraiment parler de MTF. Il y semble y avoir différentes approches pour contourner ce problème. Je le suis amusé à théoriser un peu cela, et à calculer ensuite la "MTF" d'un capteur monodimensionnel, monochrome, idéal. Avec cette théorie, on trouve une MTF de Sinc[pi u]^3. J'ai vu des bouquins qui semblaient passer totalement au travers de ce problème et qui balancaient la formule Sinc[pi u]. Du coup, je ne sais pas bien ce qu'ils font.
Ce qui est clair est que le pogramme de MTF que j'ai écrit donne une MTF de Sinc[pi u]^3 pour un tel capteur.
Cette subtilité semble compliquer très fortement la manipulation de ces courbes MTF. Il faut par exemple être très prudent avant de les multiplier. Je me demande si la majorité ne se met pas dedans en faisant ce genre d'erreur. Ce dont je suis sur, c'est que le directeur scientifique de DxO est assez compétent pour ne pas faire ce genre d'erreur. Comme je n'ai plus de contacts avec lui, je ne peux pas lui demander. J'ai quelques connaissances qui font de la recherche en astronomie, je vais essayer de les contacter pour mieux comprendre ce qui se passe ici.
Concernant le fait que cette dérivé de la MTF doit être nulle à l'origine, d'un point de vue théorique, il est possible que ce ne soit pas toujours le cas, notamment lorsque la Point Spread Function ne tend pas assez rapidement vers 0 à l'infini, ce qui peut entrainer la non dérivabilité de la MTF à l'origine. Mais j'ai du mal à comprendre comment c'est possible en pratique. Bref, je suis dans le flou...
Citation de: sylvatica le Mai 10, 2013, 17:54:19
DxO Analyzer est capable de tracer les courbes MTF dans deux directions orthogonales (je crois qu'ils regardent cela en horizontal et en vertical).
Je savais pas et j'ai un peu cherché sur leur site.
j'ai trouvé cela : http://www.dxomark.com/index.php/About/In-depth-measurements/DxOMark-testing-protocols/MTF (http://www.dxomark.com/index.php/About/In-depth-measurements/DxOMark-testing-protocols/MTF)
Avec des cercles noir sur fond blanc (" mire BxU"), il est peut être possible de calculer une PSF et une MTF, mais cela ne doit pas être très simple. Avec la mire de type damier incliné à 5°(comme le lien le montre), on revient sur ma méthode slanted edge.
c'est pourquoi je disais que les utilisateurs de DxO Mark et BxU, je ne pensais pas qu'ils accédaient à des résultats de MTF, maintenant je me trompe peut être(?).
Citation de: sylvatica le Mai 10, 2013, 17:54:19
En fait, le problème essentiel semble lié au fait que la MTF d'un capteur est quelque chose de très difficile à définir. En effet, le passage du continu (image réelle) au discret (image numérique) fait qu'on ne peut plus vraiment parler de MTF. Il y semble y avoir différentes approches pour contourner ce problème. Je le suis amusé à théoriser un peu cela, et à calculer ensuite la "MTF" d'un capteur monodimensionnel, monochrome, idéal. Avec cette théorie, on trouve une MTF de Sinc[pi u]^3. J'ai vu des bouquins qui semblaient passer totalement au travers de ce problème et qui balancaient la formule Sinc[pi u]. Du coup, je ne sais pas bien ce qu'ils font.
Ce qui est clair est que le pogramme de MTF que j'ai écrit donne une MTF de Sinc[pi u]^3 pour un tel capteur.
Cette subtilité semble compliquer très fortement la manipulation de ces courbes MTF. Il faut par exemple être très prudent avant de les multiplier. Je me demande si la majorité ne se met pas dedans en faisant ce genre d'erreur. Ce dont je suis sur, c'est que le directeur scientifique de DxO est assez compétent pour ne pas faire ce genre d'erreur. Comme je n'ai plus de contacts avec lui, je ne peux pas lui demander. J'ai quelques connaissances qui font de la recherche en astronomie, je vais essayer de les contacter pour mieux comprendre ce qui se passe ici.
Concernant le fait que cette dérivé de la MTF doit être nulle à l'origine, d'un point de vue théorique, il est possible que ce ne soit pas toujours le cas, notamment lorsque la Point Spread Function ne tend pas assez rapidement vers 0 à l'infini, ce qui peut entrainer la non dérivabilité de la MTF à l'origine. Mais j'ai du mal à comprendre comment c'est possible en pratique. Bref, je suis dans le flou...
Oui le vrai problème est bien de passer du continu vers la discrétisation, et ton hypothèse "d'un capteur monodimensionnel, monochrome, idéal" mes semble correct. de toute façon, l'espace entre 2 photosites (en vertical ou horizontal) est "négligeable" devant la taille du photosite.
L'unité c/pixel considère des photosites carrés qui sont côtes à côtes.
Sylvatica,
il est également possible de faire l'analogie entre les grains d'argent déposés sur un film et les photosites ( je n'ai pas "sous la main" la taille ou les taille (car ils n'étaient par forcément tous identiques) des grains d'argent à comparer aux photosites), même si le dépôt de ces grains d'argents étaient également aléatoire. il faut donc faire simple au début et complexifier pas à pas.
D'autre part avec la méthode slanted edge, quand tu photographies ton barreau incliné à 5°, tu vas "illuminer" des milliers de photosites avec ce front, ton jpeg ou tiff en sera le résultat. la discretisation sur quelques photosites ne devient elle pas négligeable par rapport à ta mire ?
Au passage, merci à SurSon, MBe, Verso92, Madko, Chelmimage de tout ces messages qui sont toujours très agréables.
Sinon, j'en reviens à mon mystère de courbe MTF dont la dérivée n'est pas nulle en 0, que l'on voit sur les captures d'écran d'Imatest, de QuickMTF et beaucoup de publications. J'ai retourné le truc dans tous les sens, et à part les courbes théoriques de diffraction, je ne vois vraiment pas comment une courbe MTF mesurée par un logiciel peut ne pas être plate à l'origine. J'en ai d'ailleurs fait une "preuve" plus haut.
J'ai donc pris une de mes images dont j'ai généré la courbe MTF avec mon logiciel et QuickMTF. J'ai superposé ma courbe (en brun) avec les graphes de QuickMTF. La courbe que j'ai tracé doit correspondre à la courbe noire de QuickMTF. Les courbes sont globalement les mêmes et donnent des MTF50 proches (0.229 cycles/pixel pour la mienne et 0.225 pour QuickMTF). Cependant, on voit deux différences :
- Ma courbe est beaucoup plus lisse. Elle ne présente pas cet effet toboggan.
- Elle s'aplatit au voisinage de 0, contrairement à la courbe de QuickMTF.
En regardant un peu plus haut dans ce fil, vous verrez que mes premières courbes étaient "en toboggan", et une petit touche personnelle (ce n'est pas un lissage pipeau mais bel et bien un meilleur algo de calcul) me permet d'avoir ces courbes qui sont de bien meilleure qualité.
Ma conclusion est que l'algo "officiel" du calcul de MTF par la méthode de "slanted edge" (ISO 12233), n'est pas fantastique. Je pense avoir fait quelque chose de mieux. Vous remarquerez au passage que cela ne change pas beaucoup la MTF50, donc je me suis un peu emporté sur Imatest, mais cela ne fait vraiment pas "sérieux". Je commence à comprendre pourquoi Imatest ne comprend rien au BxU : leurs courbes ne sont pas bonnes au voisinage de 0, et ils ne peuvent surement pas comprendre cette subtilité de calcul de "dérivée seconde" à l'origine.
Au final, j'ai bien l'impression que mon programme est bon. Je vais pouvoir enfin faire des essais "pratiques" avec une barre oblique pour le calcul de MTF et une image très détaillée à côté. On verra bien ce qui se voit sur les courbes MTF et ce qui ne se voit pas.
Au passage, voici les différences de MTF50 entre mon logiciel et QuickMTF, sur ma série de photos :
f4 - SylvaticaMTF 0.2287 cycles/pixel - QuickMTF 0.225 cycles/pixel
f5.6 - SylvaticaMTF 0.2163 cycles/pixel - QuickMTF 0.220 cycles/pixel
f8 - SylvaticaMTF 0.1830 cycles/pixel - QuickMTF 0.185 cycles/pixel
f16 - SylvaticaMTF 0.167 cycles/pixel - QuickMTF 0.167 cycles/pixel
f32 - SylvaticaMTF 0.093 cycles/pixel - QuickMTF 0.095 cycles/pixel
C'est assez proche.
Citation de: sylvatica le Mai 11, 2013, 03:42:39
Au passage, merci à SurSon, MBe, Verso92, Madko, Chelmimage de tout ces messages qui sont toujours très agréables.
Sinon, j'en reviens à mon mystère de courbe MTF dont la dérivée n'est pas nulle en 0, que l'on voit sur les captures d'écran d'Imatest, de QuickMTF et beaucoup de publications. J'ai retourné le truc dans tous les sens, et à part les courbes théoriques de diffraction, je ne vois vraiment pas comment une courbe MTF mesurée par un logiciel peut ne pas être plate à l'origine. J'en ai d'ailleurs fait une "preuve" plus haut.
J'ai donc pris une de mes images dont j'ai généré la courbe MTF avec mon logiciel et QuickMTF. J'ai superposé ma courbe (en brun) avec les graphes de QuickMTF. La courbe que j'ai tracé doit correspondre à la courbe noire de QuickMTF. Les courbes sont globalement les mêmes et donnent des MTF50 proches (0.229 cycles/pixel pour la mienne et 0.225 pour QuickMTF). Cependant, on voit deux différences :
- Ma courbe est beaucoup plus lisse. Elle ne présente pas cet effet toboggan.
- Elle s'aplatit au voisinage de 0, contrairement à la courbe de QuickMTF.
En regardant un peu plus haut dans ce fil, vous verrez que mes premières courbes étaient "en toboggan", et une petit touche personnelle (ce n'est pas un lissage pipeau mais bel et bien un meilleur algo de calcul) me permet d'avoir ces courbes qui sont de bien meilleure qualité.
Ma conclusion est que l'algo "officiel" du calcul de MTF par la méthode de "slanted edge" (ISO 12233), n'est pas fantastique. Je pense avoir fait quelque chose de mieux. Vous remarquerez au passage que cela ne change pas beaucoup la MTF50, donc je me suis un peu emporté sur Imatest, mais cela ne fait vraiment pas "sérieux". Je commence à comprendre pourquoi Imatest ne comprend rien au BxU : leurs courbes ne sont pas bonnes au voisinage de 0, et ils ne peuvent surement pas comprendre cette subtilité de calcul de "dérivée seconde" à l'origine.
Au final, j'ai bien l'impression que mon programme est bon. Je vais pouvoir enfin faire des essais "pratiques" avec une barre oblique pour le calcul de MTF et une image très détaillée à côté. On verra bien ce qui se voit sur les courbes MTF et ce qui ne se voit pas.
Imatest dans sa documentation indique pour la dérivée première à fréq(0) :
The derivative (d/dx) of the averaged 4x oversampled edge is calculated. A windowing function is applied to force
the derivative to zero at its limits.
Hier au soir j'ai fait des recherches sur la méthode employée pour faire le calcul de MTF, elle est décrite dans les normes ISO 12233:2000 et 14524 et sont malheureusement payantes comme beaucoup de normes. Il n'est pas impossible qu'il y ait une approximation qui soit faite au voisinage de Freq (0) ?
La doc d'Imatest n'est pas très facile à lire car les informations sont éparpillées un peu partout dans les 451 pages, j'ai l'impression qu'elle a été écrite au" fil de l'eau".
Tes résultats et la forme de tes courbes me semblent pertinents, la précision aussi bonne que celle des autres logiciels (Imatest, Quick MTF), donc en effet l'exploitation est possible.
Pour en revenir à la discrétisation, je suis convaincu que la méthode slanted edge a été adoptée par rapport à d'autres ( LSF, PSF...) car elle permet de "lisser" le design des capteurs et de considérer que l'on est en face d'un capteur "continu".
Pour la mire de Dxo Mark ( cercles noirs sur fond blanc) il est quasi certain que le diamètre de ces cercles et de la distance de prise de vue à son importance pour le calcul du Bxu, afin, là aussi de s'affranchir des problèmes de discrétisation.
Citation de: sylvatica le Mai 11, 2013, 03:42:39
Au final, j'ai bien l'impression que mon programme est bon. Je vais pouvoir enfin faire des essais "pratiques" avec une barre oblique pour le calcul de MTF et une image très détaillée à côté. On verra bien ce qui se voit sur les courbes MTF et ce qui ne se voit pas.
Je ne pense pas qu'il soit possible avec des courbes de MTF de quantifier et de voir toutes les qualités / défauts d'un système d'images, mais il y a beaucoup d'informations, qui, si elles ne sont pas suffisantes,elles permettent de discriminer correctement et de façon répétable des systèmes.
Voici donc une série de photos prises avec à côté : MTF50 - BxU - Courbe MTF en entier.
J'ai donc fait une série d'ouvertures avec un D800 et un 35mm f1.4. J'ai mis côte à côte un visage bien connu (Il est malheureusement illégal de faire la même chose avec les visages européens) et un carré incliné pour être analysé par mon programme. Les deux étaient très prêt du centre, et il est donc raisonnable de supposer qu'il n'y a aucun astigmatisme ici. Tout à été fait sur pied, mirroir relevé, déclencheur souple, mise au point en Live-View, ISO 100. Le développement a été fait avec Capture NX, Balance des blancs faite à la main, Accentuation 1, Aberration chromatique latérale automatique et aberration chromatique longitudinale à 50. Tout le reste est à 0.
Voici donc la liste des crops 100%, avec en dessous : l'ouverture, la MTF50 en cycles/pixel, le BxU. Chaque série de crops sera suivi des courbes MTF en entier (J'ai limité la courbe à 0.5 cy/p, de toute façon, après c'est presque nul). Les couleurs vous permettront de savoir à quelles photos cela correspond.
.
En ordonnée, la MTF et en abscisse, la fréquence en cycles par pixel. Ces courbes correspondent aux images du post au dessus.
.
En ordonnée, la MTF et en abscisse, la fréquence en cycles par pixel. Ces courbes correspondent aux images du post au dessus.
.
En ordonnée, la MTF et en abscisse, la fréquence en cycles par pixel. Ces courbes correspondent aux images du post au dessus.
La compression nécessaire pour CI étant trop forte, j'ai mis les fichiers moins compressés ici.
https://www.dropbox.com/s/2sdpgr997cn2qpl/washington-1.jpg (https://www.dropbox.com/s/2sdpgr997cn2qpl/washington-1.jpg)
https://www.dropbox.com/s/xawhcprcap2zyy7/washington-2.jpg (https://www.dropbox.com/s/xawhcprcap2zyy7/washington-2.jpg)
https://www.dropbox.com/s/5cpkjzx9to9tkra/washington-3.jpg (https://www.dropbox.com/s/5cpkjzx9to9tkra/washington-3.jpg)
Et voici mes remarques :
- Le moiré est évident sur le fond, aux focales f2.8, f4, f5.6 et f8. Cela prouve que le D800 est bien assez grand pour faire du moiré, et qu'il est possible de faire du moiré avec des MTF50 bien en dessous de la fréquence de Nyquist.
- On voit bien qu'entre 0 et la MTF50, sur toutes les courbes, la MTF ressemble très fortement à une gaussienne. On est donc dans des conditions ou il est inutile de se battre entre MTF50 et BxU. Ce sont des "unités" différentes, mais ils mesurent bel et bien la même chose.
- MTF50 et BxU sont capables de faire des différences extrêmement subtiles entre les optiques. Regardez par exemple la série f4, f5.6, f8 ou le BxU augmente entre 0.57 et 0.93. En s'arrachant les yeux, on voit quelque chose entre f5.6 et f8 (J'ai un petit avantage car j'ai les deux fichiers et je peux passer de l'un à l'autre), mais je n'arrive rien à voir entre f4 et f5.6.
J'ai failli passer à côté de ce bijou.
Regardez bien les deux photos suivantes. L'une est faite à f2, l'autre à f11. Je préfère largement la seconde. Seulement le BxU donne "gagnant" la première alors que la MTF50 donne gagnant la seconde.
On voit bien sur ce graphe de MTF que la courbe verte (f11) est très légèrement en dessous de la courbe rouge (f2) au tout début de la courbe, ce qui explique que le BxU donne gagnant la photo prise à f2. Seulement, entre 0.15 cycles/p et 0.35 cycles/p, c'est la courbe verte (f11) qui est largement au dessus de la courbe rouge (f2), ce qui explique pourquoi l'image parait plus nette.
Cela prouve bien que le BxU, même si il est mathématiquement très agréable, n'est pas meilleur que la MTF50 pour juger de la sensation de netteté.
Je commence à comprendre pourquoi DxO utilise maintenant la SQF (Subjective Quality Factor), car même si ils ne prononcent pas la nom (ce n'est pas le genre de le maison de dire que le truc le plus intelligent sur la sensation de netteté à été fait chez Kodak et non chez DxO), c'est bien cela : The DxOMark score for Sharpness is based on the Perceptual Megapixel (P-Mpix) concept that weights the Modulation Transfer Function (MTF) of the lens with the human visual acuity. Read more about Perceptual Megapixels.
Voici une explication de la SQF : http://www.imatest.com/docs/sqf (http://www.imatest.com/docs/sqf)
Sur la page, d'Imatest, on voit d'ailleurs que la SQF a été dévelopée pour Popular Photography. On voit même un lien entre la SQF et une note de qualité : Poor - Fair - Good - Very Good - Excellent.
En français, ça fait : Faible - Moyen - Bon - Très bon - Excellent. Ca vous rappelle quelque chose ? ;D Par contre, il semble que les notes de JMS ne se fassent pas avec le SQF, mais uniquement avec le BxU calculé sur les fichiers redimensionnés avant passage dans DxO.
Félicitations et remerciements.
Si je puis permettre de résumer pour les non ou anciens matheux avec un côté bassement utilitaire:
-DXO fournit des mesures de sharpness avec leur BXu équivalentes et justes du point de vue math à la Mtf.
-Kodak et d'autres avec une vision plus photographique ont introduit il y a longtemps une grandeur plus "photographique"la SQF ou accutance qui intégre certains facteurs reproductibles et mesurables de la perception humaine puisque finalement c'est le filtre humain qui est le juge. C'est donc la SQF qui est in fine essentielle pour le photographe. BXU et Mtf sont plus intellectuellement confortables par leur caractères exact donc incontestables.
Ma conclusion ( que vous pouvez amender):
-la SQf reste toutefois incomplète comme mesure "globale" car si elle intègre la distance de vue, l'acuité visuelle, elle ne traite pas les autre paramètres de la vision de la vraie vie; sensibilité au micro contrastes en fonction de la longueur d'onde, au traitement des angles d'incidence qui participent à la notion de nétteté etc.
-On n'a toujours pas trouvé comment calculer/définir la différence bien perceptible de rendu, ou du fameux "modelè" qui fait qu'à deux Bxu équivalents on préfère un objectif à un autre ou une marque à une autre.
-Il reste donc du travail à Jms pour nous décrire un rendu plus photographique qui est celui qu'on recherche. Mais là il faut constituer un groupe représentatif d'Yeux, pas seulement ceux de Jms ! ;)
-Il reste du travail théorique pour modéliser tout çà... A vos crayons et ordinateurs.
Merci d'avance :) :)
Citation de: restoc le Mai 12, 2013, 07:12:21
Félicitations et remerciements.
Merci.
Citation de: restoc le Mai 12, 2013, 07:12:21
-DXO fournit des mesures de sharpness avec leur BXu équivalentes et justes du point de vue math à la Mtf.
DxO semble mettre le BxU à la retraite. Je ne trouve plus aucune référence au BxU sur leur site. Ils semblent donc désormais utiliser la SQF, surement parce qu'ils se sont rendu compte que c'était mieux.
- Sur leur site "The DxOMark score for Sharpness is based on the Perceptual Megapixel (P-Mpix) concept that weights the Modulation Transfer Function (MTF) of the lens with the human visual acuity. Read more about Perceptual Megapixels.". C'est exactement la SQF, bien qu'ils ne disent pas le nom.
- Sur un papier récent publié par DxO, http://www.dxo.com/var/dxo/storage/fckeditor/File/embedded/Dead_Leaves_Model_EI2010.pdf (http://www.dxo.com/var/dxo/storage/fckeditor/File/embedded/Dead_Leaves_Model_EI2010.pdf), ils font référence à la SQF dans la partie 5.1. Au passage, ils prennent la même fonction de poids que sur le site d'Imatest.
Bon çà nous simplifiera la vie: plus que Mtf 50 et SQF/P-megapixels
Ps . Ai je bien lu que l'on peut avoir du moiré en dessous de Nyquist ?
Citation de: restoc le Mai 12, 2013, 07:42:26
Ps . Ai je bien lu que l'on peut avoir du moiré en dessous de Nyquist ?
On peut avoir du moiré
avec une MTF50 en dessous de Nyquist. Mais les fréquences qui font du moiré sur mes photos sont surement au dessus de Nyquist.
Citation de: restoc le Mai 12, 2013, 07:42:26
Bon çà nous simplifiera la vie: plus que Mtf 50 et SQF/P-megapixels
JMS semble toujours faire ses tests basés sur les BxU.
Concernant la surprise entre f2 et f11 sur le Nikon 35mm F1.4, j'ai regardé son livre sur le D800 et j'ai vu qu'au centre à f11, le 35mm était mieux noté qu'à f2, contrairement à ce que je vois avec mon test. J'ai ensuite recalculé les BxU avec la netteté sur 3, comme JMS le fait, et la surprise : le BxU est maintenant meilleur à f11 qu'à f2 !
Merci.
PS dans une industrie que je connais bien, on teste la résolution des systèmes objectifs/capteurs très "spéciaux" avec une autre approche que la Mtf car il faut obtenir de mesures vraies ( qualification absolue) par tranche de modulation/fréquence et pas simplement une prédiction par courbe. Le banc de mesure est une usine à gaz vu la taille des systèmes, on oublie pour nos Apn.
Félicitations Sylvatica, toutes ces mesures sont plus qu'intéressantes, elle révèlent beaucoup d'informations.
Citation de: sylvatica le Mai 12, 2013, 07:52:06
Concernant la surprise entre f2 et f11 sur le Nikon 35mm F1.4, j'ai regardé son livre sur le D800 et j'ai vu qu'au centre à f11, le 35mm était mieux noté qu'à f2, contrairement à ce que je vois avec mon test. J'ai ensuite recalculé les BxU avec la netteté sur 3, comme JMS le fait, et la surprise : le BxU est maintenant meilleur à f11 qu'à f2 !
Je ne suis pas surpris, je me demande même si les "ondulations" bien visibles sur les courbes de MTF à f:1,4, f:11, f:16 ne sont pas dues à l'accentuation de 1 ? (en réglant l'accentuation avec intensité, rayon, on modifie le la courbe de FTM pour une plage de fréquence spatiale)
Les courbes de FTM restent un excellent critère de discrimination de systèmes d'imagerie, à condition d'avoir des mesures faites avec rigueur.
Je viens de refaire des tests. En fait, l'algorithme de calcul de la MTF dépend fortement de la fenêtre de Hamming choisie. Le BxU dépend énormément de cette fenêtre. Pour la choisir, de nombreuses recettes de cuisine semblent exister dans SFRMAT, écrit par Peter Burns, l'inventeur de la méthode "slanted edge".
En choisissant "à la main" la fenêtre de Hamming, je retrouve des BxU qui sont en accord avec l'impression visuelle entre mes deux tests à f2 et f11. Il faut que je réfléchisse à un truc un peu plus intelligent pour cela.
En tout cas, la méthode "slanted edge" semble bien folklorique. Et comme disait un de mes profs de physique : "Quand on ne sait pas ce qu'on cherche, on ne sait pas ce qu'on trouve."
Citation de: sylvatica le Mai 12, 2013, 19:30:54
Je viens de refaire des tests. En fait, l'algorithme de calcul de la MTF dépend fortement de la fenêtre de Hamming choisie. Le BxU dépend énormément de cette fenêtre. Pour la choisir, de nombreuses recettes de cuisine semblent exister dans SFRMAT, écrit par Peter Burns, l'inventeur de la méthode "slanted edge".
En choisissant "à la main" la fenêtre de Hamming, je retrouve des BxU qui sont en accord avec l'impression visuelle entre mes deux tests à f2 et f11. Il faut que je réfléchisse à un truc un peu plus intelligent pour cela.
En tout cas, la méthode "slanted edge" semble bien folklorique. Et comme disait un de mes profs de physique : "Quand on ne sait pas ce qu'on cherche, on ne sait pas ce qu'on trouve."
C'est bien l'inconvénient de la méthode et une de ses limites, il est possible d'y palier (en partie) en augmentant la surface d'acquisition et en procédant à une moyenne (lissage) sur les données., et/ ou d'employer la méthode du vernier décrite dans le doc e2v.
Il est possible également qu'entre 2 photos, un décalage de quelques minutes d'angle "n'illumine" pas tout à fait les photosites de la même façon.
Le phénomène est identique avec Quick FTM?
J'ai modifié mon algorithme de calcul de la MTF. En fait, il semblerait que la notion de BxU supporte très mal l'accentuation. Du coup, de nombreux paramètres doivent êtres choisis correctement. En ce qui concerne QuickMTF, je ne sais pas bien ce qu'il fait car je n'ai pas le code source. Pour Imatest, ils sont totalement silencieux sur ce qui se passe. Enfin, je vais regarder ce qui se passe dans SFR3, le logiciel écrit par Peter Burns. Le logiciel, et donc les résultats, semble aussi bien évoluer au cour du temps.
Du coup, les nouveaux MTF50-Sylvatica et BxU-Sylvatica (dont la définition change très souvent en ce moment), sont à nouveau d'accord sur le classement des photos à f2 et à f11.
Voici donc les photos, les MTF50-Sylvatica (du jour) et BxU-Sylvatica (du jour), et les courbes MTF. On peut ainsi observer les effets de l'accentuation sur une photo limitée d'une part par les aberrations optiques classiques (f2) et d'autre part, par la diffraction (f11).
Les résultats avec les nouveaux MTF50-Sylvatica et BxU-Sylvatica. C'est le 35mm à f2, en faisant varier l'accentuation dans CNX.
Les courbes MTF des images du dessus.
Les résultats avec les nouveaux MTF50-Sylvatica et BxU-Sylvatica. C'est le 35mm à f11, en faisant varier l'accentuation dans CNX.
Les courbes MTF des images du dessus.
J'ai encore amélioré mon programme de calcul de MTF, et il me semble de plus en plus évident que la SQF (Subjective Quality Factor) est la chose la plus intelligente à notre disposition pour traduire une courbe MTF en un nombre donnant une sensation de netteté. Voici ses avantages :
- C'est une note entre 0 et 1, qui n'a pas d'unité.
- Elle dépend de la taille du "tirage" et de la distance d'observation.
- Sa définition est publique.
J'ai donc calculé la SQF de mes différentes images, pour une image affichée en 100% écran, sur écran 24 pouces en résolution 1920x1200, observé à 80 cm. La formule donnant la SQF est donc :
SQF(100% écran) = Integrale[ MTF(u) poids(u) , u = 0 .. +infini ]
ou poids(u) = c u^0.8 Exp[- 10.4 u] et c est un coefficient tel que Integrale[poids(u), u = 0 .. +infini ] = 1. J'ai d'ailleurs mis la courbe de ce poids ci-dessous. Son pic est autour de 0.1 cycle/p et l'essentiel est entre 0 cycle/p et 0.4 cycle/p. C'est cette SQF qui est utilisée dans les articles récents publiés par DxO.
Et voici une série d'ouvertures, toujours sur D800, au 35mm f1.4. Les images sont développées avec Capture NX, accentuation 1, aberrations chromatiques supprimées.
https://www.dropbox.com/s/wgf6hm1rib0zc0m/sqf.png (https://www.dropbox.com/s/wgf6hm1rib0zc0m/sqf.png)
Voici la meilleure image tirée de cette série.
Cette notion de SQF semble très bonne, et DxO Mark a repris l'idée dans son Perceptual MegaPixel et a malheureusement oublié de rendre à César ce qui est à César : Ed Grainger (1970). C'est du plagiat pur et simple :
- La SQF est calculée en faisant une moyenne sur la MTF, en prenant en compte la taille de l'image, la distance de visualisation et la sensibilité de l'oeil. C'est clairement expliqué ici : http://www.bobatkins.com/photography/technical/mtf/mtf4.html (http://www.bobatkins.com/photography/technical/mtf/mtf4.html). Sur le site de DxO, on voit bien sur cette page http://www.dxomark.com/index.php/About/In-depth-measurements/Measurements/Sharpness (http://www.dxomark.com/index.php/About/In-depth-measurements/Measurements/Sharpness) qu'ils font la même chose :
"The DxOMark score for Sharpness is based on the Perceptual Megapixel (P-Mpix) concept that weights the Modulation Transfer Function (MTF) of the lens with the human visual acuity"
DxO a juste oublié de donner la formule de poids, essentielle à la compréhension de ce qu'ils font. Grosso-modo, on veut l'essentiel : à quel distance ils regardent la photo et quelle et la taille de cette dernière.
- Comme la SQF dépend de la zone sur l'image, si on veut un seul nombre pour toute l'image (j'aime pas ça, mais bon...), on moyenne tout cela sur l'image. C'est ce que fait DxO en mettant plus de poids au centre qu'au bord. Evidemment, c'est ce qu'avait fait le journal américain "Popular Photography", un des grands utilisateurs de la SQF. C'est ici http://www.bobatkins.com/photography/technical/mtf/mtf5.html (http://www.bobatkins.com/photography/technical/mtf/mtf5.html).
- Enfin, on ne prend que la meilleure ouverture :o
- Quant à traduire cela en megapixels, "no comment". Mais, juste pour rire, on aimerait avoir la formule. ;D
Voilà ce qui m'insupporte sur DxO Mark : Ils prennent de bonnes idées (Ca c'est une qualité), ils font tout pour effacer cela (aucune référence au travail de Ed Grainger par exemple), ils cachent plein de paramètres (Quelle est la fonction de poids) et ils utilisent une unité qui excitent les neuneus de la photo (le MegaPixel).
Citation de: sylvatica le Mai 13, 2013, 17:25:27
Cette notion de SQF semble très bonne, et DxO Mark a repris l'idée dans son Perceptual MegaPixel et a malheureusement oublié de rendre à César ce qui est à César : Ed Grainger (1970). C'est du plagiat pur et simple :
- La SQF est calculée en faisant une moyenne sur la MTF, en prenant en compte la taille de l'image, la distance de visualisation et la sensibilité de l'oeil. C'est clairement expliqué ici : http://www.bobatkins.com/photography/technical/mtf/mtf4.html (http://www.bobatkins.com/photography/technical/mtf/mtf4.html). Sur le site de DxO, on voit bien sur cette page http://www.dxomark.com/index.php/About/In-depth-measurements/Measurements/Sharpness (http://www.dxomark.com/index.php/About/In-depth-measurements/Measurements/Sharpness) qu'ils font la même chose :
"The DxOMark score for Sharpness is based on the Perceptual Megapixel (P-Mpix) concept that weights the Modulation Transfer Function (MTF) of the lens with the human visual acuity"
DxO a juste oublié de donner la formule de poids, essentielle à la compréhension de ce qu'ils font. Grosso-modo, on veut l'essentiel : à quel distance ils regardent la photo et quelle et la taille de cette dernière.
- Comme la SQF dépend de la zone sur l'image, si on veut un seul nombre pour toute l'image (j'aime pas ça, mais bon...), on moyenne tout cela sur l'image. C'est ce que fait DxO en mettant plus de poids au centre qu'au bord. Evidemment, c'est ce qu'avait fait le journal américain "Popular Photography", un des grands utilisateurs de la SQF. C'est ici http://www.bobatkins.com/photography/technical/mtf/mtf5.html (http://www.bobatkins.com/photography/technical/mtf/mtf5.html).
- Enfin, on ne prend que la meilleure ouverture :o
- Quant à traduire cela en megapixels, "no comment". Mais, juste pour rire, on aimerait avoir la formule. ;D
Voilà ce qui m'insupporte sur DxO Mark : Ils prennent de bonnes idées (Ca c'est une qualité), ils font tout pour effacer cela (aucune référence au travail de Ed Grainger par exemple), ils cachent plein de paramètres (Quelle est la fonction de poids) et ils utilisent une unité qui excitent les neuneus de la photo (le MegaPixel).
je suis d'accord avec ton commentaire, je peux ajouter que j'ai l'impression que DxO s"était marginalisée (tout seul) avec le BxU, car non reconnu au niveau normatif, et dans ce cas il est bien difficile de vendre à des clients un critère qui n'est pas normalisé (avec une reconnaissance non normative). Alors que Imatest a fait tout le contraire et explore toutes les possibilités relatives à la MTF.
Avec la publication citée ci-dessous, DxO essaye de monter dans "le train en marche" en reprenant les idées des dead leaves et Spilled Coins, en abandonnant ces mires maisons et en se rapprochant des mires mentionnées dans les normes ISO
J'ai quelques questions (car notamment tu est plus près que moi des équations mathématiques), suite à lecture de la publication de Dxo relative aux 'Dead leaves for mesuring texture quality on a digital camera".
- Comment tu comprends "the texture MTF" et la MTF, quelle différence? l'explication donnée au §5.2 me satisfait pas vraiment, d'autant plus que les courbes de "texture FTM" à basse fréquence ont une allure bizarre (fig 3 par exemple).
- Est ce que tu fais une différence entre MTF et SFR? (dans Imatest, j'ai pas compris ou vu de différence entre SFR et MTF, le papier de DxO donne l'impression qu'ils font une différence).
Tu as vu que SFRMAT3 met à disposition le code de calcul sous Matlab de la FTM, que plusieurs versions existent et que la dernière améliore le hamming de zone slanted edge analysée?
Je trouve également que les "murs de briques" on de beaux jours devant eux quand on regarde / lit toutes les publications relatives au calculs des différentes sortes de MTF. Je pense que vouloir résumer à un chiffre les performances d'un système d'imagerie est assez réducteur et je ne suis pas sur que ce chiffre soit vraiment représentatif.
Citation de: MBe le Mai 13, 2013, 18:41:12
- Comment tu comprends "the texture MTF" et la MTF, quelle différence? l'explication donnée au §5.2 me satisfait pas vraiment, d'autant plus que les courbes de "texture FTM" à basse fréquence ont une allure bizarre (fig 3 par exemple).
De ce que je comprends, il y a :
- La MTF : C'est la fonction que tout le monde cherche à connaitre. Je pense qu'il y a beaucoup à dire sur sa définition, mais on va supposer que c'est un objet clairement défini.
- La SFR : C'est la MTF telle qu'elle est calculée par la norme ISO 12233 avec la méthode "slanted edge".
- La texture-MTF : C'est la MTF telle qu'elle est calculée par les auteurs de l'article et le modèle des feuilles mortes.
Dans un monde idéal, tout cela devrait être égal. Mais les méthodes de mesures ayant toutes des défauts, je pense que cet article explore une nouvelle manière de calculer la MTF. Une différence est aussi liée au fait que la Texture-MTF se mesure pour l'image en entier, contrairement à la SFR et à la MTF qui se calculent en chaque point de l'image et deux deux directions orthogonales.
Citation de: MBe le Mai 13, 2013, 18:41:12
Je trouve également que les "murs de briques" on de beaux jours devant eux quand on regarde / lit toutes les publications relatives au calculs des différentes sortes de MTF. Je pense que vouloir résumer à un chiffre les performances d'un système d'imagerie est assez réducteur et je ne suis pas sur que ce chiffre soit vraiment représentatif.
A l'heure du digital, les murs de briques sont à mon avis ce qui se fait de mieux. Il est tellement facile de poster une série d'ouvertures, en expliquant les paramètres des fichiers. Bien sur, il y aura des limites à cette méthode, mais on pourra en discuter calmement. Mais je ne vais pas encore partie la-dessus car je vais encore avoir des soucis.
Citation de: sylvatica le Mai 13, 2013, 19:34:51
De ce que je comprends, il y a :
- La MTF : C'est la fonction que tout le monde cherche à connaitre. Je pense qu'il y a beaucoup à dire sur sa définition, mais on va supposer que c'est un objet clairement défini.
- La SFR : C'est la MTF telle qu'elle est calculée par la norme ISO 12233 avec la méthode "slanted edge".
- La texture-MTF : C'est la MTF telle qu'elle est calculée par les auteurs de l'article et le modèle des feuilles mortes.
Dans un monde idéal, tout cela devrait être égal. Mais les méthodes de mesures ayant toutes des défauts, je pense que cet article explore une nouvelle manière de calculer la MTF. Une différence est aussi liée au fait que la Texture-MTF se mesure pour l'image en entier, contrairement à la SFR et à la MTF qui se calculent en chaque point de l'image et deux deux directions orthogonales.
A l'heure du digital, les murs de briques sont à mon avis ce qui se fait de mieux. Il est tellement facile de poster une série d'ouvertures, en expliquant les paramètres des fichiers. Bien sur, il y aura des limites à cette méthode, mais on pourra en discuter calmement. Mais je ne vais pas encore partie la-dessus car je vais encore avoir des soucis.
Merci, cela me conforte, je commençais à m'embrouiller avec cette terminologie qui abuse le lecteur. je vais poursuivre ma lecture sur la SQF.
Citation de: sylvatica le Mai 13, 2013, 17:25:27
- La SQF est calculée en faisant une moyenne sur la MTF, en prenant en compte la taille de l'image, la distance de visualisation et la sensibilité de l'oeil. C'est clairement expliqué ici : http://www.bobatkins.com/photography/technical/mtf/mtf4.html (http://www.bobatkins.com/photography/technical/mtf/mtf4.html).[...]
- Comme la SQF dépend de la zone sur l'image, si on veut un seul nombre pour toute l'image (j'aime pas ça, mais bon...), on moyenne tout cela sur l'image. C'est ce que fait DxO en mettant plus de poids au centre qu'au bord. Evidemment, c'est ce qu'avait fait le journal américain "Popular Photography", un des grands utilisateurs de la SQF. C'est ici http://www.bobatkins.com/photography/technical/mtf/mtf5.html (http://www.bobatkins.com/photography/technical/mtf/mtf5.html).
Pour ces 2 articles relatifs à la SQF, l'explication est bien faite et l'auteur est honnête sur sa conclusion.
Au passage, ce que j'ai appelé le SQF dans mes mesures semble être en fait l'acutance. L'idée est la même, seul le poids change.
En tout cas, il y a encore beaucoup de choses à améliorer dans mon soft. La MTF est assez sensible au bruit qu'il y a prêt du bord. Je suis presque sur que c'est ce qui explique le "toboggan" que l'on peut observer sur beaucoup de mesures de MTF faites avec Imatest et QuickMTF.
Sur cette image, on voit la Line Spread Function à gauche et la MTF à droite. J'ai entouré en vert cette zone de bruit qui perturbe un peu le calcul de la MTF. C'est le côté de la cible qui est dans le sombre (imprimée), alors que la partie droite qui correspond à la zone blanche (et donc non imprimée) est beaucoup plus propre. Il est possible que la qualité de la cible soit responsable de cela.
Lorsque j'avais rencontré des problèmes avec Mitre SFR, j'avais en effet émis l'hypothèse du problème de l'impression de la mire "maison" slanted edge, des encres, de l'encrage réalisé par l'imprimante.
J'avais imaginé prendre une feuille de Canson noire et une blanche pour m'affranchir de l'impression et construire le slanted edge avec ces 2 feuilles en superposition. Par contre je n'ai pas testé et je ne sais pas si la différence de quelques dixièmes sur l'épaisseur (de la mire) pouvait avoir une influence.
J'avais également regardé les mires du commerce, mais elles sont hors de prix pour un amateur.
Si ce bruit est haute fréquence, il y a également la possibilité de faire un filtre numérique à N fois Nyquist pour influencer le moins possible le calcul de la MTF ( N > 3ou 4?).
Est ce que tu as essayé de tester ton programme sur une mire "idéale" à partir d'un fichier constitué de 0 et de 1? et de le filtrer avec un masque de flou d'intensité N, de rayon r?
Aucun problème avec des images générées par ordinateur.
Je pense qu'une bonne mire est indispensable pour faire quelque chose de sérieux, car le passage du gris au blanc doit être sans bavure. J'imprime pourtant sur une Canon Pixma Pro 100. Le prix de ces mires est surement justifié.
Citation de: sylvatica le Mai 14, 2013, 22:01:31
Aucun problème avec des images générées par ordinateur.
Donc cela élimine "un défaut" dans ton programme.
Citation de: sylvatica le Mai 14, 2013, 22:01:31
Je pense qu'une bonne mire est indispensable pour faire quelque chose de sérieux, car le passage du gris au blanc doit être sans bavure. J'imprime pourtant sur une Canon Pixma Pro 100. Le prix de ces mires est surement justifié.
Je considère la Canon PRO 100 comme une excellente imprimante (elle est en test dans le MDLP de mai)
Oui les bonnes mires ont un coût.
A propos du Gamma des fichiers tiff:
Imatest indique :
SFRplus slanted-edge algorithm The algorithms for calculating MTF/SFR were adapted from a Matlab program, sfrmat, written by Peter Burns () to implement the ISO 12233 standard. SFRplus incorporates numerous improvements, including improved edge detection, better handling of lens distortion, and far more detailed output. A description can be found here. The original Matlab code is available on the I3A ISO tools download page by clicking on ISO 12233 Slant Edge Analysis Tool sfrmat 2.0. In comparing sfrmat 2.0 results with Imatest, keep the following in mind: If an OECF (tonal response curve) file is not entered into sfrmat, it assumes that there is no tonal response curve, i.e., gamma = 1. In Imatest, the default gamma is 0.5, which is typical of digital cameras. To obtain good agreement with sfrmat, you must set gamma to 1.
A, priori sauf erreur de ma part, je ne pense pas que CNx2 permette de générer de fichier tiff avec un gamma de 1 (ou différent de 2,2), est ce que le problème que tu rencontres ne provient pas de là? (un gamma > 1 influence les basses et hautes lumières, la dynamique, et probablement le ratio bruit signal aux extrémités de la courbe)
Imatest utilise Dcraw qui permet ce genre de réglage.
D'ailleurs j'ai pas bien compris pourquoi Imatest utilise un gamma de 0,5, probablement que cela influence les résultats de la MTF (?).
Citation de: MBe le Mai 12, 2013, 21:55:19
C'est bien l'inconvénient de la méthode et une de ses limites, il est possible d'y palier (en partie) en augmentant la surface d'acquisition et en procédant à une moyenne (lissage) sur les données., et/ ou d'employer la méthode du vernier décrite dans le doc e2v.
On pourrait aussi revenir à la méthode de l'histogramme!! ::) ::)
A propos de texture dont l'un de vous deux a parlé c'est aussi une mesure que publie CI mais aucune explication sur la signification de la mesure autre que "c'est le rendu d'une texture" avec une échelle graduée jusqu'à 120 %?
Citation de: chelmimage le Mai 15, 2013, 23:00:53
On pourrait aussi revenir à la méthode de l'histogramme!! ::) ::)
Oui, mais difficile d'établir un ou plusieurs critères discriminant par cette méthode, j'ai essayé de m'en servir, sans arriver à avoir une solution qui marche (sans être trop surpris non plus).
Citation de: chelmimage le Mai 15, 2013, 23:00:53
A propos de texture dont l'un de vous deux a parlé c'est aussi une mesure que publie CI mais aucune explication sur la signification de la mesure autre que "c'est le rendu d'une texture" avec une échelle graduée jusqu'à 120 %?
Le dictionnaire de Verso ne comporte pas le terme texture, je suis déçu :(
Plus sérieusement, je viens de ré ouvrir un CI, la "texture" est mesurée en fonction de la sensibilité Iso (donc le gain), en conséquence, une de ses variables (mais ce n'est pas la seule!) est le bruit, en tous cas la courbe que j'ai sous les yeux à une pente (la dérivée...) assez proche de la courbe d'à côté qui est celle du bruit.
Dans le cas évoqué un peu plus haut dans les posts, texture MTF me fait plus penser à la capacité à discerner des transitions et détails dans un "paysage" assez uniforme. (je sais pas si me fais bien comprendre :-[, mais regarde la mire donnée en exemple), l'article qui y fait référence (dead leaves model for measuring texture quality on a digital camera (DxO Mark) est intéressant à lire. Sylvatica a donné le lien, tu le trouveras sans difficulté.
Si tu as lu toutes les pages de ce fil, tu as pu constater que nous avons essayé de réfléchir pendant ton absence ;D
Je continue à penser que la méthode slanted edge est un bonne méthode, toute la difficulté est de trouver des testeurs très rigoureux, avec une méthodologie identique d'un système d'image vers un autre système pour que la comparaison est un sens.
Citation de: MBe le Mai 16, 2013, 21:41:38
Si tu as lu toutes les pages de ce fil, tu as pu constater que nous avons essayé de réfléchir pendant ton absence ;D
Je continue à penser que la méthode slanted edge est un bonne méthode, toute la difficulté est de trouver des testeurs très rigoureux, avec une méthodologie identique d'un système d'image vers un autre système pour que la comparaison est un sens.
Oui j'ai lu et vu que vous avez évolué beaucoup vers une méthodologie dont les résultats rejoignent ceux d'autres méthodes..
Maintenant, que je sois là ou pas ne changera pas beaucoup vos avancées vu le niveau auquel vous évoluez..
Je vais essayer de resserrer ma méthodologie d'essai avec l'histogramme..De toutes façons je ne peux pas beaucoup vous aider vu que mon équipement est en 4:3 avec une optique qui n'a pas une grande amplitude d'ouverture. Je pense que l'avantage de cette méthode de l'histogramme sur d'autres est le grand nombre de pixels qui peuvent participer à la mesure ce qui augmente la sensibilité et la finesse de la mesure..Maintenant il me reste à choisir entre le test des pixels alignés avec les lignes de la mire ou une pente définie:5°, 7°?
C'est tout..
Citation de: chelmimage le Mai 16, 2013, 22:56:27
Oui j'ai lu et vu que vous avez évolué beaucoup vers une méthodologie dont les résultats rejoignent ceux d'autres méthodes..
Maintenant, que je sois là ou pas ne changera pas beaucoup vos avancées vu le niveau auquel vous évoluez..
Je vais essayer de resserrer ma méthodologie d'essai avec l'histogramme..De toutes façons je ne peux pas beaucoup vous aider vu que mon équipement est en 4:3 avec une optique qui n'a pas une grande amplitude d'ouverture. Je pense que l'avantage de cette méthode de l'histogramme sur d'autres est le grand nombre de pixels qui peuvent participer à la mesure ce qui augmente la sensibilité et la finesse de la mesure..Maintenant il me reste à choisir entre le test des pixels alignés avec les lignes de la mire ou une pente définie:5°, 7°?
C'est tout..
Oui beaucoup de méthodes ont été regardées. SI les infos relatives à la MTF t'intéressent, tu peux aller regarder celles données par Imatest et il renvoie vers de nombreux liens.
Mais ta participation, ouverture d'esprit, curiosité comptent plus que le matériel , et un forum c'est fait pour échanger.
J'ai enfin réuni les 2 conditions nécessaires à ma manip..
Du temps pour les faire et un temps suffisamment lumineux pour parcourir la plage d'ouverture de f4 à f22 sans autre variation que le temps de pose pour des conditions d'exposition identiques.
J'ai donc fait des photos de la mire avec 2 densités de lignes dans un rapport 2. Ce qui me faisait 2 essais/résultats par photo..La focale était 14 mm en 4 :3., de façon à être compatible avec la dimension physique de la mire, la distance mini de prise de vue de mon appareil et le recul possible.
Pour chaque densité de ligne que j'ai exprimée en nb de pixels de photo par pixel de l'image, j'ai calculé le rapport de l'écart type des niveaux L de la zone des grilles rapportés à l'écart type des niveaux L de grandes zones noires et blanches de la mire pour chaque photo.
Ce rapport varie entre 1 et presque 0. Il est même parfois légèrement supérieur à 1 en raison d'une accentuation des transitions NB.
J'ai fait les essais sans précautions particulières autre que d'appuyer l'appareil sur une surface stable et de supprimer la stabilisation que je sais sujette à des anomalies que je n'ai jamais clairement comprises.
Malgré cela les courbes montrent un petit creux à f8 qui correspond au 1/125. Valeur que je sais sensible ou hasard de manip ?
Je trouve que l'allure des courbes est significative puisqu'on voit une augmentation progressive du flou lorsqu'on diminue l'ouverture physique
Je pense que de cette façon avec peu de moyens et facilement on peut tester de façon comparative plusieurs optiques comme je l'avais imaginé .. Avec l'expérience on peut se définir une limite de qualité qu'on souhaite et prendre un peu plus de précautions que je ne l'ai fait. Mais justement, je voulais voir le potentiel de cette méthode. Le maximum de sensibilité de la méthode se situe aux environs du critère 2 pixels de photo pour reproduire un pixel de photo. La mire est toujours équivalente à 512 pix de large quelle que soit sa taille d'impression. Finalement le problème le plus crucial sera de trouver le recul nécessaire pour les zooms . Mais il existe aussi pour d'autres méthodes..
La mesure des écarts type est très reproductible. Je l'ai vérifié en reprenant les mesures de certains points qui me donnaient des doutes. Mais je n'ai pas trouvé de différences. Il faut dire que les échantillons de mesure des ET sont compris entre 15000 et 20000 pixels..On est loin des échantillons IMATEST!
Pour des détails sur la manip voir ici..
http://www.chassimages.com/forum/index.php/topic,182435.msg3920501.html#msg3920501 (http://www.chassimages.com/forum/index.php/topic,182435.msg3920501.html#msg3920501)
Citation de: chelmimage le Mai 23, 2013, 12:19:37
Pour des détails sur la manip voir ici..
http://www.chassimages.com/forum/index.php/topic,182435.msg3920501.html#msg3920501 (http://www.chassimages.com/forum/index.php/topic,182435.msg3920501.html#msg3920501)
Chelmimage, dès que j'ai un peu de temps je fais le test, mais il faut que je prenne auparavant le temps de lire ton fil et le mode d'emploi ;)
Citation de: MBe le Mai 23, 2013, 22:29:24
Chelmimage, dès que j'ai un peu de temps je fais le test, mais il faut que je prenne auparavant le temps de lire ton fil et le mode d'emploi ;)
Merci.. On trouve assez facilement la distance approximative qui permet de respecter le critère des 1024 pix. La formule y aide beaucoup.. néanmoins je pense qu'à + ou - 50 pix près ça marche encore..
L'histogramme ET0 peut être remplacé par une mesure à la pipette des niveaux du blanc et du noir sur les "grandes surfaces" continues. L'écart type est égal à la moitié des écarts des niveaux..
Il n'y a que sur la partie grille que l'histogramme est nécessaire et on a intérêt à prendre le plus de surface possble.
Malgré tout tu verras qu'on peut réduire la surface de l'histogramme sans que la valeur de l'ET change beaucoup..
Impression de la mire en format A4 (soit les 28 cm de la formule).
PS: Un petit truc pour repérer les 1024 pixels lorsque je fais une photo..et voir si c'est à peu près correct.
Mon appareil EPL2 fait 4032X3024 pix.
J'ai donc créé avec photoshop une image de 4032X3024 pixel. Sur cette image j'ai tracé un quadrillage tous les 500 pixels.
Je l'ai donc photographiée plein cadre sur l'appareil photo. L'image étant évidemment réduite pour tenir dans l'écran de l'ordinateur..
Et sur l'écran arrière je peux donc repérer la dimension des 1024 pixels correspondant approximativement à 2 quadrillages de la photo.
En plus, coup de chance, si sur l'appareil,
je fais le zoom X5, je vois que sur cette position l'écran arrière affiche 1000 pixels de la photo.. Donc dès la prise de vue je sais si ma photo va être utilisable..
J'espère que sur ton appareil il y aussi une valeur de zoom intéressante pour afficher approximativement les 1000 pixels et que tu ne seras pas gêné par une trop grande résolution de ton appareil par rapport à l'écran de l'ordinateur (risque de moiré). Mais dans ce cas il faut faire un fond noir pour n'afficher que les lignes de quadrillage.
Citation de: MBe le Mai 23, 2013, 22:29:24
Chelmimage, dès que j'ai un peu de temps je fais le test, mais il faut que je prenne auparavant le temps de lire ton fil et le mode d'emploi ;)
J'apprécierai toujours autant ta participation..
Avec le beau temps, on peut faire prendre l'air aux mires!! car pour certaines focales il faut du recul.. ;D ;D ;D
Citation de: chelmimage le Juin 14, 2013, 17:52:13
J'apprécierai toujours autant ta participation..
Avec le beau temps, on peut faire prendre l'air aux mires!! car pour certaines focales il faut du recul.. ;D ;D ;D
Bonjour Chelminage
C'est dans la pile des tâches à réaliser, et justement avec le beau temps les activités jardins sont d'actualités d'autant que le printemps pluvieux a favorisé l'herbe et pas que les bonnes :D
Mais j' y pense, et la mire est toujours sortie...
Citation de: MBe le Juin 16, 2013, 11:54:25
Bonjour Chelminage
C'est dans la pile des tâches à réaliser, et justement avec le beau temps les activités jardins sont d'actualités d'autant que le printemps pluvieux a favorisé l'herbe et pas que les bonnes :D
Mais j' y pense, et la mire est toujours sortie...
Merci pour l'attention..Le trottoir de ma rue me fait oublier ce genre de problème! ;) ;)