Profondeur de champ, attention aux règles anciennes !

Démarré par Zouave15, Juin 05, 2008, 18:35:13

« précédent - suivant »

Zouave15

Suite à des débats autour de l'hyperfocale, je me suis permis de résumer les interventions de chelmimage, verso92 et Tonton-Bruno notamment, au travers de ma propre expérience, dans deux articles. Il ressort de tout cela que les règles anciennes, déjà limite en argentique dans bien des circonsctances, sont largement obsolètes en numérique. Les courbes de chelmimage l'attestent et donnent une base de travail rigoureuse.

Il est temps maintenant de sortir le débat de la rubrique Objectifs du forum, pour le mettre dans cette section. À  vos réactions !

Hyperfocale, un mythe ?
Profondeur de champ : enfin une base fiable ?


geo444

#1
.
les lois de l'optique n'ont pas changé... MAIS comme dit dans tes liens :

<<... Or la tolérance au flou a nettement diminué depuis l'invasion numérique,
et d'une manière plus générale avec les progrès techniques
... >>

y'a pas si longtemps, 95% regadaient leurs tirages 10x15 d'après néga...
... et une petite minorité avait un compte fil X8 pour admirer ses diapos !

aujourd'hui s'il faut scruter ses crops 400% de Mires sur Pied Miroir Relevé sur LCD 30"...
... ben alors faut p'tèt diviser la valeur du Cercle de Confusion par deux... ou par trois ?!

la fameuse Profondeur de Champ... n'est qu'une tolérance au flou qu'on s'accorde !

;)

pyl

Salut
Je ne comprends toujours pas ce qui est mis en ordonnée dans les courbes de Chelmimage.
la phrase "chelmimage démontre qu'utiliser l'hyperfocale revient à admettre une résolution équivalente à 1,4 Mpx à l'infini" demeure pour moi incompréhensible.
expliquez moi

[at] ++

Zouave15

Dans le fil d'où est partie cette discussion, qui était sur l'hyperfocale, il explique ceci :

««««
Je pars de l'hypothèse:
Tant que le cercle de confusion reste inscrit dans un pixel, il n'y a pas de perte de résolution. Cette approximation me parait valable car elle correspond à une approche statistique du problème compte tenu du nombre de pixels. Comme pour l'argentique la limite du cercle de confusion est donnée empiriquement à 1/1730ème de diagonale, on peut calculer que ça correspond à un capteur ayant environ 1,4 Mpix, quel que soit la dimension du capteur.

Le raisonnement de départ dit que le CdC acceptable est égal à 1/1730 ème de la diagonale . Par homothétie on peut en déduire que ça ne dépend ni du format de la pellicule, ni du format d'observation sur le papier, ni donc du capteur. Donc par ex, pour  le format 4:3, ceci  implique que la diagonale de ce capteur fait 5. (triangle rectangle 3,4,5). Donc la diagonale contient 1730 fois la dimension du CdC soit selon mon raisonnement 1730 fois la dimension d'un pixel autrement dit 1730 pix. Le grand coté contiendra 1730*(4/5)=1384 pix et le petit côté 1730*(3/5)=1038 pix soit au total un capteur de 1,436 Mpix. Même calcul pour le format 3:2 et on trouve 1,38 Mpix. J'ai arrondi à 1,4 Mpix. ça correspond au nombre de Mpix minimum pour définir une image dite nette selon les critères argentiques.
»»»»»

geo444

#4
Citation de: Zouave15 le Juin 05, 2008, 19:48:48

... la limite du cercle de confusion est donnée empiriquement à 1/1730ème de diagonale...

... Le raisonnement de départ dit que le CdC acceptable est égal à 1/1730 ème de la diagonale ...


quel raisonnement ?... il a dit donné empiriquement !

il faut simplement choisir SON CdC selon SES exigences... c'est tout !

;)

hendrix



huuummm...oui la tolérance à changer(merci les écrans)...mais attention au titre provoc...

la règle de l'hyperfocale et des flou sont toujours pareil...

celle le rapport signal/bruit à considérablement changer à num...( et dans le sens large, je parle)

Lumières éternelles

#6
De toute façon les repères d'hyperfocale sont indicatifs sur les objectifs et même en argentique pour ma part je photographie avec un diaph de sécurité : je me règle par exemple sur les repères d'hyperfocale à 11 et je diaphragme à 16, ce qui me fait récupérer de la netteté à l'infini...

Cela dit, maintenant en paysage je suis passé au moyen format donc on peut fermer sans problème à 16 ou 22 en grand angle il n'y aura pas de diffraction - et pour moi c'est bien piqué partout avec cette méthode...

Florent.

pyl

Merci Zouave15, ça y est j'ai compris le 1.4Mpix

je suis lent, mais pour le reste, je ne comprends pas mieux ce qui est tracé.
C'est quelle formule qui est tracée??

[at] ++

chelmimage

le nb de mpix tracé sur les courbes correspond au nombre de photosites carrés ayant un coté égal au diamètre du cercle de confusion que l'on pourrait inscrire sur la surface du capteur.
C'est évidemment aussi égal aux nombres de cercles de confusions placés cote à cote..

Zouave15

Bien sûr, comme écrit dans mes articles, il y a ceux qui savent tout. Mais il y a aussi tous les autres, pas forcément mauvais photographes, et qui suivent des règles sans forcément avoir analysé la chose. Les articles sont pour eux.

Pour ma part je ne parle plus du tout de profondeur de champ, je préfère "gérer le flou".

chelmimage

Citation de: Zouave15 le Juin 06, 2008, 09:36:35
Pour ma part je ne parle plus du tout de profondeur de champ, je préfère "gérer le flou".
L'expression me parait tout à fait adaptée, car elle est représentée par une grande partie de la courbe, celle située sous la zone de netteté..
Un petit complément d'explication. Dans le plan de mise au point, le diamètre du cercle de confusion est théoriquement nul.
Dans ce cas, le cercle de confusion est entièrement contenu dans le photosite(pixel par abus de langage), la résolution maximum est celle de l'appareil. Tant que cette condition est satisfaite la courbe est plane et égale à cette résolution max. Si on s'écarte plus, le CdC déborde sur les pixels environnants. A partir de ce moment, le flou apparait et la résolution effective de l'appareil, pour cette distance, diminue. De plus en plus, au fur et à mesure que l'on s'éloigne de la distance de mise au point, la courbe plonge.
En ce qui concerne le niveau du plateau de résolution max, sa valeur constatée n'est pas celle de la résolution du capteur. En effet la matrice de Bayer pénalise cette valeur. La valeur moyenne mesurée par Dpreview par ex tourne aux environs de 0,5 fois la résolution du capteur. Ce qui correspond à de pixels 2 fois plus grands en surface ou racine(2) fois plus grands.
Pour cette raison j'ai choisi de plafonner les courbes à une résolution max 2 fois plus petite que celle du capteur..
A titre d'information, voici un classement des divers reflex selon:
- la résolution max réelle mesurée par Dpreview
-l'efficacité du couple appareil-logiciel de dématriçage par rapport à la résolution du capteur.

chelmimage

la dernière ligne de mon tableau m'avait échappée..!

Zouave15

Ouh là ! Voilà un tableau qui remet les pendules à l'heure !

Mais alors, selon ce tableau, aucun appareil n'approcherait, même de loin, la résolution d'une pellicule, ce qui semble contraire aux observations communes ?

Ou peut-être expliquerait le rendu numérique : même les appareils les mieux définis ne donnent qu'une représentation vide. C'est-à-dire que les détails paraissent plus nets qu'en argentique, mais en réalité il y en a deux fois moins ? D'où cette absence de matière notamment pour des surfaces lisses ?

C'est peut-être idiot, alors ne tapez pas, mais donnez des arguments...

xav

Citation de: Zouave15 le Juin 06, 2008, 09:36:35
Pour ma part je ne parle plus du tout de profondeur de champ, je préfère "gérer le flou".

Tout pareil!

Chelimage : je pige pas trop ton tableau. En 2 mots, c'est l'efficacité de quoi?

Lictor

Citation de: geo444 le Juin 05, 2008, 18:45:32
les lois de l'optique n'ont pas changé... MAIS comme dit dans tes liens :

Un petit peu quand même: l'optique ne sert plus à projeter sur un média analogique, continu et désordonné, mais le fait sur un média numérique, discontinu et ordonné. De plus, ce média nécessite, de part sa conception même, une accentuation.
L'accentuation change un peu la donne, parce qu'elle crée un effet de seuil. Avant, on sortait de la zone d'hyperfocale de manière graduelle. Le piqué apparent diminuait de façon continue et progressive. Avec une accentuation, on passe de manière beaucoup plus brutale d'une tranche de PdC où le piqué apparent est très net à une zone où tout devient mou d'un coup... Ce qui fait, par exemple, que les lointains, surtout détaillés (type arbres), sont souvent assez moches avec un réglage sur l'hyperfocale...

chelmimage

J'ai appelé efficacité le rapport entre le nombre de pixels virtuels (résolution horizontaleX résolution verticale; mesurées par Dp) et le nombre de pixels réels du capteur. J'aurais pu aussi l'appeler rendement de l'appareil...!

xav

OK merci.
Donc selon ce calcul, pour lamajorité des apn, plus de la moitié des pixels ne servent à rien? Tu entends par là qu'il ne permettent pas de capter d'infos supplémentaires visibles?

chelmimage

Tous servent, mais c'est le principe de la matrice de Bayer qui nécessite 4 pixels jointifs pour définir la couleur exacte d'une zone de l'image..L'algorithme de dématriçage permet de réorganiser l'information et finalement de n'avoir globalement qu'une division par 2 de la résolution totale du capteur..Sauf pour les capteurs Fovéon qui ont une meilleure efficacité car chaque photosite posséde l'information totale des composantes RVB de la couleur.

voxpopuli

Citation de: chelmimage le Juin 06, 2008, 12:22:20
Tous servent, mais c'est le principe de la matrice de Bayer qui nécessite 4 pixels jointifs pour définir la couleur exacte d'une zone de l'image..L'algorithme de dématriçage permet de réorganiser l'information et finalement de n'avoir globalement qu'une division par 2 de la résolution totale du capteur..Sauf pour les capteurs Fovéon qui ont une meilleure efficacité car chaque photosite posséde l'information totale des composantes RVB de la couleur.

D'où l'intérêt porté par les astrophotographes pour les caméra ccd n&b ou 1 photosite=1 "pixel" de l'image.
Ça va rester chaud

Zouave15

Citation de: Lictor le Juin 06, 2008, 11:53:02
Un petit peu quand même: l'optique ne sert plus à projeter sur un média analogique, continu et désordonné, mais le fait sur un média numérique, discontinu et ordonné. De plus, ce média nécessite, de part sa conception même, une accentuation.
L'accentuation change un peu la donne, parce qu'elle crée un effet de seuil. Avant, on sortait de la zone d'hyperfocale de manière graduelle. Le piqué apparent diminuait de façon continue et progressive. Avec une accentuation, on passe de manière beaucoup plus brutale d'une tranche de PdC où le piqué apparent est très net à une zone où tout devient mou d'un coup... Ce qui fait, par exemple, que les lointains, surtout détaillés (type arbres), sont souvent assez moches avec un réglage sur l'hyperfocale...

Oui, tu as tout à fait raison, d'ailleurs je compléterai mon article en insistant sur ce point. Notons qu'on a le même problème en argentique scanné, doublé du fait qu'on accentue le grain. A l'hyperfocale, c'est le désastre !

Zouave15

Je répète ma question car j'aimerais bien une réponse circonstanciée...
<<<<
Mais alors, selon ce tableau, aucun appareil n'approcherait, même de loin, la résolution d'une pellicule, ce qui semble contraire aux observations communes ?

Ou peut-être expliquerait le rendu numérique : même les appareils les mieux définis ne donnent qu'une représentation vide. C'est-à-dire que les détails paraissent plus nets qu'en argentique, mais en réalité il y en a deux fois moins ? D'où cette absence de matière notamment pour des surfaces lisses ?

C'est peut-être idiot, alors ne tapez pas, mais donnez des arguments...
<<<<<

JMS

Dans les lointains il y a généralement non pas des détails, mais une impression de détails en argentique, du fait du grain. D'où la nécessité de dégrader son fichier numérique (accentuation, couche de grain, ou encore bruit natif en hauts ISO) pour rendre cette impression de matière.

xav

Citation de: JMS le Juin 06, 2008, 13:48:15
Dans les lointains il y a généralement non pas des détails, mais une impression de détails en argentique, du fait du grain. D'où la nécessité de dégrader son fichier numérique (accentuation, couche de grain, ou encore bruit natif en hauts ISO) pour rendre cette impression de matière.

Haaa, voilà qqchose que je n'ai jamais osé die car je n'ai pas assez d'exérience en argentique, mais je me suis souvent fait cette réflexion : si le fichier numérique semble trop propre, on peut tjs le salir..., un peu comme le sel dans un plat.

geo444

#23
.
pour éviter les images irréelles, trop accentuées... avec le Ciel postérisé / bruité !

1/ prendre le temps a la PdV, en Paysage on peut essayer et valider sur le LCD a 100%...
2/ éviter de trop accentuer les lointains... dans la réalité ils sont rarement nets !
3/ ne pas accentuer l'Horizon, ni le Ciel... évite Horizon au cutter + Ciel postérisé / bruité !

Paysage au 100mm(50x2) a f/5.6 Hyperfocale a 400 iso a 1/2h du couchant !!
1/ en entier avec crop de la minuscule maison au dessus de l'eglise
2/ crop 100% du clocher et des lointains (Mt Ventoux vu de Bonnieux)
(~reduction 150ko avec IrfanView~) Clic Droit puis View Image =>

Zouave15

Voilà typiquement le genre de photo qui ne montre rien car de toute façon les lointains sont dans la brume et les pins font des pâtés. Ça pourrait être plus flou, on ne verrait pas la différence.

Par contre en montagne, avec des lignes des crêtes, des arbres sur certaines d'entre elles, un ciel clair et un lointain relativement proche (1 à 2 kilomètres) ça n'est pas la même chanson.

Quand à la netteté sur le clocher, difficile d'en juger là.