Profondueur de champ

Démarré par Flash71, Décembre 09, 2011, 08:36:46

« précédent - suivant »

Flash71

Salut a toutes et a tous,

Je vais acheter une optique Samyang 85/ 1.4 et j'aurais aimer établir une table de profondeur de champ.

Les formules ne me posent pas de problèmes, mais je me demande quelle valeur prendre pour le diamètre du cercle de confusion.

Je connais la réponse pour l 'argentique, mais quid du numérique?

Je travaille avec un capteur Nikon APS-C.

Merci de vos retours.

Amicalement.

Verso92

0,02mm ?
Bon, en même temps, la gestion de la PdC (dans le sens calculer la zone de netteté ou l'hyperfocale) présente peu d'intérêt avec un f/1.4 85 monté sur un boitier APS-C...

olivier_aubel

La valeur communement admise pour l'aps est de 0.02 mais il faut bien se rappeler qu'un cercle de confusion doit aussi se choisir en fonction de la façon dont on va regarder ses photos. Si tu veux faire de grand tirage et pouvoir t'approcher, tu peux choisir un cercle de confusion different. Y'a pas une valeur universelle.

Aria

Citation de: Flash71 le Décembre 09, 2011, 08:36:46
Salut a toutes et a tous,

Je vais acheter une optique Samyang 85/ 1.4 et j'aurais aimer établir une table de profondeur de champ.

Tu vas trouver sur le net des sites qui vont te calculer ça au poil...suivant ton matos utiliser et la distance de PDV, ainsi que l'hyperfocale etc..etc...c'est très interressant (même pour de l'APSC  ;))
"Online Depth of field calculator" : par exemple.

A+

SeRgiO_76

Bonsoir,

Puisque les formules ne te posent pas de problème, Flash71, je te dirais que la valeur du diamètre du cercle de confusion dépend du capteur de ton appareil en considérant que le plus petit détail qu'il puisse capturer l'est forcément par un minimum de deux pixels contigus. La valeur du diamètre de ceux cercle est donc de e=2 pixels. Connaissant la résolution de ton appareil et la taille de son capteur, tu peux déterminer la valeur du diamètre du cercle de confusion et ce, pour tous les appareils  ;) .
Sur des appareils APS-C, généreux en pixels, ça peut être bien moins que 0,02 mm.
Exemple 7D :
5184 x 3456 pixels pour 22,3 x 14,9 mm
le pas du pixel est donc p = 22300 / 5184 = 4,30169 µm ou p = 14900 / 3456 = 4,31134 µm
On prendra la plus grande valeur, le pas le plus pénalisant, soit 4,31134 µm.
Le diamètre du cercle de confusion est donc, e = 2 x 4.31134 = 8,62268 µm = 0,0082268 mm. C'est moins de 0,01mm.

Tu sais maintenant l'appliquer à ton appareil  ;)

Bonne continuation,
Serge.
7D 10-22/28-75/18-250/100-400

Verso92

Citation de: SeRgiO_76 le Décembre 18, 2011, 01:09:40
Puisque les formules ne te posent pas de problème, Flash71, je te dirais que la valeur du diamètre du cercle de confusion dépend du capteur de ton appareil en considérant que le plus petit détail qu'il puisse capturer l'est forcément par un minimum de deux pixels contigus.

Non.
Déjà discuté ici :
http://www.chassimages.com/forum/index.php/topic,138816.msg2656644.html#msg2656644

Tonton-Bruno

Citation de: SeRgiO_76 le Décembre 18, 2011, 01:09:40
Puisque les formules ne te posent pas de problème, Flash71, je te dirais que la valeur du diamètre du cercle de confusion dépend du capteur de ton appareil

Oui, tout à fait.

Déjà discuté ici :
http://www.chassimages.com/forum/index.php/topic,138816.msg2656644.html#msg2656644

Il est intéressant à mon avis de disposer de valeurs absolues donnant le potentiel réel d'une image, quel que soit son grandissement et la distance à laquelle on la regardera.

Si on s'intéresse à la profondeur de champ d'un tirage A4 ou A3 regardé à une distance égale à sa diagonale, les bons chiffres de CdC sont :

0,024 en format 24*36
0,015 en format APS

Dans le cas d'un tirage papier (il reste encore 5% des photographes qui en font régulièrement) d'une photo non recadrée et qu'on regarde à une distance égale ou supérieure à sa diagonale, la densité des photosites d'un capteur n'intervient pas.

Si en revanche on veut fortement recadrer une photo et la regarder de près sur son écran, parfois en zoomant jusqu'à la taille 100%, il est important de prendre en considération la taille des photosites du capteur.

SeRgiO_76

Bonjour,

Citation de: Verso92 le Décembre 18, 2011, 08:50:07
Non.
Déjà discuté ici :
http://www.chassimages.com/forum/index.php/topic,138816.msg2656644.html#msg2656644

Je trouve le "non" un peu restrictif, Verso, d'autant que tout n'est que vérité. Reprends ton Bouillot  ;)
Concernant l'existence d'un autre fil sur ce sujet, peu m'importe, puisque je n'est pas lancé celui-ci et que je ne faisais que répondre à une interrogation. Et puis, tant de fils, de réponses et commentaires sont supprimés ici que je ne cherche plus dans les archives  ;D  :D  :D .
Pour conserver des valeurs prédéfinies, ça me parait possible aussi, bien sur, ça évite le calcul systématique qui ne sera à refaire que dans le cas d'une évolution technologique notable.

Bonne continuation,
Serge.
7D 10-22/28-75/18-250/100-400

Verso92

Citation de: SeRgiO_76 le Décembre 18, 2011, 12:06:05
Bonjour,

Je trouve le "non" un peu restrictif, Verso, d'autant que tout n'est que vérité. Reprends ton Bouillot  ;)
Concernant l'existence d'un autre fil sur ce sujet, peu m'importe, puisque je n'est pas lancé celui-ci et que je ne faisais que répondre à une interrogation. Et puis, tant de fils, de réponses et commentaires sont supprimés ici que je ne cherche plus dans les archives  ;D  :D  :D .
Pour conserver des valeurs prédéfinies, ça me parait possible aussi, bien sur, ça évite le calcul systématique qui ne sera à refaire que dans le cas d'une évolution technologique notable.

Bonne continuation,
Serge.

On va dire que j'ai la flemme de reprendre ici la discussion de l'autre fil... et puis, quel intérêt ?
Si tu as raison, les fabricants devraient livrer des bandes adhésives pour personnaliser les échelles de PdC de leurs objectifs en fonction de la taille des photosites du boitier accueillant l'objectif.

Je n'aurais donc qu'une question : le font-ils ?
(on part du principe que les ingés qui conçoivent les objectifs ne sont pas des incapables, hein ?)

olivier_aubel

Citation de: SeRgiO_76 le Décembre 18, 2011, 01:09:40
Puisque les formules ne te posent pas de problème, Flash71, je te dirais que la valeur du diamètre du cercle de confusion dépend du capteur de ton appareil en considérant que le plus petit détail qu'il puisse capturer l'est forcément par un minimum de deux pixels contigus.
....
ça devient penible !
Si vous ne connaisssez pas la définition du cercle de confusion , n'intervenez pas !


>:(

jbk

Citation de: Verso92 le Décembre 18, 2011, 12:14:04

Je n'aurais donc qu'une question : le font-ils ?

(on part du principe que les ingés qui conçoivent les objectifs ne sont pas des incapables, hein ?)

Mauvais argument, les ingénieurs ne font que ce qu'il est raisonnablement possible de faire. Il suffit de voire certaines échelles de profondeur de champ complètement inutilisables.

Une image 6 MPix regardée à 100% écran aura logiquement une profondeur de champ ressentie supérieure à une image 24 MPix regardée à 100% écran.

SeRgiO_76

Bonsoir,

Citation de: olivier_aubel le Décembre 18, 2011, 13:51:29

ça devient penible !
Si vous ne connaisssez pas la définition du cercle de confusion , n'intervenez pas !


>:(

C'est ce genre d'intervention autoritaire et sans aucun fondement qui devient pénible. J'attends les sources ou un simple début d'argumentation qui t'autorisent une assurance aussi déplacée.  >:( également.

Sinon, j'ai lu avec attention le fil dont le lien a été précédemment cité et j'ai pu y découvrir tout et son contraire comme s'il existait deux écoles.
La profondeur de champ y est même associée à la taille de l'image en tant que résultat : support papier, écran ou projection. Du n'importe quoi et moi, j'étaye.
Si dans l'absolu (je sais, certains diront que ça n'existe pas en photo) une image est examinée sur un support de 30x20cm, il y a de forte chance pour qu'elle paraisse moins nette, en certains points, que si elle était présentée en format timbre poste. Et pourtant, ça n'est pas parce qu'on ferme la porte qu'il fait moins froid dehors, même si la température de l'intérieur semble plus confortable.
Un exemple, en acoustique, si vous essayez de faire la distinction entre un enregistrement dont la bande passante est de 20-20000Hz et un autre dont la bande passante est 2000-5000Hz sur un dispositif acoustique qui ne reproduit que 2000-5000Hz, je vous souhaite bien du courage. Vous n'y arriverez pas et conclurez alors qu'il est inutile d'enregistrer en 20-20000Hz, sans doute ?
Je pense que cette comparaison vous permettra de comprendre que la profondeur de champ est une notion qui touche l'originale, même si les conséquences sont minimisées par la définition du résultat et la perception de l'œil, tout simplement. Si vous décidiez de réduire la netteté systématiquement parce que votre moyen de lecture est médiocre, ça serait tout de même fort dommage car interdisant tout recadrage ou crop.
Donc, considérons maintenant la PDC au niveau de l'original et uniquement de celui-ci.

En ce qui concerne le calcul de la profondeur de champ, nous savons tous qu'il est lié à l'hyperfocale. Or, cette hyperfocale dépend des paramètres suivants : H = f² / (n x e) où f est la focale, n le nombre d'ouverture du diaphragme et e le diamètre du cercle de confusion. Tient, le voila, lui !
Ce cercle de confusion est défini comme suit :
« C'est un critère arbitraire faisant état du plus petit détail que peut observer l'œil sur un tirage observé à une distance habituelle ramené à la taille du dit détail sur le film. » Pour être arbitraire, c'est arbitraire. Pour un film 24 x 34, il avait été convenu 0,03mm ce qui correspond à un point de 0,25mm sur un tirage de 30cm de long.
Mais voila, le problème c'est que nos capteurs modernes, et leur nombre sans cesse grandissant de pixels, permettent des crops et autres recadrages. Donc, il faut ramener le cercle de confusion à ce que ce capteur est capable de discerner. Arbitraire également, je dois l'admettre. Cela donne toutefois cette considération qui semble offusquer notre ami Olivier_Aubel.

A l'attention de Verso, et à propos de cette réglette de PdC présente sur les optiques, tiens-tu compte de la marque et du modèle de tes pneus pour la pression de gonflage ? Tu me diras que ça n'a rien à voir et pourtant c'est le même principe qui consiste à négliger l'erreur lorsque les conséquences de cette dernière ne nuisent pas à la fiabilité du résultat. Je te rappelle que le cercle de confusion fait état de la netteté maximale théorique qui interviendra plus sur la partie nette que sur le flou.

Ce qui me peine un peu, c'est qu'on dit tous un peu la même chose, mais de façon très différente. Je n'ai pas la science infuse et j'ai du, comme beaucoup, investir dans de la littérature et la compulser pendant de longues heures. Mes sources, René Bouillot « La Pratique du Reflex Numérique ». Ca se situe précisément en page 293. Alors dites moi si je dois jeter ce livre à la poubelle car il est souvent cité comme une référence.

Bonne continuation,
Serge
7D 10-22/28-75/18-250/100-400

Verso92

#12
Citation de: jbk le Décembre 18, 2011, 19:17:49
Mauvais argument, les ingénieurs ne font que ce qu'il est raisonnablement possible de faire. Il suffit de voire certaines échelles de profondeur de champ complètement inutilisables.

Une image 6 MPix regardée à 100% écran aura logiquement une profondeur de champ ressentie supérieure à une image 24 MPix regardée à 100% écran.

Oui.

Et une image de 1 500 000 x 1 000 000 pixels (pour prendre un exemple volontairement extrême) aura une PdC quasi nulle observée à 100% écran, même avec un GA fermé à f/11. Tout le monde est d'accord avec ça (voir discussion donnée en lien). Sauf que la définition habituelle de la PdC, associée à un CdC, recouvre des hypothèses bien précises. D'ailleurs, tu auras remarqué que dans le cas d'une observation à 100% écran, le CdC n'a plus aucun sens, et est remplacé par le diamètre du photosite.

Parler de CdC dans ces conditions est juste un contre-sens, ce que Olivier a fait remarquer d'une façon un peu brutale...

Verso92

Citation de: SeRgiO_76 le Décembre 18, 2011, 19:34:25
En ce qui concerne le calcul de la profondeur de champ, nous savons tous qu'il est lié à l'hyperfocale. Or, cette hyperfocale dépend des paramètres suivants : H = f² / (n x e) où f est la focale, n le nombre d'ouverture du diaphragme et e le diamètre du cercle de confusion. Tient, le voila, lui !
Ce cercle de confusion est défini comme suit :
« C'est un critère arbitraire faisant état du plus petit détail que peut observer l'œil sur un tirage observé à une distance habituelle ramené à la taille du dit détail sur le film. » Pour être arbitraire, c'est arbitraire. Pour un film 24 x 34, il avait été convenu 0,03mm ce qui correspond à un point de 0,25mm sur un tirage de 30cm de long.
Mais voila, le problème c'est que nos capteurs modernes, et leur nombre sans cesse grandissant de pixels, permettent des crops et autres recadrages. Donc, il faut ramener le cercle de confusion à ce que ce capteur est capable de discerner. Arbitraire également, je dois l'admettre.

C'est de là que vient ton erreur : le CdC est déterminé en fonction de certaines hypothèses, qui font appel, c'est vrai (personne n'a jamais dit le contraire) à une dose d'arbitraire. Mais, une fois admises les hypothèses, en tant que tel, il recouvre une notion très précise. D'ailleurs, la définition que tu cites ne dit pas autre chose...

Dans le cas d'une observation 100% écran, il n'y a plus d'arbitraire qui tienne : c'est le diamètre du photosite qui entre en compte. Et lui, il est tout, sauf arbitraire !

Tout au plus peut-on se fonder sur une discrimination qui prendra en compte un pixel (le point élémentaire image) ou deux pixels (Shannon). CMP propose pour sa part 1,5 pixel...
Les échelles de PdC figurant sur les objectifs recouvrent pour leur part les notions de PdC qui s'appuie sur le CdC. Pas sur la visualisation 100% écran, chère à certains ici...

Verso92

#14
Citation de: VCR le Décembre 18, 2011, 19:50:47
Si je comprends bien, le CdC d'un même optique ne sera pas tout à fait le même selon qu'on monte l'optique sur un boitier argentique ou numérique et, sur un boitier numérique, le calcul sera influencé par le nombre de photosites au centimètre carré ?
C'est une ânerie ou c'est bien ça ?

Le CdC, c'est toi qui va le définir, au bout du compte (pour un 24x36, tu vas prendre 0,03, 0,025 ou 0,02mm suivant ton degré d'exigence et tes conditions d'observation). Il sera le même que le capteur soit un 6 MPixels ou un 24... par contre, la PdC entre deux images issues de ces deux appareils ne sera pas la même si la photo est observée à 100% écran.
D'ailleurs, j'ai un peu de mal à comprendre cette confusion depuis le numérique. Pour un tirage argentique 30x40 réalisé à partir d'une TP2415, un CdC compris entre 0,02 et 0,03mm donnait la PdC exploitable sur le tirage observé à une distance donnée. Par contre, cette pellicule passant jusqu'à 200 pdl/mm, il est bien évident qu'une observation de la pellicule à la loupe x10 ne donnait pas la même PdC que le tirage. Par contre, à l'époque, personne ne soulevait ce point...

SeRgiO_76

Citation de: Verso92 le Décembre 18, 2011, 19:54:26
Le CdC, c'est toi qui va le définir, au bout du compte (pour un 24x36, tu vas prendre 0,03, 0,025 ou 0,02mm suivant ton degré d'exigence et tes conditions d'observation). Il sera le même que le capteur soit un 6 MPixels ou un 24... par contre, la PdC entre deux images issues de ces deux appareils ne sera pas la même si la photo est observée à 100% écran.

Finalement, c'est pas plus mal résumé comme ça !  ;)  :D
Et comme je le disais, le CdC aurait tendance à intervenir plus sur le net que sur le flou, non ?

Merci Verso,  ;)
Bonne continuation,
Serge
7D 10-22/28-75/18-250/100-400

Verso92

Citation de: SeRgiO_76 le Décembre 18, 2011, 19:34:25
En ce qui concerne le calcul de la profondeur de champ, nous savons tous qu'il est lié à l'hyperfocale.

Petite remarque : l'hyperfocale, c'est juste la distance pour laquelle la PdC est maximale...

jbk

#17
Citation de: Verso92 le Décembre 18, 2011, 19:40:03
Oui.

Et une image de 1 500 000 x 1 000 000 pixels (pour prendre un exemple volontairement extrême) aura une PdC quasi nulle observée à 100% écran, même avec un GA fermé à f/11. Tout le monde est d'accord avec ça (voir discussion donnée en lien). Sauf que la définition habituelle de la PdC, associée à un CdC, recouvre des hypothèses bien précises. D'ailleurs, tu auras remarqué que dans le cas d'une observation à 100% écran, le CdC n'a plus aucun sens, et est remplacé par le diamètre du photosite.

Parler de CdC dans ces conditions est juste un contre-sens, ce que Olivier a fait remarquer d'une façon un peu brutale...

Oui, je suis ok sur le fond, il faut distinguer les causes de flou (ici résolution et profondeur de champ)...

Sinon une petite nuance, je pense que prendre le diamètre du photosite est trop optimiste, sachant qu'avec une matrice de Bayer il en faut trois pour former un pixel, et qu'il y a un filtre AA.

seba

Citation de: jbk le Décembre 18, 2011, 20:33:14
Sinon une petite nuance, je pense que prendre le diamètre du photosite est trop optimiste, sachant qu'avec une matrice de Bayer il en faut trois pour former un pixel, et qu'il y a un filtre AA.

Pourquoi trois ?

Verso92

Citation de: jbk le Décembre 18, 2011, 20:33:14
Sinon une petite nuance, je pense que prendre le diamètre du photosite est trop optimiste, sachant qu'avec une matrice de Bayer il en faut trois pour former un pixel, et qu'il y a un filtre AA.

Pas d'accord : la matrice de Bayer n'introduit d'interpolation que sur la chrominance, pas sur la luminance. Et quand on voit le massacre qu'introduisent sur la chrominance les algorithmes Jpeg (en théorie) sans que cela se voit particulièrement sur l'image finale...
(et puis, comme sous-entendu par seba, en ce qui concerne la chrominance, ce n'est pas trois, mais beaucoup plus !)

Verso92

Citation de: VCR le Décembre 18, 2011, 20:50:52
Merci, Verso, je retiens que le CdC ne doit pas non plus être confondu avec le diamètre du diaphragme au point nodal qui, en fonction de la longueur focale, détermine seul la profondeur de champ.
Tout le reste n'est donc qu'appréciation personnelle, influencé par la distance d'observation ?

Plus précisément, on va dire que des mecs velus se sont penchés sur la question il y a bien longtemps, en prenant tout un tas d'hypothèses.

Celles concernant la résolution angulaire de l'œil sont toujours valables, j'imagine. Par contre, les pellicules ayant fait des progrès depuis ce temps (et à plus forte raison les capteurs numériques), je pars du principe qu'il vaut mieux prendre un ou deux crans de marge par rapport à leur calculs...
(en argentique, je me mettais à f/11 pour une hyperfocale à f/8, soit un cran de marge. En numérique, je prends deux crans de marge. Mais ce n'est que mon retour d'expérience, à affiner en fonction des critères et exigences de chacun...)

jbk

Citation de: Verso92 le Décembre 18, 2011, 20:45:41
Pas d'accord : la matrice de Bayer n'introduit d'interpolation que sur la chrominance, pas sur la luminance. Et quand on voit le massacre qu'introduisent sur la chrominance les algorithmes Jpeg (en théorie) sans que cela se voit particulièrement sur l'image finale...
(et puis, comme sous-entendu par seba, en ce qui concerne la chrominance, ce n'est pas trois, mais beaucoup plus !)

En touchant à la chrominance, on touche au pixel. Si tel photosite concerne une couche donnée R, V ou B, aucun des photosites adjacents ne donne d'info chromatique sur cette même couche.

Sinon effectivement, j'ai trop simplifié la situation en disant que trois photosites permettaient de former un pixel.  ;D
Mais dans ton post, tu faisais l'équivalence 1 pixel en 100% écran <-> 1 photosite, ce qui est faux pour les cas autres que le Foveon. C'est plus complexe que cela.

gerarto

Citation de: jbk le Décembre 18, 2011, 21:05:44
...
Mais dans ton post, tu faisais l'équivalence 1 pixel en 100% écran <-> 1 photosite, ce qui est faux pour les cas autres que le Foveon. C'est plus complexe que cela.

Et bien oui, pour moi aussi, un pixel "au final" = 1 photosite, avec une luminance exacte et une chrominance qui peut être exacte ou approchée*.
* dans la pratique, si ce n'était pas réellement très proche de l'exact, il y a longtemps qu'on s'en serait rendu compte

Jusqu'à preuve du contraire un capteur de 12 millions de photosites donne bien des fichiers de 12 millions de pixels...

Verso92

Citation de: jbk le Décembre 18, 2011, 21:05:44
En touchant à la chrominance, on touche au pixel. Si tel photosite concerne une couche donnée R, V ou B, aucun des photosites adjacents ne donne d'info chromatique sur cette même couche.

Sinon effectivement, j'ai trop simplifié la situation en disant que trois photosites permettaient de former un pixel.  ;D
Mais dans ton post, tu faisais l'équivalence 1 pixel en 100% écran <-> 1 photosite, ce qui est faux pour les cas autres que le Foveon. C'est plus complexe que cela.

Ne sois pas inquiet : j'ai (du moins, je pense) une assez bonne compréhension de ce qu'il y a derrière Bayer, Foveon, etc. Cela n'intervient pas plus que ça (ou alors de façon tellement marginale et insignifiante que ça ne vaut pas le coup de faire plus de chichis que ça !) dans ce qui nous préoccupe ici...

jbk

Citation de: gerarto le Décembre 18, 2011, 21:30:24
Et bien oui, pour moi aussi, un pixel "au final" = 1 photosite, avec une luminance exacte et une chrominance qui peut être exacte ou approchée*.
* dans la pratique, si ce n'était pas réellement très proche de l'exact, il y a longtemps qu'on s'en serait rendu compte

Jusqu'à preuve du contraire un capteur de 12 millions de photosites donne bien des fichiers de 12 millions de pixels...

Oui, c'est ce "approché" que je soulevais... J'arrête ici le HS.  ;D