capteur full frame et importance sur la pdc

Démarré par vonncor, Septembre 29, 2012, 20:18:39

« précédent - suivant »

vonncor

Bonsoir tout le monde,
Voila dans le cadre de ma licence en électronique je dois préparer un article sur les capteurs des APN. J'aimerais intégré dans cet article l'importance de la taille du capteur sur le rendu photographique. J'ai déja réussi à expliquer les avantage du full frame sur le bruit aux différentes sensibilité mais je n'arrive pas à comprendre le rapport entre la taille du capteur et la profondeur de champs...quelqu'un pourrait il me l'expliquer ? 
Merci d'avance

PS: mise à part sur le bruit et sur la pdc, existe t'il d'autre avantage à avoir un grand capteur ? (outre le facteur pour les focales )

Verso92

La PdC ne dépend en gros que de deux paramètres : l'ouverture et le rapport de grandissement*.
Plus ton format sera grand, plus le rapport de grandissement par rapport au sujet sera élevé à cadrage constant --> CQFD !

*plus le rapport de grandissement est élevé, plus la PdC sera faible, tous autres paramètres étant égaux par ailleurs. Je laisse les matheux développer d'avantage.

vonncor

merci Verso pour cette réponse aussi rapide, je me rend compte que je n'i pas encore entendu parler de ce rapport de grandissement ( fin je crois du moins) mais ton explication m'aide déjà à savoir d'ou vient ce phénomène :) ; mise au part les avantage cité ci-dessus ( moins de bruit, pdc plus faible aux grandes ouvertures) il existe t'il d'autre avantages ?


Verso92

Citation de: vonncor le Septembre 29, 2012, 21:12:07
mise au part les avantage cité ci-dessus ( moins de bruit, pdc plus faible aux grandes ouvertures) il existe t'il d'autre avantages ?

Les avantages sur le bruit sont à prendre avec des pincettes : en principe, on peut penser qu'à définition égale, un capteur 24x36 aura toutes les chances d'être moins bruité qu'un capteur APS-C, grâce à ses photosites plus gros. Mais les évolutions technologiques vont si vite qu'il est difficile d'établir des comparatifs précis, faute d'avoir des capteurs rigoureusement comparables en technologie...
Un point souvent cité, c'est la meilleure progressivité des flous avec les capteurs grands formats...

vonncor

ton regard critique sur cet "avantage " sur le bruit est très intéressant,j'avoue qu'avec on jeune age je n'ai pas encore le recul nécessaire à avoir un tel regard..les retours d'expérience m'intéresse donc particulièrement , merci !
C'est comme les capteurs foveon , il me semble qu'un test CI était assez critique sur cette technologie..malgré les avantages prôner par ses fabricants

chelmimage

L'expliquer je ne sais pas, mais si on regarde les formules (cf wikipedia) on voit que la profondeur de champ dépend de la caractéristique H qu'on appelle l'hyperfocale.
La profondeur de champ est liée à cette valeur. Plus H est petit et plus la profondeur de champ est grande.
Si CdC= cercle de confusion.
Or Hyperfocale= (Focale)²/ (ouverture)*CdC
Pour faire une même photo (même cadrage) avec des capteurs de formats différents, focale, dimension du capteur, et donc dimension du CdC sont proportionnels à la dimension du capteur.
Dans la formule de H, en simplifiant, il vient que l' Hyperfocale est directement proportionnelle à la focale et donc à la dimension du capteur.
Donc, plus le capteur est grand, plus H est grand et plus la profondeur de champ est petite.
Je fais cet exercice sans vérification mais je compte sur toi pour le valider!! ;) ;) ;) ;)
Qu'en penses tu?

Verso92

Citation de: chelmimage le Septembre 29, 2012, 22:06:13
L'expliquer je ne sais pas [...]

C'est extrêmement simple et factuel (voir mon premier post) : rapport de grandissement, tout est là !
Ton approche via l'hyperfocale, mais si pas fausse, n'est qu'une conséquence, pas la cause...

vonncor

merci les gars :) , vu l'heure et la fatigue de ma journée je vais regarder ça demain matin bien tranquillement ;) je suis bien content d'être à ce point chanceux : le sujet de ce projet de groupe est imposé et cette année c'est l'APN.  Non seulement j'ai déja un pied d'amateur dans le milieux mais en plus ça m'intéresse vraiment, par exemple j'ai appris que le nombre des pixels d'un capteur est souvent sujet à controverse car ce sont en réalité des pixels fictifs ( obtention d'un pixel par corrélation de plusieurs photosites). Je comprends un peu mieux le prix des reflex maintenant ;D

bp30700

Je crains qu'à focale et ouverture égale la profondeur de champ est constante.

Verso92

Citation de: vonncor le Septembre 29, 2012, 23:04:27
[...] par exemple j'ai appris que le nombre des pixels d'un capteur est souvent sujet à controverse car ce sont en réalité des pixels fictifs ( obtention d'un pixel par corrélation de plusieurs photosites).

Il n'y a pas de pixels fictifs sur les reflex (sauf, à la limite, ceux disposés à la périphérie du cadre pour "caler le noir").
Il y a certainement une confusion avec les "valeurs couleurs" attribuées à chaque pixel : sur un capteur de type "Bayer", chaque pixel est filtré soit en rouge, soit en vert, soit en bleu. Il n'enregistre donc de valeur que pour un seul canal (une seule couleur).

Les deux valeurs "manquantes" de chaque pixel sont calculées par interpolation en fonction des valeurs enregistrées par les pixels voisins. Par exemple, un pixel vert enregistre une vraie valeur pour le vert, mais la valeur du rouge sera calculée en fonction des valeurs enregistrées par les pixels rouges voisins. Idem pour le bleu. Etc.
Seule exception : le Foveon, qui enregistre pour chaque pixel les trois couleurs (trois photosites par pixel, en fait).

Verso92

Citation de: bp30700 le Septembre 29, 2012, 23:27:15
Je crains qu'à focale et ouverture égale la profondeur de champ est constante.

Non.
(si tu veux faire intervenir la focale, il faut obligatoirement lui associer la distance de PdV. Soit le rapport de grandissement, au bout du compte...)

vonncor

Citation de: Verso92 le Septembre 29, 2012, 23:30:53
Il n'y a pas de pixels fictifs sur les reflex (sauf, à la limite, ceux disposés à la périphérie du cadre pour "caler le noir").
Il y a certainement une confusion avec les "valeurs couleurs" attribuées à chaque pixel : sur un capteur de type "Bayer", chaque pixel est filtré soit en rouge, soit en vert, soit en bleu. Il n'enregistre donc de valeur que pour un seul canal (une seule couleur).

Les deux valeurs "manquantes" de chaque pixel sont calculées par interpolation en fonction des valeurs enregistrées par les pixels voisins. Par exemple, un pixel vert enregistre une vraie valeur pour le vert, mais la valeur du rouge sera calculée en fonction des valeurs enregistrées par les pixels rouges voisins. Idem pour le bleu. Etc.
Seule exception : le Foveon, qui enregistre pour chaque pixel les trois couleurs (trois photosites par pixel, en fait).
ouais c'est pas tout a fait ce que j'avais lu ;D pour l'interpolation je saisis mieux le principe du pixel, mais du coup les pixel situé sur les bord sont eux fictifs puisque pour réaliser une interpolation précise je suppose que l'on garde un peu de marge ( si on calcule l'interpolation alors que le pixel n'a que 2 voisin au lieu de 4 c'estt pas fiable je me trompe ? )
Pour le foveon j'avais lu le truc étonnant ( et qui m'a laisser un peu perplexe...) comme quoi la technologie foveon permettrait d'obtenir plus de pixel du fait des trois couches superposées... d'ailleurs je trouve le principe du foveon intéressant car si l'on supprime deux filtres ( bayer et passe bas) tout en évitant les phénomènes de moiré on devrait gagnant sur toutes la ligne....

Verso92

Citation de: vonncor le Septembre 29, 2012, 23:41:47
ouais c'est pas tout a fait ce que j'avais lu ;D pour l'interpolation je saisis mieux le principe du pixel, mais du coup les pixel situé sur les bord sont eux fictifs puisque pour réaliser une interpolation précise je suppose que l'on garde un peu de marge ( si on calcule l'interpolation alors que le pixel n'a que 2 voisin au lieu de 4 c'estt pas fiable je me trompe ? )
Pour le foveon j'avais lu le truc étonnant ( et qui m'a laisser un peu perplexe...) comme quoi la technologie foveon permettrait d'obtenir plus de pixel du fait des trois couches superposées... d'ailleurs je trouve le principe du foveon intéressant car si l'on supprime deux filtres ( bayer et passe bas) tout en évitant les phénomènes de moiré on devrait gagnant sur toutes la ligne....

Il faut absolument que tu reprennes les bases pour éviter de tout mélanger (car les choses sont simples, au bout du compte).
Le pixel, c'est l'élément indivisible d'une image (c'est la contraction de Picture Element). Il n'a pas de grandeur physique, en quelque sorte...

Le photosite, c'est le composant électronique qui va capturer les photons.
En résumé, pour un capteur de type "Bayer", il y a un photosite par pixel (chaque pixel n'enregistre qu'une couleur, comme expliqué précédemment). D'où l'interpolation ("chromatique") des deux couleurs manquantes pour chaque pixel.

Pour le Foveon, il y a trois photosites par pixel* (disposés en profondeur dans le silicium, un peu à la façon d'une pellicule couleur "argentique"). Chaque photosite enregistre une couleur. Pas d'interpolation chromatique, donc, dans ce cas.

*la com' Sigma ne facilite pas les choses en enduisant en erreur le lecteur en parlant de 45 MPixels pour les SD1 ou DPxm, alors qu'il s'agit de 45 millions de photosites (15 MPixels)...

Verso92

#13
En ce qui concerne le moiré, il ne faut pas tout confondre non plus : le Foveon n'a pas de moiré en chrominance, grâce à l'absence d'interpolation des couleurs, entre autre. Mais il est sensible au moiré en luminance* (il n'échappe pas à Nyquist !).
Le capteur "Bayer" est sensible au moiré, notamment de chrominance. Mais tu auras noté que plusieurs appareils de ce type ne sont pas dotés de filtre AA...
Un peu de lecture ici :
http://www.chassimages.com/forum/index.php/topic,101232.msg1776563.html#msg1776563
*ci-dessous une photo réalisé au Sigma DP1 doté du capteur Foveon, montrant le moiré en luminance :

seba

Pour ce qui est de la profondeur de champ, on peut retenir qu'à angle de champ égal, la profondeur de champ sera la même quel que soit le format pourvu que le diamètre de la pupille d'entrée soit le même.

Verso92

Citation de: seba le Septembre 30, 2012, 00:14:44
Pour ce qui est de la profondeur de champ, on peut retenir qu'à angle de champ égal, la profondeur de champ sera la même quel que soit le format pourvu que le diamètre de la pupille d'entrée soit le même.

Là, c'est tout de suite plus clair !

;-)

vonncor

C'est pas ma faute si le document que j'ai lu expliquer la choses différemment ;D ( tout du moins de la manière dont je l'ai compris)
Le photosite n'est pas le composant en revanche..c'est un terme que l'on utilise pour parler du système micro-lentille_filtre bayer_photodiode , fin c'est la manière dont je l'ai compris ( la photodiode etant le composant permettant la conversion photon-electron)
Pour le foveon j'avais aussi vu cette histoire des 45 MP mais l'article disait qu'en réalité le nombre de pixel était plus proche de 15MP que des 45...le problèmes d'un capteur foveon c'est des dérives chromatiques ? ( je ne me souviens plus du rapport de CI à ce sujet)
Je n'avais pas entendu parler du moiré de luminance...encore un point à éclaircir ; pour le bruit de chrominance j'ai saisis son origine et les histoires de l'impact d'un filtre AA sur le rendu ( légère perte de piqué et de définition) comme entre le d800 et d800E

Verso92

#17
Citation de: vonncor le Septembre 30, 2012, 00:18:24
Le photosite n'est pas le composant en revanche..c'est un terme que l'on utilise pour parler du système micro-lentille_filtre bayer_photodiode , fin c'est la manière dont je l'ai compris ( la photodiode etant le composant permettant la conversion photon-electron)

Oui, tout à fait : je simplifiais à l'extrême (trop ?) pour simplifier la lecture, mais la définition que tu cites est plus précise.
Mon but était de décorréler clairement l'entité "physique" (le photosite) de l'entité "logique", si l'on peut dire (le pixel)...
Citation de: vonncor le Septembre 30, 2012, 00:18:24
Pour le foveon j'avais aussi vu cette histoire des 45 MP mais l'article disait qu'en réalité le nombre de pixel était plus proche de 15MP que des 45...

Le Foveon, c'est très précisément 15 MPixels et 15 x 3 = 45 millions de photosites.
Citation de: vonncor le Septembre 30, 2012, 00:18:24
le problèmes d'un capteur foveon c'est des dérives chromatiques ? ( je ne me souviens plus du rapport de CI à ce sujet)

Il semblerait que le capteur Foveon ait des problèmes pour maintenir la cohérence des couleurs quand on monte en sensibilité...
Citation de: vonncor le Septembre 30, 2012, 00:18:24
Je n'avais pas entendu parler du moiré de luminance...encore un point à éclaircir ;

C'est le plus simple à appréhender... ci-dessous, exit la chrominance (cas N&B) !

Tiré du fil Sigma que je t'ai mis en lien plus haut :
Un petit dessin (un bitmap !) valant mieux qu'un long discours, je me suis fendu d'une petite illustration (pas sympa, Olivier, de me faire travailler après le boulot !  ;-) :

- Cas 1 : le sujet a une fréquence spatiale correspondant à la moitié de la fréquence d'échantillonnage du capteur (sa définition). Tout se passe bien (c'est la limite haute : f sujet = f ech / 2).

- Cas 2 : la fréquence spatiale du sujet dépasse de 50% la fréquence de Nyquist... cela commence à se dégrader sérieusement !

- Cas 3 : le sujet a une fréquence double de celle d'échantillonnage : c'est la Bérézina !

vonncor

oui je vois ou tu veux en venir , définition du pixel n'etait pas clair avant que tu me le re précise ;) merci Verso
Mis a part sgma , d'autre marque utilise le principe foveon ?

Verso92

Citation de: vonncor le Septembre 30, 2012, 00:26:09
Mis a part sgma , d'autre marque utilise le principe foveon ?

Non.
D'ailleurs, Sigma a racheté la société ayant créé le Foveon il y a quelques années...

vonncor

 et saurais tu si le filtre crée par kodak ( avec des pixels chargés de la couleurs comme bayer mais en intégrant d'autre pixel chargé de mesurer la lumière "brute" ) je ne sais plus le nom exact du procédé..

Verso92

Citation de: vonncor le Septembre 30, 2012, 00:38:56
et saurais tu si le filtre crée par kodak ( avec des pixels chargés de la couleurs comme bayer mais en intégrant d'autre pixel chargé de mesurer la lumière "brute" ) je ne sais plus le nom exact du procédé..

Là, non, je ne connais pas...

vonncor


chelmimage

Citation de: vonncor le Septembre 29, 2012, 20:18:39
mais je n'arrive pas à comprendre le rapport entre la taille du capteur et la profondeur de champs...quelqu'un pourrait il me l'expliquer ? 
Merci d'avance
PS: mise à part sur le bruit et sur la pdc, existe t'il d'autre avantage à avoir un grand capteur ? (outre le facteur pour les focales )
Il faut décomposer le raisonnement en 2 étapes:
Il faut déjà bien comprendre ce qu'est la profondeur de champ sur une photo et de quoi elle dépend.
Ensuite l'influence de la dimension du capteur en découle naturellement.

Alain-P

Peut-être à voir si pas déjà fait les excellents articles sur le sujet de la PdC sur http://www.galerie-photo.co/technique.html

Perpétuel insatisfait.....

vonncor

Merci les gars pour toutes ces précisions et ces liens, je vais tacher de comprendre tout ça :)

fhi

vonncor je te joins un lien bien sympa qui "vulgarise" avec intelligence une partie de la problématique APS vs FF sur la base des surfaces des capteurs Canon... Bon courage quand même quand le moment sera venu de creuser le sujet ;D
http://www.blog-couleur.com/?Quelle-est-la-vraie-difference
¯\_(ツ)_/¯

vonncor

Merci fhi , je viens d'y jeter un coup d'oeil et l'article à l'air facile à lire et à comprendre...bon je t'avoue que vu l'heure je préfère aller dormir mais j'étudierais tout ça dan la semaine ;)

michelrogg

Bonjour,

PdC = profondeur de champ
A = ouverture
C = cercle de confusion
D = distance entre le sujet et le capteur
F = focale

PdC = 2*A*C*(D / F)^2

Précisions:
A: utiliser le dénominateur, par exemple pour 1:2.8 utiliser 2,8
C: Le cercle de confusion dépend de la taille du capteur. Pour un FF, C = 0,03 mm. Pour un aps-c Nikon, C = 0,02 mm. Pour un aps-c
Canon, C = 0,019 mm.
D: convertir la distance en mm
F: Utiliser la focale réelle, indiquée sur l'objectif, et pas un "équivalent 24*36".

Exemple avec un Canon aps-c, objectif 50mm, à 1:4, sujet à 4 m.

PdC = 2 * 4 * 0,019 * (4000/50)^2 = 973 mm donc environ 1 m.

On garde tout et on prend un boitier FF.

PdC = 2 * 4 *0,03 * (4000/50)^2 = 1536 mm donc environ 1,5 m.

Oui, la profondeur de champ est PLUS GRANDE avec un FF si tous les paramètres sont les mêmes.
Mais, pour avoir un cadrage équivalent, il faut soit augmenter la focale, soit diminuer la distance !
Pour compenser le "crop factor" de 1,6 il faut diviser la distance par 1,6 et passer de 4 m à 2,5 m.

PdC = 2 * 4 * 0,03 * (2500/50)^2 = 600 mm donc 60 cm

On obtient le même résultat en restant à 4 m et en montant un objectif de 50*1,6 = 80 mm.

PdC = 2 * 4 * 0,03 * (4000/80)^2 = 600 mm

Le FF donne donc une profondeur de champ plus petite que l'aps-c à cadrage équivalent.

Pour aller plus vite: www.dofmaster.com (il y a aussi une appli pour iPhone).


Jean-Claude

Monsieur michelrogg , un cercle de confusion de 0,03mm correspond à 6 pixels de D800 !!!!

Le cercle de confusion n'est pas une grandeur physique d'une taille de capteur, mais une tolérance personnelle que l'on se fixe librement en fonction de la taille de tirage, de la distance d'observation et des détails les plus fins que l'on souhaite distinguer dans ces conditions. La taille de capteur ne joue que par rapport au rapport d'agrandissement du tirage final. Il faut évidemment que le capteur ne soit pas plus grossier que le cercle souhaité.

Une image de D800 correspond une fois mise à niveau et rognée à du A3+ en résolution native d'une imprimante Epson Pro !

Les formule de "calcul" de profondeur de champs publiées ne donnent qu'une approximation de ce que l'on voit. Cette approximation grossière pour des formules optiques complexes modernes.

wll92

Vonncor,
Sans m'imicer dans le débat technique, auquel je n'apporterai pas grand chose, je m'interroge sur ton étude.
J'ai lu que tu étudies l'électronique, hors ta question repose sur l'optique. Que ta quête t'entraîne vers ce sujet, c'est bien, mais Je me méfierai du hors sujet. (ton point sur le bruit, les différents capteurs, sont quant à eux bien dans le scope).
Mais je présume que tu as veillé à cela auprès de ton "donneur d'ordre"?

Amicalement
Wll

vonncor

Citation de: wll92 le Octobre 14, 2012, 13:27:34
Vonncor,
Sans m'imicer dans le débat technique, auquel je n'apporterai pas grand chose, je m'interroge sur ton étude.
J'ai lu que tu étudies l'électronique, hors ta question repose sur l'optique. Que ta quête t'entraîne vers ce sujet, c'est bien, mais Je me méfierai du hors sujet. (ton point sur le bruit, les différents capteurs, sont quant à eux bien dans le scope).
Mais je présume que tu as veillé à cela auprès de ton "donneur d'ordre"?

Amicalement
Wll
effectivement tu as raison , c'est pour ça que je suis aller lui en parler des la présentation du sujet ;) L'etude que j'effectue repose principalement sur électronique du capteur ( bruit, sensibilité etc...).
Ce projet consiste à écrire un article dans une sorte de wikipédia universitaire dédié à l'université de Caen. Afin de rendre ça plus concret j'ai décider d'inclure dans cet article les conséquences du choix d'un capteur sur le rendu d'une image, car en somme c'est la finalité d'un appareil photo. La ou tu as raison c'est que je ne pense pas m'étendre sur les formules géométriques mais seulement préciser que le choix de la taille d'un capteur ne s'effectue pas seulement sur ses propriété électronique. Cela permet de répondre à la question : pourquoi utilise t'on des petits capteurs si les grands sont mieux ? ( petit capteur= objectif plus compact etc..) mais je ne rentrerai pas dans le détail :)

PS : un connaisseur serait-il prêt à lire l'article pour me dire sur quels points je me suis trompé ? ( vonncor [at] live.fr ...) merci d'avance à celui ou ceux qui accepterai de me rendre ce service :)

wll92

Je ne suis pas le bon interlocuteur à même d'avoir une expertise critique.

Tous mes voeux t'accompagne

Wll

vonncor

Citation de: wll92 le Octobre 14, 2012, 16:18:58
Je ne suis pas le bon interlocuteur à même d'avoir une expertise critique.

Tous mes voeux t'accompagne

Wll
quand je dis électronique c'est un peu exagéré...l'article étant destiné aux scientifiques en général, il n'aborde que les principe généraux des capteurs ( pas d'équations ni de notions poussés en électronique ) m'enfin je ne veux obliger personne ;) :)

chelmimage


JP64

Citation de: Jean-Claude le Octobre 09, 2012, 22:48:44
Monsieur michelrogg , un cercle de confusion de 0,03mm correspond à 6 pixels de D800 !!!!

Le cercle de confusion n'est pas une grandeur physique d'une taille de capteur, mais une tolérance personnelle que l'on se fixe librement en fonction de la taille de tirage, de la distance d'observation et des détails les plus fins que l'on souhaite distinguer dans ces conditions. La taille de capteur ne joue que par rapport au rapport d'agrandissement du tirage final. Il faut évidemment que le capteur ne soit pas plus grossier que le cercle souhaité.

Une image de D800 correspond une fois mise à niveau et rognée à du A3+ en résolution native d'une imprimante Epson Pro !

Les formule de "calcul" de profondeur de champs publiées ne donnent qu'une approximation de ce que l'on voit. Cette approximation grossière pour des formules optiques complexes modernes.
Tu as parfaitement raison, la taille du capteur n'est pas le seul paramètre pour déterminer la sensation de profondeur de champ sur un observateur de photo.  Mais la formule de "michelrogg" indique l'influence des paramètres, ouverture, distance, distance focale (conséquence de la taille du capteur et du cadrage choisi par le photographe), toutes choses égales par ailleurs, en particulier la formule optique (sur laquelle il est difficile d'agir), la taille du tirage et la distance d'observation de la photo.
Cumulard con&goujat à la fois

vonncor


Jean-Claude Gelbard

Il y a un article très documenté sur la question dans Wikipedia :

http://fr.wikipedia.org/wiki/Profondeur_de_champ

mais je crois que leur définition :

"Pour un capteur donné, la profondeur de champ ne dépend que de la focale (f), de l'ouverture du diaphragme (N), et de la distance de mise au point (D)"

est incomplète ; il manque ce qu'on appelle le "cercle de diffusion" ou "de confusion", c'est-à-dire le diamètre du cercle que l'on peut considérer comme étant un point net. En général, on prend 1/50è de mm, mais si l'on choisit un cercle plus grand, la profondeur de champ sera évidemment plus importante...

Je dirais que le cercle de confusion est un cercle ROUGE ! Rouge de confusion...
Bon, je sors.

jac70

Chaque fois qu'il y a un sujet sur la profondeur de champ comparée entre APS-C et FF, je balance cette synthèse :
Elle ne vient pas de moi, mais de gerarto, et je la trouve excellente !

- Pour une même distance de MaP, même focale (donc cadrage différent) et même ouverture, la profondeur de champ est plus importante en FF qu'en APS-C : la seule variable est le cercle de confusion.
- Pour une même distance de MaP, même cadrage (donc focales différentes) et même ouverture, la profondeur de champ est plus importante en APS-C qu'en FF : l'incidence de la focale est plus importante que celle du cercle de confusion.
- Pour une même distance de MaP, même cadrage (donc focales différentes) la profondeur de champ en FF est sensiblement identique à celle de l'APS-C lorsque l'on ferme d'environ 1,3 diaph. Par exemple f/4 à f/4.5 en FF pour f/2.8 en APS-C.

Jacques

chelmimage

Citation de: jac70 le Octobre 22, 2012, 07:02:10
- Pour une même distance de MaP, même cadrage (donc focales différentes) la profondeur de champ en FF est sensiblement identique à celle de l'APS-C lorsque l'on ferme d'environ 1,3 diaph. Par exemple f/4 à f/4.5 en FF pour f/2.8 en APS-C.

Jacques
Je pense que plus précisément ça doit correspondre à la racine carré du rapport* des formats FX/DX (*1,6 pour canon, 1,5 pour Nikon)

LPEF

Citation de: chelmimage le Octobre 22, 2012, 08:48:42
Je pense que plus précisément ça doit correspondre à la racine carré du rapport* des formats FX/DX (*1,6 pour canon, 1,5 pour Nikon)
pas vraiment: à une même distance d de MAP, avec une focale de longueur f/k, et un crop factor k il faut ouvrir à N'=N.(d-f)/(kd-f) pour avoir la même pdc qu'en ouvrant à N avec une focale f en full frame.
si d est très grand devant f on simplifie: N'=N/k

cela correspond à fermer de ln(k)/ln(2^0.5) diaph

avec k=1.5 ça fait 1.17 diaph, avec k=1.6 ça fait 1.36 diaph
(avec k^0.5 on trouve 1.22 pour k=1.5 et 1.26 pour k=1.6)

LPEF

enfin, c'est juste histoire de faire des maths, on ne s'en sert pas tous les matins..

chelmimage

Citation de: LPEF le Octobre 23, 2012, 12:21:02
pas vraiment: à une même distance d de MAP, avec une focale de longueur f/k, et un crop factor k il faut ouvrir à N'=N.(d-f)/(kd-f) pour avoir la même pdc qu'en ouvrant à N avec une focale f en full frame.
si d est très grand devant f on simplifie: N'=N/k

cela correspond à fermer de ln(k)/ln(2^0.5) diaph

avec k=1.5 ça fait 1.17 diaph, avec k=1.6 ça fait 1.36 diaph
(avec k^0.5 on trouve 1.22 pour k=1.5 et 1.26 pour k=1.6)
Merci pour ces précisions..Mon pifomètre m'a jouer un tour..! ;D ;D ;D

Somedays

Citation de: LPEF le Octobre 23, 2012, 12:21:02
pas vraiment: à une même distance d de MAP, avec une focale de longueur f/k, et un crop factor k il faut ouvrir à N'=N.(d-f)/(kd-f) pour avoir la même pdc qu'en ouvrant à N avec une focale f en full frame.
si d est très grand devant f on simplifie: N'=N/k

cela correspond à fermer de ln(k)/ln(2^0.5) diaph

avec k=1.5 ça fait 1.17 diaph, avec k=1.6 ça fait 1.36 diaph
(avec k^0.5 on trouve 1.22 pour k=1.5 et 1.26 pour k=1.6)
Ça fait aussi un décalage d'environ -2.89*ln(k) diaphs pour passer du capteur 24x36 de référence au capteur de facteur k, et retrouver la même PdC.

C'est la même chose mais c'est plus joli. ;D

Somedays

Citation de: LPEF le Octobre 23, 2012, 12:22:01
enfin, c'est juste histoire de faire des maths, on ne s'en sert pas tous les matins..

Au rythme d'apparition des différents formats de capteurs...Presque. ;)