Objectifs très ouverts et capteurs numériques pleins de pixels : hum?

Démarré par Powerdoc, Octobre 28, 2010, 21:52:23

« précédent - suivant »

jesson

Effectivement, je n'ai pas de crantage f1.4.


jesson

Voici donc un petit essai avec f 2.8 (pour me caler) ; f2 ; f1.4 (estimé) et f1.2 (en butée).
Avec comme progression de vitesses 1/50s ; 1/100s; 1/200s et 1/320s pour finir (je n'ai pas 1/300s sur le 5D2)

J'ai utilisé une surface claire (un radiateur) pour apprécier le vignettage et une charte de gris 18 au centre pour apprécier la réalité de l'ouverture.

Voilà voilà  ;)

jesson


xcomm

Citation de: Caton le Novembre 20, 2010, 20:32:15XComm, au contraire, les objectifs "analogiques" ancienne manière disposent quasiment d'un réglage continu si on n'est pas manchot et qu'on sait tourner la bague de diaph sans se laisser impressionner par les crantages mécaniques.
Bonjour,

Oui, en théorie, mais comme la répétabilité de la précision d'ouverture du diaph sur ces objectifs n'a jamais été d'une fiabilité absolue...
Par chance, les problèmes étaient plus présent aux petites ouvertures.

Bonne journée.
Xavier
OM-Sys E-5 E-M1X E-M10III 1s

Caton

Tu as mille fois raison concernant la répétabilité.

Mais ici, on s'en fiche : ce qui est important est de balayer une seule fois le tout petit espace séparant f/2 de f/1,2 avec le max de positions intermédiaires, même mal repérées, et de regarder si, à un moment (disons vers f/1,6 ou 1,4), la PDC cesse de se réduire ou si, au contraire, elle continue à diminuer graduellement jusqu'à PO.

Pour ça, Seba l'a bien indiqué, il est important de disposer dans la zone floue, en arrière-plan, des petites taches claires de forme géométrique (rondes) pour vérifier si elles augmentent de taille ou pas : c'est un indicateur bien plus fiable que la transition net-flou qui, dans le cas qui nous occupe, devrait être sacrément subtile.

jesson


jesson

Et maintenant, une progression la plus continue possible entre f1.2 et f2 (pour Caton):

GBo

Citation de: jesson le Novembre 20, 2010, 22:55:43
Voici donc un petit essai avec f 2.8 (pour me caler) ; f2 ; f1.4 (estimé) et f1.2 (en butée).
Avec comme progression de vitesses 1/50s ; 1/100s; 1/200s et 1/320s pour finir (je n'ai pas 1/300s sur le 5D2)
[...]
Avec l'outil pipette (moyennée 5x5 px) de toshop, je trouve au centre de cible grise, sur le canal de vert, sur une échelle de 0 à 255 :
f/2.8  [at] 1/50s : 62
f/2  [at] 1/100s : 56
f/1.2  [at] 1/320s : 51, et si je corrige par une régle de trois pour avoir une valeur pour 1/300 : 54.
Dans un monde idéal les trois chiffres en gras devraient être identiques, mais ce n'est pas le cas.
Cela tend à montrer que la courbe T-stop (Objo + Boitier) vs F-stop n'est pas linéaire, la transmission vue du 5D2 "ne suit pas" tout à fait l'accroissement de l'ouverture géométrique.
D'où sûrement la solution de booster les ISOs quand le boitier peut le faire (pas ici puisque c'est un objo qui ne renseigne pas le boitier).
cdlt,
GBo

jesson

suite et fin:

Je rappelle que le boitier n'est pas renseigné par l'objectif. L'objectif est un vieux 50mm f1.2. Contrairement aux tests précédents, où j'opérais en manuel, pour cette nouvelle série (la série au violon), où je j'étudie le bokeh, j'ai laissé l'EOS 5Dmk2 en priorité ouverture, mesure spot, pour avoir une exposition le plus uniforme possible.

jesson

Citation de: GBo le Novembre 21, 2010, 11:48:43
Avec l'outil pipette (moyennée 5x5 px) de toshop, je trouve au centre de cible grise, sur le canal de vert, sur une échelle de 0 à 255 :
f/2.8  [at] 1/50s : 62
f/2  [at] 1/100s : 56
f/1.2  [at] 1/320s : 51, et si je corrige par une régle de trois pour avoir une valeur pour 1/300 : 54.
Dans un monde idéal les trois chiffres en gras devraient être identiques, mais ce n'est pas le cas.
Cela tend à montrer que la courbe T-stop (Objo + Boitier) vs F-stop n'est pas linéaire, la transmission vue du 5D2 "ne suit pas" tout à fait l'accroissement de l'ouverture géométrique.
D'où sûrement la solution de booster les ISOs quand le boitier peut le faire (pas ici puisque c'est un objo qui ne renseigne pas le boitier).
cdlt,
GBo

J'ai fait le test en 100% manuel. La mesure spot du 5D ne m'a servi que de base à f2.8 pour me caler (et encore, j'ai exposé dense pour mieux apprécier le vignettage). Ensuite, je suis passé en M.
Comme la précision des crantage de ces vieux objectifs n'est pas parfaite, je mets ces irrégularités sur l'imprécision de l'opérateur (c'est à dire bibi  ;D  )
Par contre, pour la série au violon, j'ai laissé le 5D opérer priorité ouverture en mesure spot.

GBo

Citation de: jesson le Novembre 21, 2010, 11:53:01
J'ai fait le test en 100% manuel. La mesure spot du 5D ne m'a servi que de base à f2.8 pour me caler. Ensuite, je suis passé en M.
J'avais bien compris.

Caton

Merci Jesson, excellent boulot !
Tu montres bien avec ta première série que ni DxO, ni Pascal Miele ne racontent de salades quant à l'incapacité des capteurs très définis d'exploiter les très grandes ouvertures (et que ces petits coquins montent en ISO sans rien dire pour nous faire croire que..., dès lors que le boîtier est renseigné sur l'ouverture géométrique par des objectifs modernes : ça doit pas être de la tarte pour DxO de calculer les profils boîtiers dans ces conditions, avec un Exif à 100 et un ISO réel à 250 par exemple).
Avec la deuxième série, en revanche, et si 1,2 est bien à gauche, on voit que l'arrière-plan floute plus à 1,2 qu'à 1,4 (fleurs jaunes et blanches plus "éclatées"), ce qui est contradictoire avec l'idée que les rayons marginaux sont coupés au niveau des micro-lentilles : s'ils n'influencent pas l'éclairement, ils ne devraient pas davantage jouer sur la PDC en élargissant le cercle de confusion et donc en augmentant le flou.
Je parierai sur un effet réel (perte partielle d'éclairement par les rayons marginaux à PO) mais quand même sur le fait que, malgré tout, il "en passe un peu" et que ça suffit à 1)réduire l'impact sur l'éclairement et 2)donner un peu moins de PDC.
Merci pour tes essais, très "éclairants" !

jesson

Et cette série (la série de 6) m'a permis de voir que entre la 5907 et la 5908, en fermant à peine d'un chouïa, si je perds légèrement en luminosité (je passe de 1/1580s  à 1/1328s), je me débarrasse en revanche d'une grande partie des aberrations, de la perte de contraste, pour au final, un bokeh à peine moins doux.
C'est noté pour l'usage quotidien  :)

Powerdoc

Citation de: jesson le Novembre 21, 2010, 13:08:12
Et cette série (la série de 6) m'a permis de voir que entre la 5907 et la 5908, en fermant à peine d'un chouïa, si je perds légèrement en luminosité (je passe de 1/1580s  à 1/1328s), je me débarrasse en revanche d'une grande partie des aberrations, de la perte de contraste, pour au final, un bokeh à peine moins doux.
C'est noté pour l'usage quotidien  :)

C'est certain que fermer d'un chouia ameliore considérablement le piqué et je me demande si l'aspect à peine plus doux du bokey n'est pas a mettre en compte sur le manque de piqué.
En pratique, le fait d'avoir a accentuer la photo à PO, pour rattraper celle à peine diaphragmée fera que le bokey sera alors moins doux.
Je trouve que mis à part la derniere photo, que les bokey sont très voisins, et que sur un tirage, sans avoir un élément de comparaison a se mettre sous la dent, personne ne verra réellement la différence.

PierreT

Citation de: Caton le Novembre 21, 2010, 12:59:23
... on voit que l'arrière-plan floute plus à 1,2 qu'à 1,4 (fleurs jaunes et blanches plus "éclatées"), ce qui est contradictoire avec l'idée que les rayons marginaux sont coupés au niveau des micro-lentilles : s'ils n'influencent pas l'éclairement, ils ne devraient pas davantage jouer sur la PDC en élargissant le cercle de confusion et donc en augmentant le flou.

Personnellement, je ne vois rien de contradictoire ici. L'image étendue d'un objet hors plan de mise au point intéresse une surface de capteur sans commune mesure avec la surface d'un photo site. Même si les photosites n'utilisaient 10 % de la lumière qui leur parvient, les images des objets hors plan de mise au point seraient toujours d'autant plus étendues, donc d'autant plus floues, que l'objectif est plus ouvert.
Amicalement,
Pierre

GBo


Caton

Pierre T,
Oui, mais si les photosites sont incapables d'utiliser la lumière provenant de la périphérie de la pupille de sortie, tout se passe comme si cette dernière était munie d'un diaphragme limitant son diamètre utile. La PDC devrait s'en ressentir...

parapente

C'est peut-être aussi pourquoi les cailloux ultra lumineux ont souvent de meilleurs résultats à pleine ouverture en numérique qu'en argentique, les rayons les plus inclinés étant responsables des aberrations, s'ils ne sont pas captés...moins d'aberrations.

Mistral75

Citation de: Caton le Novembre 21, 2010, 12:59:23
Merci Jesson, excellent boulot !
Tu montres bien avec ta première série que ni DxO, ni Pascal Miele ne racontent de salades quant à l'incapacité des capteurs très définis d'exploiter les très grandes ouvertures (et que ces petits coquins montent en ISO sans rien dire pour nous faire croire que..., dès lors que le boîtier est renseigné sur l'ouverture géométrique par des objectifs modernes : ça doit pas être de la tarte pour DxO de calculer les profils boîtiers dans ces conditions, avec un Exif à 100 et un ISO réel à 250 par exemple).
(...)

Excellent travail en effet (merci !) mais cette vérification expérimentale a une faiblesse : elle suppose que les ouvertures portées sur l'objectif utilisé pour le test sont exactes.

Imaginons en effet que Canon ou Nikon aient baptisé f/1,2, par exemple pour des raisons marketing, un objectif qui est en réalité un f/1,28 et que la position f/1,4 corresponde à f/1,45 pour lisser le "rattrapage", f/1,7 ou f/2 étant exact.

Dans ce cas-là, en augmentant progressivement l'ouverture et en réduisant le temps de pose en fonction de la variation de l'ouverture théorique, l'augmentation de l'ouverture réelle sera moindre qu'escompté et on constatera un assombrissement progressif de l'image sans que le capteur y soit pour rien.

Mistral75

Les observations de jesson :

- assombrissement progressif quand on va vers les plus grandes ouvertures
- flou qui progresse constamment d'une grande ouverture à une ouverture encore plus grande

sont d'ailleurs tout-à-fait compatibles avec un repérage des ouvertures sur l'objectif qui serait de plus en plus optimiste en allant vers les très grandes ouvertures.

GBo

Ce serait malhonnete de la part du constructeur Mistral75, car 1.2 est sensé être l'arrondi de sqrt(2)^(1/2) = 1.1892
Et 1.4 l'arrondi de sqrt(2)=1.4142.
(avec sqrt signifiant racine carrée, ^ exposant).

En outre le 1.4 n'étant pas cranté sur l'objo de jesson, je n'ai pas pris cette mesure en compte dans mon analyse de ses résultats :
http://www.chassimages.com/forum/index.php/topic,104882.msg1905025.html#msg1905025

Il n'empeche qu'il faudrait d'autres mesures avec d'autres objos avant de conclure sur cet aspect (transmission vue du boitier), là dessus je ne puis que plusser.

Nikojorj

Citation de: Mistral75 le Novembre 21, 2010, 15:41:57
Imaginons en effet que Canon ou Nikon aient baptisé f/1,2, par exemple pour des raisons marketing, un objectif qui est en réalité un f/1,28 et que la position f/1,4 corresponde à f/1,45 pour lisser le "rattrapage", f/1,7 ou f/2 étant exact.
Ca, c'est vrai que ça collerait aussi avec les résultats côté exposition...
Oui, ce serait malhonnête, mais pas plus que de relever les ISO dans le dos du photographe.  ::)
Citation de: Caton le Novembre 21, 2010, 12:59:23
Avec la deuxième série, en revanche, et si 1,2 est bien à gauche, on voit que l'arrière-plan floute plus à 1,2 qu'à 1,4 (fleurs jaunes et blanches plus "éclatées"),
Perso, je vois un peu différemment : le diamètre du flou d'arrièreplan ne varie que très peu, par contre l'aspect du bokeh est très différent, avec à gauche (f/1.2 non?) un bokeh en "double ligne" bien visible sur le toit, alors que celyui à f/2 est beaucoup plus doux.
Ca, ça collerait très bien avec l'hypothèse que certains rayons marginaux n'arrivent pas sur le capteur.

En tous cas, merci à Jesson d'avoir fait ces expériences!

NORSOREX

Une petite série de tests avec le D3s, D3x et le 85 / 1.4 pour essayer de faire avancer le sujet.
Le nom du boitier est dans le nom du fichier.
;)

PierreT

Bonsoir,

Citation de: Caton le Novembre 21, 2010, 14:57:24
Oui, mais si les photosites sont incapables d'utiliser la lumière provenant de la périphérie de la pupille de sortie, tout se passe comme si cette dernière était munie d'un diaphragme limitant son diamètre utile. La PDC devrait s'en ressentir...
Je pense simplement qu'il ne faut pas fonder son jugement sur les objets flous complètement hors de la zone de mise au point. Mais je suis d'accord avec ce que vous dites ici : à priori la profondeur de champ (strictement la zone considérée comme nette) doit augmenter, un peu. Mais il importe de faire attention aux ordres de grandeurs : on parle ici de fraction de diaphragme sur des objectifs très ouverts... De plus ceci n'est vrai qu'au centre de l'image. Sur les bords, c'est plus compliqué et pas forcément vérifié, car la distance entre pupille de sortie et capteur a une grande influence sur l'angle moyen d'émergence des rayons lumineux éclairant les bords du cercle image. Ainsi, par exemple, les rayons lumineux éclairant les bords du cercle image d'un 50 mm f/1.2 ne sont pas nécessairement plus inclinés que ceux d'un 50 mm f/1.8 simplement parce que la pupille de sortie du f/1.2 peut être beaucoup plus éloignée que celle du f/1.8 (exemple connu car étudié).

Amicalement,
Pierre T.
Amicalement,
Pierre

FX-Bucher

Je ne trouve pas les photos de Jesson très expressives. En effet le protocole ne permet pas une mesure photométrique précise (et donc mesurer des différences d'exposition est illusoire). Il ne permet pas non plus de se faire une idée de l'ouverture géométrique (trop de détails pour cela), ou tout du moins de son évolution (mesurer l'ouverture géométrique précisément, c'est costo).

Pour en revenir à l'article de CI. Tout d'abord il est affirmé que les petits pixels génèrent une perte de lumière car ils sont moins sensibles (du fait de leur taille) aux rayons fortement incidents. J'ai précédemment dit que cela me semblait faux, et que l'observation des courbes de vignettage permettait de supporter cette hypothèse. En effet si une microlentille est moins sensible qu'une autre aux rayons très incidents, alors (en plus de l'effet présenté par CI selon laquelle on n'a pas des objos aussi lumineux qu'on espérerait) le capteur génèrerait plus de vignettage (les capteurs des M8 & M9 sont prévus pour combattre ce phénomène) qu'un capteur équipé de meilleures lentilles. Et donc un capteur avec un plus petit pixel pitch devrait générer plus de vignettage. Or un tour sur les mesures de vignettage de DxOmark montre que pour une même optique, tous les capteurs d'un constructeur donnent le même vignettage. D'où un souci avec l'hypothèse de départ (petits pixels => plus de perte de luminosité).

Maintenant pour se faire une idée de la perte de luminosité due à cet effet, on peut aller regarder dans les datasheets des fabricants (pour ceux qui les publient). Par exemple avec le capteur Kodak du H3D39 (disponible ici), la figure 8 quantifie l'efficacité optique en fonction de l'angle d'incidence. Si on prend entre + et - 25° (ce qui correspond quand même à une ouverture géométrique de 1,2 environ) on a un transmission moyenne de plus de 95% (à 25°, la transmission vaut 90%, et la courbe est clairement concave) soit une perte maximale de 0,074 Ev, largement inférieure à ce qui est affirmé par CI (l'ordre de grandeur affirmé par CI est plutôt de 0,3Ev voir plus). Bien sûr on peut affirmer que j'ai utilisé un capteur de moyen format, et que les microlentilles peuvent être différentes sur des capteurs plus petits qui n'ont pas le même cahier des charges. Ça pourrait-être recevable même si j'en doute fortement car je ne vois pas pourquoi il y aurait des différences de ce côté là au niveau de l'architecture. Mais si quelqu'un sait où trouver des datasheet pour des capteurs plus petits, on pourra vérifier. Dans l'état actuel des choses, l'hypothèse émise par CI ne semble pas être vérifiée par une approche poussée en tous cas. De même ce phénomène ne devrait pas avoir d'effet sur la profondeur de champ.