Je viens de tomber en lien, sur cet article inédit et très interessant : http://www.luminous-landscape.com/essays/an_open_letter_to_the_major_camera_manufacturers.shtml
Il explique que à cause de l'obliquité des rayons, un capteur CMOS perd de son rendement avec les ultra hautes ouvertures (celles inférieur à 2). Le corolaire, c'est que votre caillou ouvert à F1,2 perd 1 ev sur un 7D et se comporte donc comme un caillou à F1,8 pour ce qui est de la quantité de lumiere reçue.
Ce qui veux dire que sur un APS C comme le 7D, acheter un 35 1,4 ne permettra pas de photographier mieux en basse lumiere, qu'un 35 F2 pour un prix doublé. Cet inconvénient est moindre avec des appareils à gros pixels, comme le 5D ou la perte est plus réduite. Bien entendu, en terme de bokey, cette découverte ne change rien, la profondeur de champ sera toujours plus réduite à PO sur un ultralumineux.
Citation de: Powerdoc le Octobre 28, 2010, 21:52:23
Je viens de tomber en lien, sur cet article inédit et très interessant : http://www.luminous-landscape.com/essays/an_open_letter_to_the_major_camera_manufacturers.shtml
Il explique que à cause de l'obliquité des rayons, un capteur CMOS perd de son rendement avec les ultra hautes ouvertures (celles inférieur à 2).
C'est vrai seulement avec les GA ou avec tous les objectifs ?
Yesss !
Canon 5D is the best !
Faut bien lui trouver encore des arguments à cette antiquité de 5 ans d'age
:D
On nous aurait roulé dans la farine :-[
Finalement je suis satisfait de n'être pas riche et de ne pas avoir entre autre ce fameux 35 f1,4. Vous allez voir que si DXO continu ces mesures, ils vont nous sortir que le bout de plastique 50mm f1,8 va devenir le "must have".
Citation de: One way le Octobre 28, 2010, 23:56:50
Vous allez voir que si DXO continu ces mesures, ils vont nous sortir que le bout de plastique 50mm f1,8 va devenir le "must have".
Chez Nikon, c'est déjà le cas, comme tout le monde le sait depuis de nombreuses années maintenant...
C'est très facile à voir : il suffit de faire un série d'images à temps de pose constant et en augmentant l'ouverture (par exemple 2,8 - 2 - 1,4).
Et de vérifier que l'image à 2 est plus claire que celle à 2,8 , que celle à 1,4 est plus claire que celle à 2.
Sur boîtier Nikon avec un vieux Nikkor, on est sûr que le boîtier ne sait rien de l'objectif (ne pas renseigner le boîtier) et ne risque pas de pousser la sensibilité comme il est expliqué dans l'article.
Citation de: Verso92 le Octobre 28, 2010, 23:00:31
C'est vrai seulement avec les GA ou avec tous les objectifs ?
Bonne question, mais rien n'est signalé dans l'article, logiquement les UGA devraient être plus affectés, mais chez Canon il n'y a que deux optiques modernes ouvrant à F1,2 : le 50 et le 85, donc pas vraiement des grands angles ...
Pour les GA, je ne sais pas mais pourquoi pas.
Par contre, sur Leica M8.1 j'utilise très régulièrement un Voigtlander Nokton 1,1/50mm ... et là, c'est presque le "contraire": à PO, donc f:1,1, j'ai longtemps cru au début que l'ouverture relative était plutôt vers 1,0 car mes clichés étaient souvent un peu sur-exposés alors qu'ils ne l'étaient pas aux autres ouvertures .... et puis, j'ai appris à faire "avec", j'imagine que je maîtirise mieux l'engin, plus de soucis.
Alain
Citation de: alain21bfr le Octobre 29, 2010, 16:24:09
Pour les GA, je ne sais pas mais pourquoi pas.
Par contre, sur Leica M8.1 j'utilise très régulièrement un Voigtlander Nokton 1,1/50mm ... et là, c'est presque le "contraire": à PO, donc f:1,1, j'ai longtemps cru au début que l'ouverture relative était plutôt vers 1,0 car mes clichés étaient souvent un peu sur-exposés alors qu'ils ne l'étaient pas aux autres ouvertures .... et puis, j'ai appris à faire "avec", j'imagine que je maîtirise mieux l'engin, plus de soucis.
Alain
L'article signale que les CCD ne sont pas affectés par ce problème, d'où l'utilisation par Leica de ce type de capteur sur les M, ou du fait du très court tirage optique, il y une très forte obliquité des rayons.
J'ai de gros doutes sur la réalité de l'obliquité des rayons ailleurs que dans les coins avec un 50 ou un 85 mm...Or si au centre les rayons ne sont pas obliques ce qui devrait ressortir c'est un vignetage maousse costo !
Citation de: JMS le Octobre 29, 2010, 19:39:51
J'ai de gros doutes sur la réalité de l'obliquité des rayons ailleurs que dans les coins avec un 50 ou un 85 mm...Or si au centre les rayons ne sont pas obliques ce qui devrait ressortir c'est un vignetage maousse costo !
Je pense que sur un ultralumineux une partie, des rayons arrivant au centre est oblique , ce sont les rayons qui partent du bord de la derniere lentille de façon très excentrée pour aller au centre. En diaphragmant ces rayons les plus sont occultés en premier.
Et bien quelques essais pour voir.
Ici boîtier Nikon D200, non renseigné, objectif 50/1,4 ancien non AF.
Le temps de pose est toujours de 1/30s et les ouvertures sont 2,8 - 2 - 1,4.
Extraits du centre de l'image.
Les images correspondent bien à la progression de l'ouverture. C'est bien plus clair à 1,4 qu'à 2.
Boîtier toujours non renseigné, le temps de pose et l'ouverture sont à IL constant.
Bon l'expo est toujours OK à un chouïa près. Légèrement plus sombre à 1,4 , peut-être.
Pas de quoi fouetter un chat.
Et pour finir boîtier renseigné, temps de pose et ouverture à IL constant.
L'IL est légèrement différent car en renseignant le boîtier, le posemètre fait une petite correction et j'ai suivi ses indications.
Et je dirai qu'effectivement l'image à 1,4 , comparée aux deux autres, n'est plus légèrement plus sombre.
Alors ISO poussés sans le dire ? Possible mais ici, si effectivement les photosites ne captent pas l'intégralité d'un faisceau très ouvert, à 1,4 ça reste encore minime.
Et l'utilisation d'une ouverture de 1,4 pour gagner en luminosité se justifie pleinement.
Il y a un gros problème avec ton test Seba, c'est que tu utilises un D200 qui est un capteur CCD. Or d'après l'article, c'est surtout les CMOS qui sont concernés.
vignettage à pleine ouverture oui et même bien plus que 1IL sur certaines combinaisons, mais en aucun cas une sous ex. ils racontent n'importe quoi ces gens :D
J'aurais du m'en rendre compte avec mes 5 Nikkor qui ouvrent à 1,4 ( j'attends le 6ème ;) )
Citation de: Powerdoc le Octobre 30, 2010, 11:16:38
Il y a un gros problème avec ton test Seba, c'est que tu utilises un D200 qui est un capteur CCD. Or d'après l'article, c'est surtout les CMOS qui sont concernés.
Le D200 est pourtant représenté sur la page en lien.
Il faudrait faire la même manip avec d'autres appareils, en utilisant des objectifs qui ne communiquent rien au boîtier.
Citation de: alain2x le Octobre 30, 2010, 13:39:47
Vive internet, où quand un gugusse raconte une c.nnerie, il se trouvera toujours un autre guignol pour la répéter !
Et bien entendu, personne ne va se permettre de vérifier avant de l'écrire.
Il a suffit à seba de 5 minutes pour vérifier, et n'importe qui peut le faire, à condition d'avoir un minimum d'honnêteté intellectuelle.
C'est trop demander ?
Tout d'abord je te prierai de rester correct et de n'insulter personne.
Maintenant 2 remarques :
1) Quand une mesure est faite par DxO je les crois. Je ne suis pas d'accord avec leur DxO mark pour le bruit en haut iso, car je pense que leur tests ne caractérisent pas tout, mais je suis certain que leurs chiffres sont exacts.
2) il est très difficile pour un particulier de faire le même type de mesure, de façon rigoureuse. Je rappelerai quelques écueils, à ce genre de test même si on a un vieil objectif qui ne renseigne pas le boitier, à savoir :
- la necessité d'avoir une ouverture réguliere et exacte (en particulier avec un vieil obturateur : le F4 annoncé peut être très bien un F3,8 réel)
- la necessité d'avoir une vitesse d'obturation exacte et réguliere (CI faisait des tests à ce sujet dans le temps, et la régularité n'était pas toujours exemplaire, même si il y au progrès depuis l'avénement des obtus à controle electronique)
- la necessité d'avoir une illumination constante de la scène photographiée.
Pour ma part, avec le D200 c'est difficile à vérifier vu que déjà d'après DxO c'est très limité pour cet appareil, et que d'autre part d'autres impondérables rendent une mesure précise difficile. Mais il est certain qu'avec ce boîtier, avec une ouverture de 1,4 les photosites sont quasiment 2x plus éclairés qu'avec une ouverture de 2.
Maintenant, le phénomène constaté par DxO ne me semble pas impossible (les faisceaux lumineux très ouverts pourraient bien se trouver diaphragmés un peu avant d'atteindre chaque photosite), peut-être que des possesseurs des boîtiers les plus défavorablement influencés pourraient vérifier ces constatations.
Une info qui ne va pas faire plaisir aux fétichistes du matosse... ;D
http://www.luminous-landscape.com/essays/an_open_letter_to_the_major_camera_manufacturers.shtml
D'après de récentes mesures de DxO, sur un capteur CMOS de reflex avec plein de petits pixels, les objectifs à très grande ouverture ne sont pas bien utilisés : comme certains rayons arrivent trop obliquement sur le capteur, leur luminosité réelle (ouverture photométrique ou T-stop en anglais dans le texte) peut être inférieure d'un demi à un diaph à leur ouverture réelle ; l'effet est plus sensible avec des pas de pixels plus petits (photosites plus étroits, en tunnel).
Cette perte devient nulle vers f/2 à f/2.8.
Du coup, le gain entre f/1.2 et f/1.4 par exemple est inférieur au demi-diaph théorique, sur un 7D on ne gagne plus qu'1/6 de diaph... :-\
Histoire que ça ne se voie pas, les fabricants augmentent le gain du capteur dans ce cas là (on croit rêver hein?).
Et même pour le flou de profondeur de champ, les mesures semblent dire que les rayons qui augmentent le plus le flou sont les plus obliques, donc non vus par le capteur... mais là j'imagine aisément que ça dépend encore plus de la formule optique utilisée.
Je cite l'article ci-dessus :
Citation de: Mark DubovoyBottom line: Due to the complexity of design and manufacture (let alone the high cost and weight) of large aperture lenses, one may actually end up with better results at virtually the same ISO and depth of field using lenses with more modest maximum apertures.
Edit : doublon avec http://www.chassimages.com/forum/index.php/topic,104882.0.html (et http://www.chassimages.com/forum/index.php/topic,105062.0.html ), désolé.
Citation de: alain2x le Octobre 30, 2010, 13:39:47
Vive internet, où quand un gugusse raconte une c.nnerie, il se trouvera toujours un autre guignol pour la répéter !
Et bien entendu, personne ne va se permettre de vérifier avant de l'écrire.
Eh oui, c'est pourtant simple de lire l'article...
Les fabricants compensent ça en montant artificiellement le gain du capteur de la différence, d'où le résultat apparemment normal des tests ci-dessus. Y'a eu petite augmentation des ISO ni vu ni connu, en pratique, pour arriver à ce résultat.
Citation de: Powerdoc le Octobre 29, 2010, 19:49:13
Je pense que sur un ultralumineux une partie, des rayons arrivant au centre est oblique , ce sont les rayons qui partent du bord de la derniere lentille de façon très excentrée pour aller au centre. En diaphragmant ces rayons les plus sont occultés en premier.
Toutafé : en gros, les rayons qui sont les plus proches du bord du diaph arrivent au centre avec le plus d'angle.
Evidemment, ça dépend de la formule optique : les longues focales et/ou formules rétrofocus devraient y être moins sensibles.
Est-ce spécifiquement ça l'os qui empêchait Leica de faire un télémétrique 24x36 avant le M9, au-delà du vignettage? Ca me semble très plausible, dans le cas du M le faible tirage rend les rayons très inclinés. L'ont-ils résolu comme marqué dans l'article? Mystère et boule de gomme rouge...
OUi et si on résume, toute ouverture inférieur à f/2 est la SEULEMENT pour le Bokeh en full frame et pas pour l'éclairement. Mais franchement, des bon objectifs à "seulement f1,8" c'est déjà très bien ;)
Mais rien de bien nouveau dans cet article, car c'est exactement le même "dopage software" qui est fait pour le mode compensation des haute lumière chez CANON par exemple. Le traitement numérique des images est encore embryonnaire sur les boitiers et les nouveaux doubles processeurs vont dans le futur permettent bien plus de choses comme les nouveaux mode HDR direct boitier que l'on voit fleurir.
Citation de: Powerdoc le Octobre 28, 2010, 21:52:23
Bien entendu, en terme de bokey, cette découverte ne change rien, la profondeur de champ sera toujours plus réduite à PO sur un ultralumineux.
Pourtant...
Citation de: Mark DubovoyIn fact, is not even clear that large aperture lenses will deliver a shallower depth of field as intended. The DxO measurements to date prove that the marginal light rays just don't hit the sensor. The point regarding depth of field is that these rays are also responsible for a larger blur spot when out of focus. If they are lost, they not only don't contribute to the light intensity at the sensor, but they also don't blur the out of focus planes as much as you would expect at wide apertures.
Citation de: Nikojorj le Novembre 01, 2010, 21:42:54
Les fabricants compensent ça en montant artificiellement le gain du capteur de la différence, d'où le résultat apparemment normal des tests ci-dessus. Y'a eu petite augmentation des ISO ni vu ni connu, en pratique, pour arriver à ce résultat.
Comment le fabricant s'y prend-t-il pour augmenter
ni vu ni connu les ISO, dans le cas, par exemple, de l'utilisation d'un f/1.2 50 Ais -non renseigné- sur un boitier Nikon, puisque le boitier n'a aucune indication de l'ouverture utilisée sur l'objectif ?
Citation de: Verso92 le Novembre 01, 2010, 21:46:39
Comment le fabricant s'y prend-t-il pour augmenter ni vu ni connu les ISO, dans le cas, par exemple, de l'utilisation d'un f/1.2 50 Ais -non renseigné- sur un boitier Nikon, puisque le boitier n'a aucune indication de l'ouverture utilisée sur l'objectif ?
Chez vous les jaunes, je ne saurai dire (le boitier ne voit pas le diaph d'un AIS?) ; mais chez Canon, si on monte un EF, le boitier connait toujours les ouvertures maximale et demandée. L'hypothèse se tient.
Citation de: Nikojorj le Novembre 01, 2010, 21:50:12
(le boitier ne voit pas le diaph d'un AIS?)
Non, sauf si la programmation du boitier le lui indique. Mais tu peux tout à fait monter un f/1.2 50 Ais en faisant croire au boitier qu'il s'agit d'un modèle ouvert à f/2. S'en suivent indications erronées de l'ouverture dans le viseur et dans les EXIF, principalement.
(sur les boitier "Ais", l'écart angulaire de l'ergot Ai renseignait le boitier sur la compensation à faire sur le TdP, indépendamment de la valeur réelle de l'ouverture maximale. D'où un certain scepticisme de ma part...)
Citation de: Verso92 le Novembre 01, 2010, 21:46:39
Comment le fabricant s'y prend-t-il pour augmenter ni vu ni connu les ISO, dans le cas, par exemple, de l'utilisation d'un f/1.2 50 Ais -non renseigné- sur un boitier Nikon, puisque le boitier n'a aucune indication de l'ouverture utilisée sur l'objectif ?
Justement, dans ce cas le boîtier ne fera rien.
D'où mon essai sans ou avec renseignement. Mais avec le D200 le phénomène est peu présent. Il faudrait faire la même manip avec un boîtier plus concerné.
Citation de: Nikojorj le Novembre 01, 2010, 21:42:54
Evidemment, ça dépend de la formule optique : les longues focales et/ou formules rétrofocus devraient y être moins sensibles.
Je ne pense pas. L'angle au sommet du faisceau dépend de l'ouverture.
Les mesures sont là et certainement incontestables. Par contre les explications sont plus que foireuses : en quoi les CCD seraient moins touchés par le phénomène des rayons trop incidents ? Surtout qu'en observant le 2eme graphique les boitiers les plus "touchés" chez Nikon sont les D50, D40(x), D60, D70 et D80 qui sont justement des capteurs CCD. Donc tout le petit paragraphe comme quoi "CCD, c'est mieux que CMOS, vive Leica et le moyen format", c'est plus que du pipo (au passage Leica a effectivement travaillé et amplement communiqué sur ses lentilles décalées mais c'est pour corriger le vignetage, qui n'existe pas au centre, là où se fait la mesure de la transmission). Comment apporter du crédit à une hypothèse qui est franchement à côté de la plaque sur la moitié de la ligne ?
Maintenant si on regarde attentivement le premier graphique en mettant d'un côté par exemple uniquement les APS-C, la relation entre pixel pitch et perte de transmission est beaucoup moins franche (alors qu'elle devrait toujours exister). Si on isole les 24×36, on voit le même chose (c'est-à-dire rien), même si dans ce cas y'a moins de points donc c'est moins clair. Cependant on voit quand même une chose, c'est que la précision de la mesure n'est certainement pas top (comment un 7D et un 550D ayant le même capteur produiraient des résultats différents ? Même chose avec les 1000D et 40D). Ne serait-il pas plus sensé de représenter ce fameux T-loss non pas en fonction du pixel-pitch, mais de la taille du capteur ? Et d'émettre des hypothèses plus réalistes et rigoureuses que celle-là (car on en revient toujours à l'a-priori que les pixels sont méchants) ?
Citation de: alain2x le Novembre 02, 2010, 09:07:39
Et c'est encore plus simple de vérifier ces foutaises avec un simple boitier argentique
Ben non, l'argentique reste sensible aux rayons obliques. Faut lire! :P
Citation de: FX-Bucher le Novembre 02, 2010, 11:18:23
Les mesures sont là et certainement incontestables. Par contre les explications sont plus que foireuses
Ton objection sur les CCD est très valide...
Pour ce qui est de la relation au pas du pixel, y'a quand même une tendance je trouve, mais oui ce n'est surement pas le seul facteur, la conception du capteur doit jouer un grand rôle.
Citation de: seba le Novembre 02, 2010, 06:40:36
L'angle au sommet du faisceau dépend de l'ouverture.
Et de la position de la pupille de sortie aussi, non?
Citation de: Nikojorj le Novembre 02, 2010, 14:29:29
Et de la position de la pupille de sortie aussi, non?
Je n'en suis pas sûr, mais je dirai que non. En tout cas pour le centre de l'image.
Ca doit jouer pour le vignettage.
Citation de: Nikojorj le Novembre 02, 2010, 14:29:29
Ton objection sur les CCD est très valide...
Pour ce qui est de la relation au pas du pixel, y'a quand même une tendance je trouve, mais oui ce n'est surement pas le seul facteur, la conception du capteur doit jouer un grand rôle.
Les populations prises indépendamment (APS-C d'un côté, le reste de l'autre) ne montrent pas une telle relation entre pixel pitch et perte de transmission je trouve. Et quand bien même le fait qu'on puisse établir une relation statistique entre deux variables ne veut pas dire que l'une est dépendante de l'autre. Par exemple je pourrais tracer la taille de l'écran arrière (en point) en fonction du pixel pitch sur tous les APS-C Canon, et j'obtiendrais très certainement une courbe bien plus franche qu'ici. Il serait pourtant ridicule de dire que le nombre de points de l'écran dépend du pixel pitch. Ici, non seulement la relation statistique n'est pas franche, mais quand bien même elle existerait, on ne peut affirmer un lien de cause à effet.
Bref, pour moi on est ici encore une fois tombé dans le cas "Usual Suspect" avec le pixel pitch comme coupable désigné n°1.
Accessoirement, je ne sais pas à partir de quel angle il y a perte de luminosité. Sur le site de Schneider Kreuznach, il est indiqué 7° ce qui me semble bien faible (cela correspond à une ouverture photométrique maximale de 4 en suivant l'hypothèse de l'article de LL). Et toujours pas de lien entre cette valeur, le pixel pitch, la taille du capteur ou le type du capteur.
?Liens? :
- le capteur (=/= photosite) qui mesure la luminosite a pleine ouverture (mesure spot par exemple).
Est-il sensible (et dans quelle mesure) aux rayons obliques ?
- l'argentique (N&B,dia,nega,par marque) .
Est-il sensible (et dans quelle mesure) aux rayons obliques ?
PS
Pour etre sur que le boitier n'est pas renseigne :
boitier Canon -> bague de conversion mecanique -> objectif AI Nikon avec bague de diaph.
Citation de: SimCI le Novembre 03, 2010, 08:49:58
PS
Pour etre sur que le boitier n'est pas renseigne :
boitier Canon -> bague de conversion mecanique -> objectif AI Nikon avec bague de diaph.
Plus simple : tu mets du scotch sur les contacts de la monture, ce qui ne pose pas de souci vu qu'on est à pleine ouverture.
Un petit up pour dire qu'il y a un article interessant à ce sujet de Pascal Miele page 132 de chasseur d'images de décembre.
Alain 2X traitera-t'il de Guignol Pascal Miele ?
Bonsoir,
Je viens de lire moi aussi cette article très intéressant. A priori, les objectifs télécentrique Zuiko Digital de chez Olympus ne devraient pas être concernés par ce phénomène, si j'ai bien compris.
Bonne soirée.
Xavier
Citation de: xcomm le Novembre 18, 2010, 22:11:55
Je viens de lire moi aussi cette article très intéressant. A priori, les objectifs télécentrique Zuiko Digital de chez Olympus ne devraient pas être concernés par ce phénomène, si j'ai bien compris.
A mon avis, la télécentricité n'améliore que le vignettage.
Citation de: seba le Novembre 19, 2010, 06:57:04
A mon avis, la télécentricité n'améliore que le vignettage.
Généralement les télés ont une lentille arriere plus eloignée du plan capteur que les cailloux standarts ou grand angle. J'en déduis donc que les télés seraient moins affectés par ce problème du fait d'une moins grande obliquité.
Citation de: Powerdoc le Novembre 19, 2010, 07:43:59
Généralement les télés ont une lentille arriere plus eloignée du plan capteur que les cailloux standarts ou grand angle. J'en déduis donc que les télés seraient moins affectés par ce problème du fait d'une moins grande obliquité.
Plus éloignée oui mais par exemple le faisceau axial a, pour une même ouverture, une même ouverture angulaire.
Citation de: alain2x le Novembre 19, 2010, 08:20:21
Dans la mesure où Pascal Miele explique que les objectifs n'y sont pour rien, mais que tout vient des caractéristiques des divers capteurs, tout va bien : son titre "Voleurs de diaphragme" s'applique aux boitiers, et non aux objectifs, comme le tien le laisse supposer.
Ce titre pourra s'inverser, quand on dira des capteurs "les capteurs sensibles le sont-ils vraiment ?" ce qui sera plus honnête que de faire porter aux opticiens les carences des concepteurs de capteurs.
Bien sur que cela n'a rien à voir avec l'optique, mais avec les capteurs, mais souvent les opticiens sont également les fabricants de boitiers ...
Citation de: alain2x le Octobre 30, 2010, 13:39:47
Vive internet, où quand un gugusse raconte une c.nnerie, il se trouvera toujours un autre guignol pour la répéter !
Et bien entendu, personne ne va se permettre de vérifier avant de l'écrire.
Il a suffit à seba de 5 minutes pour vérifier, et n'importe qui peut le faire, à condition d'avoir un minimum d'honnêteté intellectuelle.
C'est trop demander ?
Et quand à moi j'attends toujours tes excuses pour cette intervention ou tu me traites de Guignol.
Citation de: FX-Bucher le Novembre 03, 2010, 10:21:34
Plus simple : tu mets du scotch sur les contacts de la monture, ce qui ne pose pas de souci vu qu'on est à pleine ouverture.
Plus de contacts = plus d'AF ----> la mesure d'expo va manquer de précision en l'absence de collimateur actif et pondérateur. Il y a intérêt à maintenir strictement le même cadrage en plus d'assurer le même éclairage lors des prises de vues.
Les constructeurs font faire la photo à pleine ouverture en début de cycle lors de la photo au flash avant de sélectionner l'ouverture de travail pour augmenter artificiellement la portée de leurs flashes en synchro normale donc il est très possible qu'ils bidouillent la sensibilité ISO pour compenser des problèmes d'expo avec les très grandes ouvertures.
Ce qui serait marrant, ce serait qu'ils bidouillent la sensibilité ISO tout en fermant le diaph (d'un 1/4 IL ou d'un 1/3 IL) sans que cela soit noté dans les exifs...car pourquoi croire aveuglément les données concernant la vitesse et l'ouverture des exifs quand les ingénieurs peuvent programmer dans ces mêmes exifs l'inscription d'une sensibilité ISO différente de celle effectivement utilisée ?
Citation de: Powerdoc le Novembre 16, 2010, 19:25:14
Un petit up pour dire qu'il y a un article interessant à ce sujet de Pascal Miele page 132 de chasseur d'images de décembre.
Article intéressant mais des trucs à mon avis inexacts ou qui mériteraient une étude plus approfondie.
Par exemple, il écrit (à propos de la graduation des objectifs ciné) que l'ouverture photométrique est différente de l'ouverture géométrique mais que les deux se rejoignent en fermant de deux ou trois divisions. Je ne vois pas pourquoi elles se rejoindraient vu que les pertes par réflexion ou absorption ne dépendent pas de l'ouverture.
Et quand il parle de profondeur de champ, ça mérite une étude plus poussée, car qui dit que les rayons marginaux d'un faisceau défocalisé, malgré une ouverture importante, n'atteignent tout de même pas les photosites ?
Et se référer aux indications de la cellule de l'appareil pour mesurer l'ouverture réelle comme il semble le faire à la fin n'est pas fiable du tout, car la transmission de la lumière vers la cellule peut aussi dépendre de l'ouverture.
Citation de: seba le Novembre 19, 2010, 17:47:13
Et quand il parle de profondeur de champ, ça mérite une étude plus poussée, car qui dit que les rayons marginaux d'un faisceau défocalisé, malgré une ouverture importante, n'atteignent tout de même pas les photosites ?
C'est aussi ce qu'en dit Mark Dubovoy dans l'article de LL : ces rayons marginaux sont aussi les plus obliques...
CitationEt se référer aux indications de la cellule de l'appareil pour mesurer l'ouverture réelle comme il semble le faire à la fin n'est pas fiable du tout, car la transmission de la lumière vers la cellule peut aussi dépendre de l'ouverture.
Oui, à voir en fonction de l'appareil.
Citation de: Powerdoc le Novembre 19, 2010, 09:11:31Bien sur que cela n'a rien à voir avec l'optique, mais avec les capteurs, mais souvent les opticiens sont également les fabricants de boitiers ...
Bonsoir Powerdoc,
Je ne suis pas certain d'avoir compris la même chose.
Le problème vient du couple micro lentille et de l'arrivée des rayons lumineux sur les capteurs.
Si je site CI :
Les micro lentilles servent à concentrer la lumière sur les photosites dans le but d'améliorer le rendement du capteur. Le système fonctionne généralement très bien sauf avec des diaphragmes très ouvert, car les rayons lumineux qui arrivent alors à la surface du capteur sont trop inclinés pour être récupérés correctement par les microlentillesSur les schémas explicatifs
L'inclinaison des rayons lumineux empêche la zone sensible du capteur de récupérer toute la lumière.
Avec des rayons peu inclinés la totalité de l'énergie lumineuse parvient jusqu'à la zonr utile du capteurIL est aussi dit que le rendement des plus gros photosite est meilleur, car le fond du puit est plus facilement atteint par les rayons lumineux, sauf dans le cas du Canon 20d où le réseau de microlentilles a été amélioré pour faciliter l'arrivé des rayons.
Comme avec les objectifs télécentriques, les rayons ne sont pas inclinés, c'est pour cela que j'ai indiqué que le rendement du réseau de micro lentilles ne se trouve donc pas perturbé, si l'on suit les explications CI.
Bonne soirée.
Xavier
Citation de: xcomm le Novembre 19, 2010, 19:50:54
Comme avec les objectifs télécentriques, les rayons ne sont pas inclinés, c'est pour cela que j'ai indiqué que le rendement du réseau de micro lentilles ne se trouve donc pas perturbé, si l'on suit les explications CI.
Avec un objectif télécentrique, ça ne change rien du tout concernant l'inclinaison des rayons en relation avec l'ouverture.
L'angle alpha sera le même, que l'objectif soit télécentrique ou pas.
Par contre ça changera l'inclinaison des rayons en dehors de l'axe (comme ici où ils sont peu inclinés).
Citation de: xcomm le Novembre 19, 2010, 19:50:54
Sur les schémas explicatifs L'inclinaison des rayons lumineux empêche la zone sensible du capteur de récupérer toute la lumière.
Avec des rayons peu inclinés la totalité de l'énergie lumineuse parvient jusqu'à la zonr utile du capteur
Soit dit en passant, les schémas de CI sont mal faits et n'expliquent rien du tout, car sur leur dessin, microlentille ou pas microlentille rien ne changera.
Salut à tous,
Un article très intéressant qui tenderait à pondérer l'intérêt d'utiliser des optiques à grandes ouvertures (f1.2, f1.4) en particulier sur des capteurs à faible "pixel pitch", c'est ici :
- VOIR ARTICLE COMPLET DANS CHASSEUR D'IMAGES n° 329 - Note de la modération
Cela risque bien de faire l'effet d'une bombe si cela s'avèrait exact...
Voui!! :D
Ca me fait penser à ce fil....
http://www.chassimages.com/forum/index.php/topic,105313.0.html
J'ai survolé l'article de CI qui traite le sujet.
Mais, pour moi, ces objectifs sont avant tout valables pour la faible pdc et le bokeh. Et, ça, c'est bien fonction de l'ouverture géométrique f et non de l'ouverture photométrique T me semble-t-il?
Comme Jesson le signale l'effet de PDC ne doit pas être affecté et reste une raison valable pour choisir un 1.2
Sinon déjà que les petits pixels ne sont pas à la fête avec un diaph fort fermé à cause de la diffraction, si en plus il vont souffrir d'une monté de bruit à grande ouverture, on peut se demander ce qu'il va leur rester ;)
Bon on sera bientôt condamné à utiliser du f/5.6 constant.
Un point crucial à noter dans le débat qui agite le net depuis quelques jours à ce sujet: beaucoup d'amateurs d'optiques ultra lumineuses sont plus à la recherche d'un rendu particulier et d'un détachement maximum des plans qu'à la recherche de l'ultime photon disponible. Dans le domaine de la photographie en très faible lumière, les performances en haute sensibilité des boitiers actuels et la stabilisation optique sont devenus des atouts plus importants qu'un ou deux diaph d'ouverture supplémentaire...
Edit: grillé par les petits camarades... ;D
Entièrement d'accord avec vous trois! C'est le rendu que je recherche avant tout, donc... ;)
Citation de: jesson le Novembre 19, 2010, 23:31:31
Mais, pour moi, ces objectifs sont avant tout valables pour la faible pdc et le bokeh. Et, ça, c'est bien fonction de l'ouverture géométrique f et non de l'ouverture photométrique T me semble-t-il?
Attention l'effet du capteur n'a rien à voir avec l'ouverture photométrique.
Oui, seba, mon raccourci est inexact.
Mais sur le fond, ces objectifs restent intéressant pour leur faible pdc
Justement, ça serait un point à vérifier.
Par exemple, on sait que l'image sur le dépoli du viseur, pour les objectifs très ouverts, montre une profondeur de champ plus grande qu'en réalité (et pour le bokeh un flou moins flou qu'en réalité). Pour une raison assez similaire au petit souci des capteurs.
Mais je ne sais pas si ça influe sur la profondeur de champ ou le bokeh pour le capteur (je pense que quasiment pas).
Un petit schéma - correct celui-là - pourrait permettre de comprendre ce qui se passe vraiment.
Citation de: seba le Novembre 20, 2010, 00:20:05
Justement, ça serait un point à vérifier.
Par exemple, on sait que l'image sur le dépoli du viseur, pour les objectifs très ouverts, montre une profondeur de champ plus grande qu'en réalité (et pour le bokeh un flou moins flou qu'en réalité).Un petit schéma - correct celui-là - pourrait permettre de comprendre ce qui se passe vraiment.
Peut être tout simplement parce que la dimension de l'image est plus faible sur le dépoli. La profondeur de champ est une notion subjective qui dépend du taux de grandisement de l'image..
Citation de: seba le Novembre 20, 2010, 00:20:05Mais je ne sais pas si ça influe sur la profondeur de champ ou le bokeh pour le capteur
Bonjour,
CI nous donne la réponse dans l'article du journal, il faut tout lire : ;)
Avec un 85/1.4 manuel sans électronique apte à permettre le bidouillage au niveau élévation des ISO monté sur un Canon 5D MarkII, nous avons alors une ouverture de T2, soit 1 stop de perte.
Quand la perte atteint 1 IL, c'est ennuyeux : au prix où sont vendues les optiques ultralumineuses, on aimerait bien pouvoir en tirer quelques bénéfices... surtout à pleine ouverture ! Le défaut est d'autant plus agaçant que la profondeur de champ est elle aussi concernée. Les rayons marginaux sont ignorés par les microlentilles... ils ont pourtant un rôle essentiel dans la profondeur de champ et dans l'obtention du flou !Bonne journée.
Xavier
Citation de: chelmimage le Novembre 20, 2010, 08:33:21
Peut être tout simplement parce que la dimension de l'image est plus faible sur le dépoli. La profondeur de champ est une notion subjective qui dépend du taux de grandisement de l'image..
Non non, la différence est nette, surtout pour les défocalisations importantes.
Ca vient de la structure du verre de visée. Le phénomène est bien connu.
Citation de: xcomm le Novembre 20, 2010, 08:41:19
CI nous donne la réponse dans l'article du journal, il faut tout lire : ;)
Avec un 85/1.4 manuel sans électronique apte à permettre le bidouillage au niveau élévation des ISO monté sur un Canon 5D MarkII, nous avons alors une ouverture de T2, soit 1 stop de perte.
Quand la perte atteint 1 IL, c'est ennuyeux : au prix où sont vendues les optiques ultralumineuses, on aimerait bien pouvoir en tirer quelques bénéfices... surtout à pleine ouverture ! Le défaut est d'autant plus agaçant que la profondeur de champ est elle aussi concernée. Les rayons marginaux sont ignorés par les microlentilles... ils ont pourtant un rôle essentiel dans la profondeur de champ et dans l'obtention du flou !
Oui, j'ai lu l'article.
Je le trouve...assez brouillon, mélangeant pas mal de notions, avec des erreurs, un schéma érronné qui n'explique rien du tout...alors je me méfie un peu de cette conclusion, qui mériterait vérification.
Il y a peut-être des photimiens qui ont les couples boîtiers-objectifs les plus touchés et qui pourraient voir si le flou est le même ou pas à 1,2 et à 1,6.
Citation de: seba le Novembre 20, 2010, 10:20:05
Il y a peut-être des photimiens qui ont les couples boîtiers-objectifs les plus touchés et qui pourraient voir si le flou est le même ou pas à 1,2 et à 1,6.
Dommage que je n'ai pas -encore- de f/1.2 50 Ais... sinon, je ferais le test avec curiosité !
Citation de: seba le Novembre 20, 2010, 10:20:05
Oui, j'ai lu l'article.
Je le trouve...assez brouillon, mélangeant pas mal de notions, avec des erreurs, un schéma érronné qui n'explique rien du tout...alors je me méfie un peu de cette conclusion, qui mériterait vérification.
Il y a peut-être des photimiens qui ont les couples boîtiers-objectifs les plus touchés et qui pourraient voir si le flou est le même ou pas à 1,2 et à 1,6.
Je connais ta rigueur au travers des fils, alors expliques ce que tu veux exactement et ce que veux dire les plus touchés.
Je veux bien te faire des tests.
J'ai à portée de main le 24/1.4 - 50/1.4 et deux 85/1.4.(qui n'ont pas les mêmes réglages internes ;) ) - 200/2.0 sur le D3x et le D3s.
Rien d'autres pour des ouvertures importantes.
;)
Ben je n'ai plus le CI à disposition, les plus touchés ce sont les couples pour lesquels la différence entre l'ouverture géométrique et l'ouverture "efficace" est la plus grande, genre 1,2-1,7.
D'après ça, à 1,2 l'ouverture "efficace" n'est que de 1,7.
Le truc c'est de voir si, pour une image floue, le degré de flou est pareil ou pas en réglant l'ouverture de l'objectif à 1,7 puis à 1,2.
Avec quelques point bien lumineux et flous dans l'image pour voir si leur taille est la même ou pas.
Une image dans ce genre là, je dirai.
Bonjour,
Le mieux, là où les résultats sont les pires sont les D40x, D60 à f/1.9, le d300s à f/1.8, le D200, et le D3x sont à f/1.7, et le D3s est le mieux placé à f/1.6. Ceci doit pouvoir se retrouver sur dxomark.com
Bonne journée.
Xavier
5D2 en manuel
Vieil objectif argentique à respectivement f4 f2.8 f2 f1.2
Citation de: jesson le Novembre 20, 2010, 13:34:27
5D2 en manuel
Vieil objectif argentique à respectivement f4 f2.8 f2 f1.2
Comprends pas... il me semble percevoir une différence sensible de PdC et de
bokeh sur les vues prises à f/2 et f/1.2... on nous aurait menti ?
Effectivement, Verso, sur 5D2 en tout cas, la pdc diminue réellement en ouvrant.
De plus, avec la perte progressive de contraste, on a même l'impression que plus on ouvre, plus l'image est claire. (En tout cas certainement pas plus sombre).
Citation de: Verso92 le Novembre 20, 2010, 13:51:51
Comprends pas... il me semble percevoir une différence sensible de PdC et de bokeh sur les vues prises à f/2 et f/1.2... on nous aurait menti ?
Avec f/1.7 et f/1.4 entre les deux, par contre, ça pourrait être intéressant... f/4 et f/2.8 sont exonérés de tout soupçon.
Citation de: jesson le Novembre 20, 2010, 14:34:24
Effectivement, Verso, sur 5D2 en tout cas, la pdc diminue réellement en ouvrant.
De plus, avec la perte progressive de contraste, on a même l'impression que plus on ouvre, plus l'image est claire. (En tout cas certainement pas plus sombre).
Bonjour.
Par contre ça parait normal que celle à f/1.2 soit un poil plus claire puisque la vitesse utilisée est sensée être la bonne pour du f/1.4 (car c'est la vitesse pour f/2 divisée par deux si je lis bien tes indications).
Intéressant ce fil, et bravo aux expérimentateurs.
cdlt,
GBo
Je viens de lire l'article de CI en question, et j'ai un peu le même sentiment mitigé qu'après avoir lu celui de Luminous Landscape. Déjà je trouve que c'est bourré d'approximation du type : "l'ouverture géométrique, c'est la focale sur le diaphragme" (alors que c'est sur le diamètre de la pupille d'entrée - y'a une vrai différence), l'emploi de la notation "f/" pour l'ouverture photométrique (il est plus rigoureux et juste d'utiliser la notation T/) ou encore l'affirmation "qu'à partir de f/2.8 il n'y a plus d'écart entre l'ouverture géométrique et l'ouverture photométrique" (même sur les objectifs les plus simples, la transmission n'est jamais de 100% mais 90-95% semble un bon ordre de grandeur). Quand à la problématique de base, il est clair que le diagramme de la page 132 est faux et ne prouve rien. Et pour le lien entre taille de pixel et perte de luminosité, encore une fois par exemple sur la population de APS-C Canon on tourne entre T/1.6 et T/1.7 pour une ouverture de f/1.2. Moi je ne vois aucun lien entre ces deux grandeurs alors qu'il devrait être visible si c'était le cas (par contre la taille totale du capteur semble avoir un lien).
Quand à l'éventuelle influence sur la profondeur de champ, j'y vois avant tout une mauvaise interprétation du diagramme de la page 132 (qui est pour moi faux encore une fois). Mais il serait relativement simple pour une personne possédant par exemple un 5D et un APS-C Canon (de préférence "mal" noté), ainsi qu'un objo très lumineux de tester cela.
Mais cependant, si réellement des micro-lentilles plus petites généraient une perte de lumière supplémentaire car elles supporteraient moins bien les rayons très incidents, cela pourrait se voir autrement, et notamment à l'aide des graphes de vignetage. Quand on regarde les mesures fournies sur DxOmark, on voit qu'il n'en est rien.
A noter si on veut "mesurer le flou" dans une manip ultérieure : je suggère de mesurer le diamètre (en nombre de pixels par ex?) des cercles de flou au centre de l'image: comme chacun sait un point lumineux hors de la zone nette donne un cercle qui grossit en principe en fonction du f-stop, ça donne donc une métrique objective pour comparer f/2, f/1.7, f/1.4 et f/1.2.
Voir ce fil pour illustrer le type d'image dont je veux parler (hélas ici les cercles ne sont pas exactement au centre, donc déformés ou tronqués) :
http://www.pentaxforums.com/forums/pentax-slr-lens-discussion/85864-out-focus-highlight-demo-focal-length-aperture.html
On remarque à ce propos qu'un cercle de flou occupe des centaines et des centaines de pixels sur le capteur, donc raisonner au niveau DU photosite comme le fait Luminous Landscape (et même Chasseur d'image qui s'aventure aussi sur le terrain de la PdC sans vérifier les choses, à l'instar de Mark Dubovoy) est peut-être valide pour la transmission mais n'a pas vraiment de sens pour la PdC et le flou, à mon avis.
cdlt
GBo
Essai très intéressant de Jesson, mais les ouvertures choisies ne conviennent pas : c'est entre 1,2 et 2 que c'est intéressant.
Savoir si on a une différence entre 1,7, 1,4 et 1,2, en gros...
peux-tu nous refaire l'essai dans les mêmes conditions mais en balayant finement la plage 1,2 à 2 ?
Merci par avance...
Il est évident par ailleurs que ça n'a qu'un lointain rapport avec le vignetage : on a aussi du vignetage en argentique, alors que l'effet remarqué ici est purement numérique et lié uniquement au capteur, et ne se traduit pas par un assombrissement des angles, mais une perte d'ouverture nominale, même si les deux peuvent se cumuler. C'est donc une mesure d'éclairement au centre du champ qui est ici intéressante, pas la différence entre centre et angles.
En revanche, c'est directement lié à la taille de la pupille de sortie et, donc, à l'inclinaison des rayons marginaux à PO. Les mesures de perte de luminosité ou, plus exactement, de limitation géométrique de la luminosité (ouverture) maxi me paraissent incontestables. Elles ont à voir avec la géométrie des micro-lentilles et il semble bien que celle-ci soit, grosso-modo, plus difficile à optimiser avec de petits pixels.
Logiquement, les rayons marginaux étant coupés au-delà d'une certaine valeur d'ouverture, ils ne devraient pas avoir d'influence sur la profondeur de champ : elle devrait donc stagner à une valeur différente de PO, par exemple entre f/1,2 et f/1,4 ou 1,6 pour un f/1,2 (au hasard). Et c'est bien ce que l'essai de Jesson pourrait montrer, s'il voulait bien le refaire pour les valeurs intéressantes, donc en balayant le plus finement possible entre 2 et 1,2.
Citation de: Caton le Novembre 20, 2010, 18:30:06peux-tu nous refaire l'essai dans les mêmes conditions mais en balayant finement la plage 1,2 à 2 ?
Bonsoir,
Attention, tous les objectifs argentiques ne disposent pas du tiers de diaphragme.
Bonne soirée.
Xavier
XComm, au contraire, les objectifs "analogiques" ancienne manière disposent quasiment d'un réglage continu si on n'est pas manchot et qu'on sait tourner la bague de diaph sans se laisser impressionner par les crantages mécaniques.
Effectivement, je n'ai pas de crantage f1.4.
Voici donc un petit essai avec f 2.8 (pour me caler) ; f2 ; f1.4 (estimé) et f1.2 (en butée).
Avec comme progression de vitesses 1/50s ; 1/100s; 1/200s et 1/320s pour finir (je n'ai pas 1/300s sur le 5D2)
J'ai utilisé une surface claire (un radiateur) pour apprécier le vignettage et une charte de gris 18 au centre pour apprécier la réalité de l'ouverture.
Voilà voilà ;)
Le crop au centre pour juger la réalité de l'ouverture:
(http://farm5.static.flickr.com/4113/5192972535_b69336f9cf.jpg) (http://www.flickr.com/photos/domirobin45/5192972535/)
toujours la polemique (http://www.flickr.com/photos/domirobin45/5192972535/) par domirobin45 (http://www.flickr.com/people/domirobin45/), sur Flickr
Citation de: Caton le Novembre 20, 2010, 20:32:15XComm, au contraire, les objectifs "analogiques" ancienne manière disposent quasiment d'un réglage continu si on n'est pas manchot et qu'on sait tourner la bague de diaph sans se laisser impressionner par les crantages mécaniques.
Bonjour,
Oui, en théorie, mais comme la répétabilité de la précision d'ouverture du diaph sur ces objectifs n'a jamais été d'une fiabilité absolue...
Par chance, les problèmes étaient plus présent aux petites ouvertures.
Bonne journée.
Xavier
Tu as mille fois raison concernant la répétabilité.
Mais ici, on s'en fiche : ce qui est important est de balayer une seule fois le tout petit espace séparant f/2 de f/1,2 avec le max de positions intermédiaires, même mal repérées, et de regarder si, à un moment (disons vers f/1,6 ou 1,4), la PDC cesse de se réduire ou si, au contraire, elle continue à diminuer graduellement jusqu'à PO.
Pour ça, Seba l'a bien indiqué, il est important de disposer dans la zone floue, en arrière-plan, des petites taches claires de forme géométrique (rondes) pour vérifier si elles augmentent de taille ou pas : c'est un indicateur bien plus fiable que la transition net-flou qui, dans le cas qui nous occupe, devrait être sacrément subtile.
f1.2 f1.4 f1.8
Et maintenant, une progression la plus continue possible entre f1.2 et f2 (pour Caton):
Citation de: jesson le Novembre 20, 2010, 22:55:43
Voici donc un petit essai avec f 2.8 (pour me caler) ; f2 ; f1.4 (estimé) et f1.2 (en butée).
Avec comme progression de vitesses 1/50s ; 1/100s; 1/200s et 1/320s pour finir (je n'ai pas 1/300s sur le 5D2)
[...]
Avec l'outil pipette (moyennée 5x5 px) de toshop, je trouve au centre de cible grise, sur le canal de vert, sur une échelle de 0 à 255 :
f/2.8 [at] 1/50s :
62f/2 [at] 1/100s :
56f/1.2 [at] 1/320s : 51, et si je corrige par une régle de trois pour avoir une valeur pour 1/300 :
54.
Dans un monde idéal les trois chiffres en gras devraient être identiques, mais ce n'est pas le cas.
Cela tend à montrer que la courbe T-stop (Objo + Boitier) vs F-stop n'est pas linéaire, la transmission vue du 5D2 "ne suit pas" tout à fait l'accroissement de l'ouverture géométrique.
D'où sûrement la solution de booster les ISOs quand le boitier peut le faire (pas ici puisque c'est un objo qui ne renseigne pas le boitier).
cdlt,
GBo
suite et fin:
Je rappelle que le boitier n'est pas renseigné par l'objectif. L'objectif est un vieux 50mm f1.2. Contrairement aux tests précédents, où j'opérais en manuel, pour cette nouvelle série (la série au violon), où je j'étudie le bokeh, j'ai laissé l'EOS 5Dmk2 en priorité ouverture, mesure spot, pour avoir une exposition le plus uniforme possible.
Citation de: GBo le Novembre 21, 2010, 11:48:43
Avec l'outil pipette (moyennée 5x5 px) de toshop, je trouve au centre de cible grise, sur le canal de vert, sur une échelle de 0 à 255 :
f/2.8 [at] 1/50s : 62
f/2 [at] 1/100s : 56
f/1.2 [at] 1/320s : 51, et si je corrige par une régle de trois pour avoir une valeur pour 1/300 : 54.
Dans un monde idéal les trois chiffres en gras devraient être identiques, mais ce n'est pas le cas.
Cela tend à montrer que la courbe T-stop (Objo + Boitier) vs F-stop n'est pas linéaire, la transmission vue du 5D2 "ne suit pas" tout à fait l'accroissement de l'ouverture géométrique.
D'où sûrement la solution de booster les ISOs quand le boitier peut le faire (pas ici puisque c'est un objo qui ne renseigne pas le boitier).
cdlt,
GBo
J'ai fait le test en 100% manuel. La mesure spot du 5D ne m'a servi que de base à f2.8 pour me caler (et encore, j'ai exposé dense pour mieux apprécier le vignettage). Ensuite, je suis passé en M.
Comme la précision des crantage de ces vieux objectifs n'est pas parfaite, je mets ces irrégularités sur l'imprécision de l'opérateur (c'est à dire bibi ;D )
Par contre, pour la série au violon, j'ai laissé le 5D opérer priorité ouverture en mesure spot.
Citation de: jesson le Novembre 21, 2010, 11:53:01
J'ai fait le test en 100% manuel. La mesure spot du 5D ne m'a servi que de base à f2.8 pour me caler. Ensuite, je suis passé en M.
J'avais bien compris.
Merci Jesson, excellent boulot !
Tu montres bien avec ta première série que ni DxO, ni Pascal Miele ne racontent de salades quant à l'incapacité des capteurs très définis d'exploiter les très grandes ouvertures (et que ces petits coquins montent en ISO sans rien dire pour nous faire croire que..., dès lors que le boîtier est renseigné sur l'ouverture géométrique par des objectifs modernes : ça doit pas être de la tarte pour DxO de calculer les profils boîtiers dans ces conditions, avec un Exif à 100 et un ISO réel à 250 par exemple).
Avec la deuxième série, en revanche, et si 1,2 est bien à gauche, on voit que l'arrière-plan floute plus à 1,2 qu'à 1,4 (fleurs jaunes et blanches plus "éclatées"), ce qui est contradictoire avec l'idée que les rayons marginaux sont coupés au niveau des micro-lentilles : s'ils n'influencent pas l'éclairement, ils ne devraient pas davantage jouer sur la PDC en élargissant le cercle de confusion et donc en augmentant le flou.
Je parierai sur un effet réel (perte partielle d'éclairement par les rayons marginaux à PO) mais quand même sur le fait que, malgré tout, il "en passe un peu" et que ça suffit à 1)réduire l'impact sur l'éclairement et 2)donner un peu moins de PDC.
Merci pour tes essais, très "éclairants" !
Et cette série (la série de 6) m'a permis de voir que entre la 5907 et la 5908, en fermant à peine d'un chouïa, si je perds légèrement en luminosité (je passe de 1/1580s à 1/1328s), je me débarrasse en revanche d'une grande partie des aberrations, de la perte de contraste, pour au final, un bokeh à peine moins doux.
C'est noté pour l'usage quotidien :)
Citation de: jesson le Novembre 21, 2010, 13:08:12
Et cette série (la série de 6) m'a permis de voir que entre la 5907 et la 5908, en fermant à peine d'un chouïa, si je perds légèrement en luminosité (je passe de 1/1580s à 1/1328s), je me débarrasse en revanche d'une grande partie des aberrations, de la perte de contraste, pour au final, un bokeh à peine moins doux.
C'est noté pour l'usage quotidien :)
C'est certain que fermer d'un chouia ameliore considérablement le piqué et je me demande si l'aspect à peine plus doux du bokey n'est pas a mettre en compte sur le manque de piqué.
En pratique, le fait d'avoir a accentuer la photo à PO, pour rattraper celle à peine diaphragmée fera que le bokey sera alors moins doux.
Je trouve que mis à part la derniere photo, que les bokey sont très voisins, et que sur un tirage, sans avoir un élément de comparaison a se mettre sous la dent, personne ne verra réellement la différence.
Citation de: Caton le Novembre 21, 2010, 12:59:23
... on voit que l'arrière-plan floute plus à 1,2 qu'à 1,4 (fleurs jaunes et blanches plus "éclatées"), ce qui est contradictoire avec l'idée que les rayons marginaux sont coupés au niveau des micro-lentilles : s'ils n'influencent pas l'éclairement, ils ne devraient pas davantage jouer sur la PDC en élargissant le cercle de confusion et donc en augmentant le flou.
Personnellement, je ne vois rien de contradictoire ici. L'image étendue d'un objet hors plan de mise au point intéresse une surface de capteur sans commune mesure avec la surface d'un photo site. Même si les photosites n'utilisaient 10 % de la lumière qui leur parvient, les images des objets hors plan de mise au point seraient toujours d'autant plus étendues, donc d'autant plus floues, que l'objectif est plus ouvert.
+1 avec Pierre T :-*, c'est exactement ce que j'ai essayé de dire hier à la fin de ce message :
http://www.chassimages.com/forum/index.php/topic,104882.msg1903818.html#msg1903818
Pierre T,
Oui, mais si les photosites sont incapables d'utiliser la lumière provenant de la périphérie de la pupille de sortie, tout se passe comme si cette dernière était munie d'un diaphragme limitant son diamètre utile. La PDC devrait s'en ressentir...
C'est peut-être aussi pourquoi les cailloux ultra lumineux ont souvent de meilleurs résultats à pleine ouverture en numérique qu'en argentique, les rayons les plus inclinés étant responsables des aberrations, s'ils ne sont pas captés...moins d'aberrations.
Citation de: Caton le Novembre 21, 2010, 12:59:23
Merci Jesson, excellent boulot !
Tu montres bien avec ta première série que ni DxO, ni Pascal Miele ne racontent de salades quant à l'incapacité des capteurs très définis d'exploiter les très grandes ouvertures (et que ces petits coquins montent en ISO sans rien dire pour nous faire croire que..., dès lors que le boîtier est renseigné sur l'ouverture géométrique par des objectifs modernes : ça doit pas être de la tarte pour DxO de calculer les profils boîtiers dans ces conditions, avec un Exif à 100 et un ISO réel à 250 par exemple).
(...)
Excellent travail en effet (merci !) mais cette vérification expérimentale a une faiblesse : elle suppose que les ouvertures portées sur l'objectif utilisé pour le test sont exactes.
Imaginons en effet que Canon ou Nikon aient baptisé f/1,2, par exemple pour des raisons marketing, un objectif qui est en réalité un f/1,28 et que la position f/1,4 corresponde à f/1,45 pour lisser le "rattrapage", f/1,7 ou f/2 étant exact.
Dans ce cas-là, en augmentant progressivement l'ouverture et en réduisant le temps de pose en fonction de la variation de l'ouverture théorique, l'augmentation de l'ouverture réelle sera moindre qu'escompté et on constatera un assombrissement progressif de l'image sans que le capteur y soit pour rien.
Les observations de jesson :
- assombrissement progressif quand on va vers les plus grandes ouvertures
- flou qui progresse constamment d'une grande ouverture à une ouverture encore plus grande
sont d'ailleurs tout-à-fait compatibles avec un repérage des ouvertures sur l'objectif qui serait de plus en plus optimiste en allant vers les très grandes ouvertures.
Ce serait malhonnete de la part du constructeur Mistral75, car 1.2 est sensé être l'arrondi de sqrt(2)^(1/2) = 1.1892
Et 1.4 l'arrondi de sqrt(2)=1.4142.
(avec sqrt signifiant racine carrée, ^ exposant).
En outre le 1.4 n'étant pas cranté sur l'objo de jesson, je n'ai pas pris cette mesure en compte dans mon analyse de ses résultats :
http://www.chassimages.com/forum/index.php/topic,104882.msg1905025.html#msg1905025
Il n'empeche qu'il faudrait d'autres mesures avec d'autres objos avant de conclure sur cet aspect (transmission vue du boitier), là dessus je ne puis que plusser.
Citation de: Mistral75 le Novembre 21, 2010, 15:41:57
Imaginons en effet que Canon ou Nikon aient baptisé f/1,2, par exemple pour des raisons marketing, un objectif qui est en réalité un f/1,28 et que la position f/1,4 corresponde à f/1,45 pour lisser le "rattrapage", f/1,7 ou f/2 étant exact.
Ca, c'est vrai que ça collerait aussi avec les résultats côté exposition...
Oui, ce serait malhonnête, mais pas plus que de relever les ISO dans le dos du photographe. ::)
Citation de: Caton le Novembre 21, 2010, 12:59:23
Avec la deuxième série, en revanche, et si 1,2 est bien à gauche, on voit que l'arrière-plan floute plus à 1,2 qu'à 1,4 (fleurs jaunes et blanches plus "éclatées"),
Perso, je vois un peu différemment : le diamètre du flou d'arrièreplan ne varie que très peu, par contre l'aspect du bokeh est très différent, avec à gauche (f/1.2 non?) un bokeh en "double ligne" bien visible sur le toit, alors que celyui à f/2 est beaucoup plus doux.
Ca, ça collerait très bien avec l'hypothèse que certains rayons marginaux n'arrivent pas sur le capteur.
En tous cas, merci à Jesson d'avoir fait ces expériences!
Une petite série de tests avec le D3s, D3x et le 85 / 1.4 pour essayer de faire avancer le sujet.
Le nom du boitier est dans le nom du fichier.
;)
Bonsoir,
Citation de: Caton le Novembre 21, 2010, 14:57:24
Oui, mais si les photosites sont incapables d'utiliser la lumière provenant de la périphérie de la pupille de sortie, tout se passe comme si cette dernière était munie d'un diaphragme limitant son diamètre utile. La PDC devrait s'en ressentir...
Je pense simplement qu'il ne faut pas fonder son jugement sur les objets flous complètement hors de la zone de mise au point. Mais je suis d'accord avec ce que vous dites ici : à priori la profondeur de champ (strictement la zone considérée comme nette) doit augmenter, un peu. Mais il importe de faire attention aux ordres de grandeurs : on parle ici de fraction de diaphragme sur des objectifs très ouverts... De plus ceci n'est vrai qu'au centre de l'image. Sur les bords, c'est plus compliqué et pas forcément vérifié, car la distance entre pupille de sortie et capteur a une grande influence sur l'angle moyen d'émergence des rayons lumineux éclairant les bords du cercle image. Ainsi, par exemple, les rayons lumineux éclairant les bords du cercle image d'un 50 mm f/1.2 ne sont pas nécessairement plus inclinés que ceux d'un 50 mm f/1.8 simplement parce que la pupille de sortie du f/1.2 peut être beaucoup plus éloignée que celle du f/1.8 (exemple connu car étudié).
Amicalement,
Pierre T.
Je ne trouve pas les photos de Jesson très expressives. En effet le protocole ne permet pas une mesure photométrique précise (et donc mesurer des différences d'exposition est illusoire). Il ne permet pas non plus de se faire une idée de l'ouverture géométrique (trop de détails pour cela), ou tout du moins de son évolution (mesurer l'ouverture géométrique précisément, c'est costo).
Pour en revenir à l'article de CI. Tout d'abord il est affirmé que les petits pixels génèrent une perte de lumière car ils sont moins sensibles (du fait de leur taille) aux rayons fortement incidents. J'ai précédemment dit que cela me semblait faux, et que l'observation des courbes de vignettage permettait de supporter cette hypothèse. En effet si une microlentille est moins sensible qu'une autre aux rayons très incidents, alors (en plus de l'effet présenté par CI selon laquelle on n'a pas des objos aussi lumineux qu'on espérerait) le capteur génèrerait plus de vignettage (les capteurs des M8 & M9 sont prévus pour combattre ce phénomène) qu'un capteur équipé de meilleures lentilles. Et donc un capteur avec un plus petit pixel pitch devrait générer plus de vignettage. Or un tour sur les mesures de vignettage de DxOmark montre que pour une même optique, tous les capteurs d'un constructeur donnent le même vignettage. D'où un souci avec l'hypothèse de départ (petits pixels => plus de perte de luminosité).
Maintenant pour se faire une idée de la perte de luminosité due à cet effet, on peut aller regarder dans les datasheets des fabricants (pour ceux qui les publient). Par exemple avec le capteur Kodak du H3D39 (disponible ici (http://www.kodak.com/global/plugins/acrobat/en/business/ISS/datasheet/fullframe/KAF-39000LongSpec.pdf)), la figure 8 quantifie l'efficacité optique en fonction de l'angle d'incidence. Si on prend entre + et - 25° (ce qui correspond quand même à une ouverture géométrique de 1,2 environ) on a un transmission moyenne de plus de 95% (à 25°, la transmission vaut 90%, et la courbe est clairement concave) soit une perte maximale de 0,074 Ev, largement inférieure à ce qui est affirmé par CI (l'ordre de grandeur affirmé par CI est plutôt de 0,3Ev voir plus). Bien sûr on peut affirmer que j'ai utilisé un capteur de moyen format, et que les microlentilles peuvent être différentes sur des capteurs plus petits qui n'ont pas le même cahier des charges. Ça pourrait-être recevable même si j'en doute fortement car je ne vois pas pourquoi il y aurait des différences de ce côté là au niveau de l'architecture. Mais si quelqu'un sait où trouver des datasheet pour des capteurs plus petits, on pourra vérifier. Dans l'état actuel des choses, l'hypothèse émise par CI ne semble pas être vérifiée par une approche poussée en tous cas. De même ce phénomène ne devrait pas avoir d'effet sur la profondeur de champ.
A la réflexion, je pense que l'augmentation de la profondeur de champ induite par cette affaire de rayons marginaux non utilisés doit être assez proche de zéro. Car si un point image est formé par un seul photo site, le fait que ce photo site ne capte pas les rayons marginaux ne rend pas le pixel correspondant plus net pour autant. Et pour un point image formé par plus d'un photo site, le fait que ces photos sites ne captent pas les rayons marginaux n'a aucune influence sur la profondeur de champ, puisque c'est alors l'élément de surface formé par les photos sites concernés qui est déterminant.
Citation de: PierreT le Novembre 21, 2010, 22:35:26
A la réflexion, je pense que l'augmentation de la profondeur de champ induite par cette affaire de rayons marginaux non utilisés doit être assez proche de zéro. Car si un point image est formé par un seul photo site, le fait que ce photo site ne capte pas les rayons marginaux ne rend pas le pixel correspondant plus net pour autant. Et pour un point image formé par plus d'un photo site, le fait que ces photos sites ne captent pas les rayons marginaux n'a aucune influence sur la profondeur de champ, puisque c'est alors l'élément de surface formé par les photos sites concernés qui est déterminant.
Non, je pense que si les microlentilles ne laissaient passer les rayons que dans un angle très fermé, il y aurait effectivement une augmentation de la profondeur de champ car les rayons formant les bords de la tache seraient trop inclinés pour être perçus. Un moyen de vérifier cela serait à mon avis par exemple de photographier une source lumineuse ponctuelle fortement défocalisée et de vérifier que le diamètre de la tache floue est bien proportionnel dans ce cas à l'ouverture (enfin inversement proportionnel). Mais je doute qu'on ait une observation très franche en faveur d'une augmentation de la profondeur de champs (tout au plus à pleine ouverture, on pourrait observer que celle-ci n'est pas totalement cohérente avec les autres ouvertures).
FX, pour ta dernière remarque, c'est en gros ce qu'a fait très gentiment et plutôt sérieusement Jesson, non? Les taches formées par les fleurs à l'arrière plan correspondent assez à ta demande.
pour le reste, je suis surpris que tu puisses formuler une remarque pertinente d'un côté et que de l'autre tu persistes à trouver un lien avec le vignetage optique, alors qu'il n'y en a strictement aucun.
Tu as lu de travers et compris de travers (hypothèse haute) ou tu ne piges strictement rien au problème optique en jeu (hypothèse basse).
Bonjour,
Citation de: FX-Bucher le Novembre 21, 2010, 22:45:39
Non, je pense que si les microlentilles ne laissaient passer les rayons que dans un angle très fermé, il y aurait effectivement une augmentation de la profondeur de champ car les rayons formant les bords de la tache seraient trop inclinés pour être perçus. Un moyen de vérifier cela serait à mon avis par exemple de photographier une source lumineuse ponctuelle fortement défocalisée et de vérifier que le diamètre de la tache floue est bien proportionnel dans ce cas à l'ouverture (enfin inversement proportionnel). Mais je doute qu'on ait une observation très franche en faveur d'une augmentation de la profondeur de champs (tout au plus à pleine ouverture, on pourrait observer que celle-ci n'est pas totalement cohérente avec les autres ouvertures).
Voilà comment je vois les choses...
La profondeur de champ dépend de la profondeur de foyer. Celle-ci est déterminée par :
- l'angle au sommet du cône utile émergent (fixé par l'ouverture géométrique de l'objectif) ,
- le diamètre du cercle de confusion (fixé par le photographe).
La profondeur de foyer ainsi délimitée, détermine l'aire maximum des éléments de surface qui seront considérés comme assimilables à un point image net.
Sur le capteur cette aire correspond à un nombre maximum de photosites.
Le fait que, pour quelque raison que ce soit, chacun de ces photosites ne captent pas la totalité du flux qui les éclaire (en pointillés sur le dessin) n'a aucune influence sur les paramètres qui détermine la profondeur de foyer, et par voie de conséquence sur la profondeur de champ.
Amicalement,
Pierre T.
Vous avez de l'aspirine? ;D
Citation de: PierreT le Novembre 22, 2010, 09:33:57
Bonjour,
Voilà comment je vois les choses...
[...]
Merci pour l'explication illustrée, c'est très clair (si on a compris la notion de cercle de confusion en prérequis).
Et pour les cercles de flou (issus de points lumineux hors de la zone de confusion), verrais-tu une raison pour laquelle ils ne seraient pas proportionnels à l'ouverture géométrique sur un reflex numérique CMOS à petit pitch ?!?
cordialement,
GBo
Je ne vois aucune raison. Les faisceaux lumineux issus des objets situés en dehors de la zone de profondeur de champ convergent en dehors des limites de la profondeur de foyer (en avant ou en arrière, peu importe). Sur le capteur, l'image de ces objets est donc constituée de taches dont l'aire est supérieure à la surface limitée par le cercle de confusion. Chaque point objet ne créé donc plus un point image sur le capteur, mais une tache image. L'angle au sommet du cône utile émergent (donc l'ouverture géométrique de l'objectif) et l'écart entre le capteur et le point de convergence du faisceau détermine le nombre de photosites éclairés par la tache. Là encore, le fait que chacun des photosites concerné par la tache ne capte pas la totalité du flux ne change rien au nombre de photosites éclairés, donc à l'apparence du flou.
Citation de: FX-Bucher le Novembre 21, 2010, 22:45:39
Non, je pense que si les microlentilles ne laissaient passer les rayons que dans un angle très fermé, il y aurait effectivement une augmentation de la profondeur de champ car les rayons formant les bords de la tache seraient trop inclinés pour être perçus...
C'est aussi ce que je pensais au départ, d'où mon hésitation. Mais ce raisonnement ne tient pas car les photosites situés au bord de la tache ne sont pas uniquement éclairés par des rayons plus inclinés que ceux qui éclairent le centre de la tache. Car toute la surface apparente de la pupille de sortie les éclaire dès lors qu'ils sont inclus dans la tache ; et le rayon de la tache est toujours très inférieur à la distance entre la pupille de sortie et le capteur.
Merci PierreT, excellentes explications !
Je me suis permis de passer aux mesures à partir d'images trouvées sur le net, il s'agit de flou d'arrière-plan généré par des guirlandes lumineuses de sapin de Noel, les voici :
http://www.pentaxforums.com/forums/pentax-slr-lens-discussion/85864-out-focus-highlight-demo-focal-length-aperture.html
Courtesy of Jim Ashcraft Photography
L'image du haut est faite avec un SMC Pentax-A 50mm F1.2 à PO
L'image du juste en dessous est faite avec un SMC Takumar 50mm F1.4 à PO
L'appareil est un Pentax K-7 (un CMOS APS à 15 Mpx)
Voici les mesures effectuées par mes soins avec l'outil "measure tool" de photoshop sur une des taches de flou à F1.2 et à F1.4, libre à vous de les refaire:
(http://gbotet.perso.sfr.fr/phot10/BlurComp.jpg)
Diamètre du cercle de flou de l'objectif [at] F1.2 : 106 pixels
Diamètre du cercle de flou de l'objectif [at] F1.4 : 91 pixels
Or on calcule que l'on a : 91*(1.4/1.2) = 106.1
La théorie classique est respectée, le flou suit l'ouverture géométrique de façon linéaire.
cdlt,
GBo
Citation de: PierreT le Novembre 22, 2010, 09:33:57
Le fait que, pour quelque raison que ce soit, chacun de ces photosites ne captent pas la totalité du flux qui les éclaire (en pointillés sur le dessin) n'a aucune influence sur les paramètres qui détermine la profondeur de foyer, et par voie de conséquence sur la profondeur de champ.
La PdC plus faible est due UNIQUEMENT aux rayons lumineux les plus inclinés.
Si on supprime les rayons lumineux les plus inclinés la PdC augmente.
(//)
Oui, mais qu'est ce qui supprime les rayons les plus inclinés, à part le diaphragme ?
Le fait que les photosites ne captent pas ces rayons les plus inclinés ne fait que diminuer le signal qu'ils restituent (car ils continuent d'accepter les autres rayons) et donc il continuent de participer à la création de l'image et à déterminer la profondeur de champ.
Fausse manip. Encore !!
Citation de: PierreT le Novembre 22, 2010, 22:05:41
Oui, mais qu'est ce qui supprime les rayons les plus inclinés, à part le diaphragme ?
Le fait que les photosites ne captent pas ces rayons les plus inclinés ne fait que diminuer le signal qu'ils restituent (car ils continuent d'accepter les autres rayons) et donc il continuent de participer à la création de l'image et à déterminer la profondeur de champ.
Ce sont les photosites du capteur qui ne captent pas les rayons les plus inclinés,
et ce sont precisement les rayons les plus inclinés qui correspondent aux rayons que laisse passer un objectif très ouvert.
Ce sont ces rayons qui diminuent la PdC (ou la profondeur de foyer) car il forment des taches floues partout en dehors de leur plan de focalisation.
C'st tellement vraie que si on pouvait diminuer le diaphragme, sans avoir les problèmes de diffraction, on pourrait obtenir une PdC infinie.
C'est un peu le cas avec une sténopé.
Citation de: Emile le Novembre 22, 2010, 22:41:29
C'st tellement vraie que si on pouvait diminuer le diaphragme, sans avoir les problèmes de diffraction, on pourrait obtenir une PdC infinie.
La diffraction est liée à la nature ondulatoire de la lumière, non ?
Quel rapport avec le problème qui nous préoccupe ici ?
Citation de: Verso92 le Novembre 22, 2010, 22:49:59
La diffraction est liée à la nature ondulatoire de la lumière, non ?
Quel rapport avec le problème qui nous préoccupe ici ?
Si on diminue l'ouverture du diaphragme , les rayons ont de plus en plus proches de l'axe et la PdC est de plus en plus grande.
On ne peut pas diminuer indéfiniment l'ouverture du diaphragme à cause de la diffraction .
Citation de: Emile le Novembre 22, 2010, 23:05:59
Si on diminue l'ouverture du diaphragme , les rayons ont de plus en plus proches de l'axe et la PdC est de plus en plus grande.
On ne peut pas diminuer indéfiniment l'ouverture du diaphragme à cause de la diffraction .
Je ne dis pas le contraire... mais le phénomène qui limite l'accroissement de la PdC (la diffraction) n'a strictement rien à voir avec le capteur*.
*ou du moins, pas avec le phénomène qui nous occupe dans ce fil...
Citation de: Verso92 le Novembre 22, 2010, 23:11:58
Je ne dis pas le contraire... mais le phénomène qui limite l'accroissement de la PdC (la diffraction) n'a strictement rien à voir avec le capteur*.
*ou du moins, pas avec le phénomène qui nous occupe dans ce fil...
Oui bien sur.
Citation de: GBo le Novembre 22, 2010, 20:10:08
Je me suis permis de passer aux mesures à partir d'images trouvées sur le net, il s'agit de flou d'arrière-plan généré par des guirlandes lumineuses de sapin de Noel, les voici :
http://www.pentaxforums.com/forums/pentax-slr-lens-discussion/85864-out-focus-highlight-demo-focal-length-aperture.html
Courtesy of Jim Ashcraft Photography
L'image du haut est faite avec un SMC Pentax-A 50mm F1.2 à PO
L'image du juste en dessous est faite avec un SMC Takumar 50mm F1.4 à PO
L'appareil est un Pentax K-7 (un CMOS APS à 15 Mpx)
Voici les mesures effectuées par mes soins avec l'outil "measure tool" de photoshop sur une des taches de flou à F1.2 et à F1.4, libre à vous de les refaire:
(http://gbotet.perso.sfr.fr/phot10/BlurComp.jpg)
Diamètre du cercle de flou de l'objectif [at] F1.2 : 106 pixels
Diamètre du cercle de flou de l'objectif [at] F1.4 : 91 pixels
Or on calcule que l'on a : 91*(1.4/1.2) = 106.1
La théorie classique est respectée, le flou suit l'ouverture géométrique de façon linéaire.
cdlt,
GBo
C'est pour cela que j'en ai fait avec les NEFs et plusieurs boitiers.
Pour que d'autres aillent en chercher sur le Web ;D
;)
Bonjour,
Citation de: Emile le Novembre 22, 2010, 22:41:29
Ce sont les photosites du capteur qui ne captent pas les rayons les plus inclinés,
et ce sont precisement les rayons les plus inclinés qui correspondent aux rayons que laisse passer un objectif très ouvert.
Ce sont ces rayons qui diminuent la PdC (ou la profondeur de foyer) car il forment des taches floues partout en dehors de leur plan de focalisation.
C'st tellement vraie que si on pouvait diminuer le diaphragme, sans avoir les problèmes de diffraction, on pourrait obtenir une PdC infinie.
C'est un peu le cas avec une sténopé.
Je ne suis pas sûr de bien comprendre ce que vous voulez dire...
Vous semblez considérer que les photosites situés à la périphérie de la tache de flou ne sont éclairés que par les rayons très inclinés provenant de la périphérie de la pupille de sortie. Dès lors, étant incapables de capter ces rayons, les photosites situés à la périphérie de la tache de flou ne délivreraient plus de signal, ce qui réduirait implicitement le diamètre de la tache de flou et donc augmenterait la profondeur de champ.
Ce raisonnement serait bon, si l'hypothèse de départ était correcte... Ce qui n'est pas le cas.
Le dessin ci-dessous illustre une tache de flou créée par un point image situé au-delà du capteur. L'angle au sommet du cône correspond à celui d'un objectif ouvert à f/1.4. Les photosites n'acceptent que la lumière leur arrivant sous un angle correspondant à une ouverture de f/2. Le photosite rouge, en bordure de la tache, donnera-t-il un signal plus faible que le bleu situé au centre de la tache ? Non.
Tous deux reçoivent le même éclairage. Le signal qu'ils délivrent correspond à celui d'un objectif ouvert à f/2, mais la tache de flou (donc la profondeur de champ) correspond bien à celle d'un objectif ouvert à F/1.4.
Amicalement,
Pierre T.
Il y a quand même un truc qui me choque dans le schéma, c'est que normalement tous les rayons devraient se croiser au même endroit.
Oooups ! Vous avez parfaitement raison Seba (merci), évidemment les rayons doivent converger au même foyer. A force de vouloir simplifier les choses c'est moi qui me suis planté dans mon raisonnement, et mon schéma est faux ! Ne tenez pas compte de mon intervention. Et toutes mes excuses à Emile et FX-Bucher !
Amicalement,
Pierre T.
Sur photozone, on peut observer l'évolution des taches de flou en fonction de l'ouverture.
Par exemple, le Nikkor 50/1.4 AFS :
http://www.photozone.de/nikon_ff/441-nikkor_afs_50_14_ff?start=1
Pour cet objectif, en faisant le rapport des tailles d'une tache de flou, j'ai obtenu (au lieu du 1.41 théorique) :
1.10 entre f/1.4 et f/2
1.37 entre f/2.8 et f/2
1.44 entre f/4 et f/2.8
Citation de: GBo le Novembre 21, 2010, 15:52:31
Ce serait malhonnête de la part du constructeur Mistral75, car 1.2 est sensé être l'arrondi de sqrt(2)^(1/2) = 1.1892
Et 1.4 l'arrondi de sqrt(2)=1.4142.
(avec sqrt signifiant racine carrée, ^ exposant).
Non, pas malhonnête, simplement un "arrondi commercial". Seuls les brevets des formules optiques stipulent les focales et les ouvertures exactes.
Premier exemple qui me tombe sous l'œil : un brevet Canon.
Commercialement, l'objectif est un 24-105 mm f/3,5-5,6. Quand tu lis le brevet, c'est un 24,90 - 102,02 mm f/3,62-5,82.
Donc un 25-102 mm (range plus court qu'annoncé, à chaque bout) f/3,6-5,8 (moins lumineux qu'annoncé).
Merci pour ta précision Mistral
Citation de: Michel K le Novembre 23, 2010, 14:08:54
Sur photozone, on peut observer l'évolution des taches de flou en fonction de l'ouverture. [...]
Les tâches de flou ne sont pas situées au centre de la photo hélas, ce crop n'est donc pas exploitable : cercles déformés et tronqués pour d'autres raisons que celles dont on discute dans le cadre de l'influence réelle ou pas du capteur. Il faut des cercles au centre ou proche du centre, et généré par des sources lumineuses puissantes et ponctuelles, comme l'exemple édifiant que j'ai posté hier qui contredit les doutes de Luminous Landscape sur l'amplitude du flou généré par un objo 1.2 par rapport à un objo 1.4.
Un exemple isolé ne suffisant pas, que les possesseurs d'objos ouverts sortent le trépied et les guirlandes de Noël (un peu en avance pour les guirlandes) !
Je viens de faire un essai en photographiant avec mon AFS 50/1,4 une source lumineuse très éloignée, dmap au mini.
Lorsque la tache est au centre, on trouve exactement le rapport racine(2) entre le diamètre des taches de flous à l'ouverture f/1,4 et f/2.
Comment peut-on expliquer qu'en bord d'image, on perde ce rapport?
Citation de: Michel K le Novembre 23, 2010, 19:17:15
Je viens de faire un essai en photographiant avec mon AFS 50/1,4 une source lumineuse très éloignée, dmap au mini.
Lorsque la tache est au centre, on trouve exactement le rapport racine(2) entre les tache de flous à l'ouverture f/1,4 et f/2.
Comment peut-on expliquer qu'en bord d'image, on perde ce rapport?
A cause du vignettage.
Citation de: FX-Bucher le Novembre 23, 2010, 19:18:38
A cause du vignettage.
Exactement. C'est surtout que le rapport est incalculable because déformation des cercles.
Voici l'explication que donne Zeiss dans son papier "Depth of Field and Bokeh" (en anglais):
http://www.zeiss.com/C12567A8003B8B6F/EmbedTitelIntern/CLN_35_Bokeh_EN/$File/CLN35_Bokeh_en.pdf (http://www.zeiss.com/C12567A8003B8B6F/EmbedTitelIntern/CLN_35_Bokeh_EN/$File/CLN35_Bokeh_en.pdf)
"At the edge of the photo iris images are also altered by vignetting if the light cones going to the edge of the photo at wide apertures are intersected by front or rear parts of the lens barrel or by the limited diameter of rear and front elements"=> Aux bords de la photo, les images du diaph sont aussi altérées par le vignettage si les cones de lumière arrivant sur les bords de la photo aux grandes ouvertures recontrent les éléments avant ou arrière du fut de l'objectif ou le diamètre limité des éléments avant ou arrière.
cdlt,
GBo
Citation de: GBo le Novembre 23, 2010, 20:29:55
"At the edge of the photo iris images are also altered by vignetting if the light cones going to the edge of the photo at wide apertures are intersected by front or rear parts of the lens barrel or by the limited diameter of rear and front elements"
Oui, mais la photo qui va avec p31 montre que dans ce cas le rond n'est plus rond, mais fait de deux arcs brisés... là la tache reste ronde mais plus petite.
Est-ce le même phénomène?
Citation de: Nikojorj le Novembre 23, 2010, 21:21:43
Oui, mais la photo qui va avec p31 montre que dans ce cas le rond n'est plus rond, mais fait de deux arcs brisés... là la tache reste ronde mais plus petite.
Est-ce le même phénomène?
Pour moi oui car on devine également des surfaces en forme d'intersection de deux cercles de la série photozone postée par Michel K, c'est cette troncature qui empeche d'aprécier le vrai diamètre du cercle de flou à mes yeux. On voit le même genre de truc en argentique, c'est donc pas sur les bords qu'il faut chercher pour investiguer simplement et sûrement cette histoire de l'influence des photosites sur le flou.
Et surtout, Michel a fait un test, et le résultat parle de lui-même, c'est le deuxième exemple posté ici où la formule classique marche sur un reflex numérique contrairement aux prédictions de Mark Dubovoy sur le flou.
Avec quel appareil au fait Michel ?
sur Nikon D700 :)
Citation de: Michel K le Novembre 23, 2010, 22:18:12
sur Nikon D700 :)
Donc un appareil avec lequel un objectif à f/1.4 perd 1/3 d'EV d'après Luminous Landscape, et qui si l'on suit le raisonnement de l'article, devrait être concerné de façon semblable (donc de façon mesurable dans cet exemple) par un soi-disant problème de flou qui plafonnerait. Et ce devrait être pire encore pour le malheureux K-7 et son objo à f/1.2...
Ouverture progressive du diaph de f2 à f1.2 : image d'une LED pleine pastille
respectivement 0.8s 0.8s 0.6s 0.4s
La même LED, mise au point sur un objet intermédiaire situé à mi-distance (1.20m).
Un 50mm f1.8 à pleine ouverture et un 50mm f1.2 à pleine ouverture
Photos prises avec un EOS 5DMk2
Bonjour,
Pour ne pas rester sur un mauvais dessin, en voici un (peut-être moins lisible que le précédent, mais plus juste) qui montre que le photosite rouge, bien qu'éclairé par le cône de lumière issu de la pupille de sortie ne donne aucun signal car l'incidence du flux qui lui parvient (du bord de la pupille de sortie) est supérieure à son angle de sensibilité. La tache de lumière prise en compte par les photosites est donc moins grande que la tache effectivement éclairée par la pupille de sortie, et il y a donc bien une faible augmentation de la profondeur de champ.
Je pense que, cette fois, tout le monde sera d'accord avec cette façon de présenter les choses... :)
Amicalement,
Pierre T.
Citation de: PierreT le Novembre 24, 2010, 05:43:42
Je pense que, cette fois, tout le monde sera d'accord avec cette façon de présenter les choses... :)
A mon avis, pour une étude valable, il faudrait prendre en compte les caractéristiques exactes du capteur, c'est-à-dire les microlentilles (position, distance focale, géométrie du réseau), la forme de la puce avec les photosites au fond d'un "puits" (de quelle taille ?), etc...voir comment les rayons sont déviés par les microlentilles.
Tout à fait d'accord. Toutes les données dont vous parlez permettraient d'aller plus loin et d'obtenir des données chiffrées. Ceci n'est qu'un dessin de principe permettant de visualiser pourquoi la profondeur de champ augmente lorsque l'angle de sensibilité des photosites diminue. Bien que ce ne soit pas très compliqué j'avoue que pour moi, cela n'a pas été d'emblée évident.
Citation de: jesson le Novembre 23, 2010, 23:48:37
La même LED, mise au point sur un objet intermédiaire situé à mi-distance (1.20m).
Un 50mm f1.8 à pleine ouverture et un 50mm f1.2 à pleine ouverture
Photos prises avec un EOS 5DMk2
J'obtiens 56 pixels pour le cercle du 1.8 et 90 pixels pour le cercle du 1.2.
La formule donne 56*(1.8/1.2) = 84, donc le cercle du 1.2 est encore plus grand qu'escompté !
Si ton 1.8 est en fait un 1.9, le rapport tombe juste.
Donc voila le 3ième exemple où la mesure invalide la théorie de L.L. sur le flou. Ils auraient du faire un petit test (ça prend 10 minutes) avant de clamer que ça vaut pas la peine d'acheter un 1.2 ! Le mal est fait, le buzz fait le tour des forums photos de la planète. Ils auraient du franchement se contenter du scoop (que je crois véridique mais qui reste à vérifier*) que le boitier triche avec les ISOs, c'était déjà pas mal...
(*) :La procédure que je propose : http://www.chassimages.com/forum/index.php/topic,105062.msg1905732.html#msg1905732
C'est amusant de lire le début de ce fil, alors que CI dans son dernier n° de décembre vient de consacrer un article complet au phénomène. C'est après l'avoir lu hier que j'ai recherché ici et suis tombé sur ce fil.
Il ya des erreur au début de ce fil. Le phénomène entrainerai potentiellement une sous-ex de l'image à f1.4, et non une sur-ex !
Lire l'article de CI, il est limpide.
Ce que je me demande, c'est si c'est pareil avec les dernier f1.4 AFS à 2000 roros le caillou !
Et vous allez m'entendre à nouveau hurler après Nikon qui refuse de nous sortir des optiques fixes AFS à f1.8 ou f2 à prix raisonnable.
Sachant celà maintenant, je peux vous dire que si j'avais acheté un 24, 35 ou 85 AFS f1.4, j'aurai sacremment les boules !
Parce qu'au delà de la perte de luminosité (somme toute pas très pénalisante), le phénomène induit aussi que la profondeur de champs résultante à ce "faux" f1.4 n'est pas ce qu'elle devrait être non plus.
Conclusion: un f1.4 sur un D3x n'apporte rien par rapport à f1.8
Citation de: Fanzizou le Novembre 24, 2010, 10:06:26
[...]
Sachant celà maintenant, je peux vous dire que si j'avais acheté un 24, 35 ou 85 AFS f1.4, j'aurai sacremment les boules !
Parce qu'au delà de la perte de luminosité (somme toute pas très pénalisante), le phénomène induit aussi que la profondeur de champs résultante à ce "faux" f1.4 n'est pas ce qu'elle devrait être non plus.
Conclusion: un f1.4 sur un D3x n'apporte rien par rapport à f1.8
Sauf que les tests que l'on réalise ici sur les cercles de flou montre que ce que j'ai mis en gras a de fortes chances d'être faux aux ouvertures dont on cause (les tests de l'article sont exacts, mais ils ne concernent que la transmission, ils n'ont testé pas la PdC ni le flou justement).
Voilà, ton intervention illustre que le mal est fait, bravo à Chasseur d'Images qui lance des conjectures sans vérifier, contribuant ainsi à la propagation d'une légende.
Citation de: GBo le Novembre 24, 2010, 10:23:58
Sauf que les tests que l'on réalise ici sur les cercles de flou montre que ce que j'ai mis en gras a de fortes chances d'être faux aux ouvertures dont on cause (les tests de l'article sont exacts, mais ils ne concernent que la transmission, ils n'ont testé pas la PdC ni le flou justement).
Voilà, ton intervention illustre que le mal est fait, bravo à Chasseur d'Images qui lance des conjectures sans vérifier, contribuant ainsi à la propagation d'une légende.
Je n'ai lu que le début du fil comme je disais, et il est vrai que CI pour la profondeur de champ ne se base que sur le raisonnement théorique comme quoi si la micro lentille ne fait pas rentrer tous les rayons les plus obliques ds le photosite (pour parler simplement...), on a en PDC celle du diaphragme photométrique autour de f1.7 au lieu de f1.4, ce qui parait effectivement logique.
Je vais lire le reste du fil voire si je suis d'accord ou non sur l'erreur potentielle de CI sur ce point.
Citation de: JMS le Octobre 29, 2010, 19:39:51
J'ai de gros doutes sur la réalité de l'obliquité des rayons ailleurs que dans les coins avec un 50 ou un 85 mm...Or si au centre les rayons ne sont pas obliques ce qui devrait ressortir c'est un vignetage maousse costo !
Tss tsss, des rayons très obliques arrivent sur tous les photosites du champ, pas uniquement dans les angles voyons !
Ou alors je comprends mal ton intervention, ne remettant pas en doutes tes compétences en optique ;-)
Citation de: alain2x le Novembre 02, 2010, 09:07:39
Et c'est encore plus simple de vérifier ces foutaises avec un simple boitier argentique, ou un boitier numérique, avec un peu de rigueur.
Alain, je t'ai connu plus mesuré quand il s'agissait de vérifier des trucs un peu pointus techniquement....
Citation de: alain2x le Novembre 19, 2010, 08:20:21
Dans la mesure où Pascal Miele explique que les objectifs n'y sont pour rien, mais que tout vient des caractéristiques des divers capteurs, tout va bien : son titre "Voleurs de diaphragme" s'applique aux boitiers, et non aux objectifs, comme le tien le laisse supposer.
Ce titre pourra s'inverser, quand on dira des capteurs "les capteurs sensibles le sont-ils vraiment ?" ce qui sera plus honnête que de faire porter aux opticiens les carences des concepteurs de capteurs.
Je n'ai pas lu l'article de Luminous Landscape (et j'ai la flemme de le faire, soyons clair jusqu'au bout !), mais j'ai bien lu celui de CI dans le détail en revanche. On parle bien de la lumière "mangée" par le capteur, et non par l'optique il me semble. D'ailleurs ce qui me titille dans cet article, c'est la comparaison avec le cinéma, qui si je ne m'abuse est argentique. Et donc je ne m'explique pas cette notion de "diaphragme photométrique" s'agissant de caméras de cinéma....
Citation de: seba le Novembre 24, 2010, 06:55:19
A mon avis, pour une étude valable, il faudrait prendre en compte les caractéristiques exactes du capteur, c'est-à-dire les microlentilles (position, distance focale, géométrie du réseau), la forme de la puce avec les photosites au fond d'un "puits" (de quelle taille ?), etc...voir comment les rayons sont déviés par les microlentilles.
Justement Kodak publie ces caractéristiques. Et voir notamment ce document (http://wwwcafr.kodak.com/global/plugins/acrobat/en/business/ISS/supportdocs/31Mp_and_39Mp_Full-Frame_CCD_paper.pdf) avec une comparaison entre deux capteurs. Pas de chance pour moi, j'avais choisi dans ma précédente intervention un capteur sans microlentilles apparemment moins sensible à ce phénomène. Cependant on remarque que la transition entre transmission à 100% et transmission à 0% n'est pas brutale (comme ce serait le cas si les microlentilles avaient une ouverture bien définie), et que la potentielle diminution de profondeur de champs est sans doute beaucoup plus subtile.
Citation de: Verso92 le Novembre 20, 2010, 13:51:51
Comprends pas... il me semble percevoir une différence sensible de PdC et de bokeh sur les vues prises à f/2 et f/1.2... on nous aurait menti ?
Ca ne prouve rien.
A f2, on est en réel probablement vers f2.2 "photométrique" par exemeple, et à f1.2 autour de f1.6 "photométrique".
Entre f2.2 et f1.6 il y a toujours un écart !
Il n'ya plus d'acart qu'à partir de f2.8 environ, voir un peu plus fermé. Donc l'avantage d'un objectif plus ouvert reste. Simplement, il est moins net que ce que la théorie prétend, c'est tout.
Citation de: Powerdoc le Novembre 21, 2010, 14:05:24
C'est certain que fermer d'un chouia ameliore considérablement le piqué et je me demande si l'aspect à peine plus doux du bokey n'est pas a mettre en compte sur le manque de piqué.
En pratique, le fait d'avoir a accentuer la photo à PO, pour rattraper celle à peine diaphragmée fera que le bokey sera alors moins doux.
Je trouve que mis à part la derniere photo, que les bokey sont très voisins, et que sur un tirage, sans avoir un élément de comparaison a se mettre sous la dent, personne ne verra réellement la différence.
Voilà.
D'où l'interet de nous proposer des AFS ouvertes à f1.8 rapidement, plutôt que des f1.4 innabordables ! Verso92 va dire que je suis affreusement têtu. Je confirme ;D
Citation de: Fanzizou le Novembre 24, 2010, 10:06:26
C'est amusant de lire le début de ce fil, alors que CI dans son dernier n° de décembre vient de consacrer un article complet au phénomène. C'est après l'avoir lu hier que j'ai recherché ici et suis tombé sur ce fil.
Il ya des erreur au début de ce fil. Le phénomène entrainerai potentiellement une sous-ex de l'image à f1.4, et non une sur-ex !
Lire l'article de CI, il est limpide.
Ce que je me demande, c'est si c'est pareil avec les dernier f1.4 AFS à 2000 roros le caillou !
Et vous allez m'entendre à nouveau hurler après Nikon qui refuse de nous sortir des optiques fixes AFS à f1.8 ou f2 à prix raisonnable.
Sachant celà maintenant, je peux vous dire que si j'avais acheté un 24, 35 ou 85 AFS f1.4, j'aurai sacremment les boules !
Parce qu'au delà de la perte de luminosité (somme toute pas très pénalisante), le phénomène induit aussi que la profondeur de champs résultante à ce "faux" f1.4 n'est pas ce qu'elle devrait être non plus.
Conclusion: un f1.4 sur un D3x n'apporte rien par rapport à f1.8
Si tu avais un couple D3x et objectifs 1.4, tu aurais fait des essais et tu ne dirais pas n'importe quoi.
J'ai mis le shoot pour le D3s et vu que cela n'intéressait personne, je n'ai pas continuer à poster la suite pour le D3x, sinon tu le vois déjà sur le D3s et c'est pareil pour le D3x.
;)
Citation de: FX-Bucher le Novembre 24, 2010, 11:58:31
Justement Kodak publie ces caractéristiques. Et voir notamment ce document (http://wwwcafr.kodak.com/global/plugins/acrobat/en/business/ISS/supportdocs/31Mp_and_39Mp_Full-Frame_CCD_paper.pdf) avec une comparaison entre deux capteurs. Pas de chance pour moi, j'avais choisi dans ma précédente intervention un capteur sans microlentilles apparemment moins sensible à ce phénomène. Cependant on remarque que la transition entre transmission à 100% et transmission à 0% n'est pas brutale (comme ce serait le cas si les microlentilles avaient une ouverture bien définie), et que la potentielle diminution de profondeur de champs est sans doute beaucoup plus subtile.
Intéressant.
On dirait en effet que c'est progressif.
Une certaine proportion de rayons de grande ouverture doit quand même arriver aux photosites.
Ce qui expliquerait que l'efficacité lumineuse diminue (par rapport à une ouverture moindre) alors que l'effet sur la profondeur de champ ou le bokeh resterait très limité.
Citation de: seba le Novembre 24, 2010, 12:56:53
Intéressant.
On dirait en effet que c'est progressif.
Une certaine proportion de rayons de grande ouverture doit quand même arriver aux photosites.
Ce qui expliquerait que l'efficacité lumineuse diminue (par rapport à une ouverture moindre) alors que l'effet sur la profondeur de champ ou le bokeh resterait très limité.
On devrait alors voir les cercles de flou se terminer par un anneau de plus en plus sombre à partir d'un cercle correspondant à f/2 par exemple. Ce n'est pas du tout ce que l'on constate sur les 3 exemples de flous mesurables postés ici (resp. au K-7, D700, et 5D2).
Citation de: NORSOREX le Novembre 24, 2010, 12:27:45
Si tu avais un couple D3x et objectifs 1.4, tu aurais fait des essais et tu ne dirais pas n'importe quoi.
J'ai mis le shoot pour le D3s et vu que cela n'intéressait personne, je n'ai pas continuer à poster la suite pour le D3x, sinon tu le vois déjà sur le D3s et c'est pareil pour le D3x.
;)
C'était intéressant mais il faut qu'on trouve un protocole mesurable (et donc indiscutable) pour la PdC, comme on l'a fait pour caractériser le flou et la triche d'ISO.
Peut-être avec une régle graduée ?
PS: J'aimerais participer plus activement aux tests mais mon objo le + ouvert (f/1.4) est une antiquité bloquée à PO pour cause de lamelles collées !
Citation de: PierreT le Novembre 22, 2010, 17:35:05
Je ne vois aucune raison. Les faisceaux lumineux issus des objets situés en dehors de la zone de profondeur de champ convergent en dehors des limites de la profondeur de foyer (en avant ou en arrière, peu importe). Sur le capteur, l'image de ces objets est donc constituée de taches dont l'aire est supérieure à la surface limitée par le cercle de confusion. Chaque point objet ne créé donc plus un point image sur le capteur, mais une tache image. L'angle au sommet du cône utile émergent (donc l'ouverture géométrique de l'objectif) et l'écart entre le capteur et le point de convergence du faisceau détermine le nombre de photosites éclairés par la tache. Là encore, le fait que chacun des photosites concerné par la tache ne capte pas la totalité du flux ne change rien au nombre de photosites éclairés, donc à l'apparence du flou.
Je suis entièrement d'accord avec ça. on enseigne ça dans tout bon cours d'optique de DEUG scientifique (à mon époque en tous les cas, il ya 20 ans donc ::)).
J'avais oublié de voir celà sous cet angle, mais vu comme celà, j'ai en effet un gros doute que le fait qu'une microlentille ne captant pas certains rayons obliques entre f1.4 et f2 ait la moindre influence sur la profondeur de champs. Sur l'aspect du bokeeh en revanche, à creuser.
Citation de: Emile le Novembre 22, 2010, 21:50:19
La PdC plus faible est due UNIQUEMENT aux rayons lumineux les plus inclinés.
Si on supprime les rayons lumineux les plus inclinés la PdC augmente.
(//)
Si on les supprime par un diaphragme plus fermé oui, mais pas parce qu'une micro-lentille située dans le plan image ne les envoie pas correctement ou fond d'un photosite !
Citation de: Verso92 le Novembre 22, 2010, 23:11:58
Je ne dis pas le contraire... mais le phénomène qui limite l'accroissement de la PdC (la diffraction) n'a strictement rien à voir avec le capteur*.
*ou du moins, pas avec le phénomène qui nous occupe dans ce fil...
Verso le dit autrement, mais il dit la même chose que moi.
Citation de: PierreT le Novembre 24, 2010, 08:08:43
Tout à fait d'accord. Toutes les données dont vous parlez permettraient d'aller plus loin et d'obtenir des données chiffrées. Ceci n'est qu'un dessin de principe permettant de visualiser pourquoi la profondeur de champ augmente lorsque l'angle de sensibilité des photosites diminue. Bien que ce ne soit pas très compliqué j'avoue que pour moi, cela n'a pas été d'emblée évident.
Peut être, mais ca va rester probablement TRES marginal par rapport au simple calcul d'optique géométrique, et de l'exemple posté ci-dessus par une autre intervenant (jensson, la tache jaune sur fond noir, par exemple).
Citation de: Fanzizou le Novembre 24, 2010, 10:06:26
C'est amusant de lire le début de ce fil, alors que CI dans son dernier n° de décembre vient de consacrer un article complet au phénomène. C'est après l'avoir lu hier que j'ai recherché ici et suis tombé sur ce fil.
Il ya des erreur au début de ce fil. Le phénomène entrainerai potentiellement une sous-ex de l'image à f1.4, et non une sur-ex !
Lire l'article de CI, il est limpide.
Ce que je me demande, c'est si c'est pareil avec les dernier f1.4 AFS à 2000 roros le caillou !
Et vous allez m'entendre à nouveau hurler après Nikon qui refuse de nous sortir des optiques fixes AFS à f1.8 ou f2 à prix raisonnable.
Sachant celà maintenant, je peux vous dire que si j'avais acheté un 24, 35 ou 85 AFS f1.4, j'aurai sacremment les boules !
Parce qu'au delà de la perte de luminosité (somme toute pas très pénalisante), le phénomène induit aussi que la profondeur de champs résultante à ce "faux" f1.4 n'est pas ce qu'elle devrait être non plus.
Conclusion: un f1.4 sur un D3x n'apporte rien par rapport à f1.8
Donc je reviens sur ce que je disais (y'a que les cons qui ne changent pas d'avis).
Perte de profondeur de champ lié au phénomène peut être, mais quoiqu'il en soit très marginale et sans rapport avec le diaphragme photométrique mesuré.
Notez bien que Pascal Miele dans son article, parle d'une influence sur la PDC, mais ne précise en rien comment elle est impactée ! Et il semble bien qu'elle le soit, même si c'est surement très marginal. Il est donc faux de dire qu'il fait une erreur de raisonnement. Tout au plus, il est un peu imprécis.
En tout cas, dire qu'un f1.4 qui est un T1.8 possède la profondeur de champ d'un f1.8 qui serait un T1.8 (si ça peut exister...), est faux.
Il y a aussi un léger biais à envisager avec toutes ces mesures, c'est tout simplement de vérifier si l'appareil compense avec la vitesse ou les ISO : qui est certain que quand il est affiché 1/500 et 1/250 en réalité l'appareil n'a pas exposé 1/435 pour f/1,4 et 1/275 pour f/2 !
A vos Exif reader ;)
Citation de: NORSOREX le Novembre 24, 2010, 12:27:45
Si tu avais un couple D3x et objectifs 1.4, tu aurais fait des essais et tu ne dirais pas n'importe quoi.
J'ai mis le shoot pour le D3s et vu que cela n'intéressait personne, je n'ai pas continuer à poster la suite pour le D3x, sinon tu le vois déjà sur le D3s et c'est pareil pour le D3x.
;)
J'ai fait amende honnorable après avoir lu le fil et m'être rappelé mes notions d'optique géométrique de base. Y'a que les cons qui ne changent pas d'avis (merci à PierreT pour ses explications) ;)
Citation de: GBo le Novembre 24, 2010, 13:27:02
C'était intéressant mais il faut qu'on trouve un protocole mesurable (et donc indiscutable) pour la PdC, comme on l'a fait pour caractériser le flou et la triche d'ISO.
Peut-être avec une régle graduée ?
PS: J'aimerais participer plus activement aux tests mais mon objo le + ouvert (f/1.4) est une antiquité bloquée à PO pour cause de lamelles collées !
Si ce n'est qu'un soucis de règle graduée, donnes moi ton cahier des charges.
;)
Citation de: JMS le Novembre 24, 2010, 14:16:42
Il y a aussi un léger biais à envisager avec toutes ces mesures, c'est tout simplement de vérifier si l'appareil compense avec la vitesse ou les ISO : qui est certain que quand il est affiché 1/500 et 1/250 en réalité l'appareil n'a pas exposé 1/435 pour f/1,4 et 1/275 pour f/2 !
A vos Exif reader ;)
Voyons JMS, tu crois encore au père noel ?
Tu dois bien te douter (savoir) que la bidouille étant faites, l'exif est impacté aussi.
;)
Citation de: GBo le Novembre 24, 2010, 13:27:02
C'était intéressant mais il faut qu'on trouve un protocole mesurable (et donc indiscutable) pour la PdC, comme on l'a fait pour caractériser le flou et la triche d'ISO.
Peut-être avec une régle graduée ?
PS: J'aimerais participer plus activement aux tests mais mon objo le + ouvert (f/1.4) est une antiquité bloquée à PO pour cause de lamelles collées !
Vous n'êtes pas au bout de vos peines avec un phénomène qui risque fort d'être marginal et de dépendre de certains paramètres cachés auxquels vous n'aurez pas accès.
Mouches, un conseil, fuyez maintenant tant qu'il est encore temps ! ;D ;D
Plutôt que sur cet aspect PDC (les posts de test de Jensson et des autres me suffisent, ça m'empêche pas de tj vouloir des f1.8 AFS, hein Verso :P), l'histoire de la remontée ISO est plus intéressante à creuser, car là on a bien une remontée cachée de sensibilité entre le diaphragme géométrique et photométrique qui peut atteindre entre 1/3 et 1IL. Quand on bosse au delà de 6400iso, ça peut commencer à avoir son importance.
Citation de: NORSOREX le Novembre 24, 2010, 14:24:24
Voyons JMS, tu crois encore au père noel ?
Tu dois bien te douter (savoir) que la bidouille étant faites, l'exif est impacté aussi.
;)
Oui...on programme ce qu'on veut. Le boitier sait quel objectif est monté, s'il compense avec une vitesse plus lente, il peut le cacher en écrivant une vitesse fausse dans l'exif du fichier.
Idem si c'est sur la sensibilité qu'il triche.
Citation de: PierreT le Novembre 24, 2010, 05:43:42
Bonjour,
Pour ne pas rester sur un mauvais dessin, en voici un (peut-être moins lisible que le précédent, mais plus juste) qui montre que le photosite rouge, bien qu'éclairé par le cône de lumière issu de la pupille de sortie ne donne aucun signal car l'incidence du flux qui lui parvient (du bord de la pupille de sortie) est supérieure à son angle de sensibilité. La tache de lumière prise en compte par les photosites est donc moins grande que la tache effectivement éclairée par la pupille de sortie, et il y a donc bien une faible augmentation de la profondeur de champ.
Je pense que, cette fois, tout le monde sera d'accord avec cette façon de présenter les choses... :)
Amicalement,
Pierre T.
Schéma plus juste que le premier, mais néanmoins simplificateur car ne prenant pas en compte le trajet optique dans les fameuses microlentilles.
Mais on sent bien que si augmentation de la PDC il y a, ça va être dans des proportions bien moindres que la diminution géométrique dont tu parlais précedemment avec le cercle de confusion, et dont certains intervenant on montré très facilement la justesse des prédictions entre f2 et f1.4
Pour moi s'il n'y a pas d'impact négatif du capteur sur le diamètre des cercles de flou sur les objos les plus ouverts à la disposition du photographe (et il n'y a pas d'impact dans les mesures effectuées jusqu'ici), il ne devrait pas y en avoir non plus sur la profondeur de la zone considérée comme nette (=PdC) puisque celle-ci est constituée de cercles flous qui ont pour seule particularité d'avoir un diamètre est assez petit pour être confondu avec des points (à distance de vision normale de lecture d'un tirage d'une dimension donnée).
Citation de: GBo le Novembre 24, 2010, 14:50:12
Pour moi s'il n'y a pas d'impact négatif du capteur sur le diamètre des cercles de flou sur les objos les plus ouverts à la disposition du photographe (et il n'y a pas d'impact dans les mesures effectuées jusqu'ici), il ne devrait pas y en avoir non plus sur la profondeur de la zone considérée comme nette (=PdC) puisque celle-ci est constituée de cercles flous qui ont pour seule particularité d'avoir un diamètre est assez petit pour être confondu avec des points (à distance de vision normale de lecture d'un tirage d'une dimension donnée).
C'est ce que je veux dire quand j'emploie l'adjectif "marginal". Je pensais même que c'était nul, jusqu'au moment ou j'ai vu le dernier schéma de PierreT.
Attention dans ce fil on a eu tendance à confondre l'ouverture photométrique T (qui ne dépend que de l'objectif) avec la notion de rendement total du système constitué de l'objo + les microlentilles + capteur. PierreT l'a rappelé de manière limpide dans l'autre fil consacré à ce sujet (tentative de mise en évidence de la perte de 1/3 à 1IL de l'ensemble APN+objo).
Norsorex, CI a signalé une bidouille ISO sur Canon, j'ai pas vu le verdict de ces mesures sur Nikon.
Mais admettons que je sois maintenant dans mon bureau et que je vise en mesure spot quelque brique à l'extérieur...pourquoi m'affiche-t-il 1/5000 f/1,4 - 1/3200 f/2 et 1/1600 f/2,8 et que de surcroît l'histo montre que l'image à f/1,4 est un poil plus sombre.
Si je remplace le 35 1.4 AFS par le 35 1.8 DX je suis désormais à 1/4000 f/1,8 et idem à l'autre pour f/2 et f/2,8.
Il est vrai que j'ai testé avec un appareil pourri, tu sais celui qui rend fou et furieux sans oublier d'être stupide. Mais avant de dire que Nikon bidouille les ISO ou les EXIF il faudrait peut-être vérifier ?
Citation de: Fanzizou le Novembre 24, 2010, 15:06:58
Attention dans ce fil on a eu tendance à confondre l'ouverture photométrique T (qui ne dépend que de l'objectif) avec la notion de rendement total du système constitué de l'objo + les microlentilles + capteur. PierreT l'a rappelé de manière limpide dans l'autre fil consacré à ce sujet (tentative de mise en évidence de la perte de 1/3 à 1IL de l'ensemble APN+objo).
Tu fais bien de le rappeler.
Citation de: JMS le Novembre 24, 2010, 15:54:19
Mais admettons que je sois maintenant dans mon bureau et que je vise en mesure spot quelque brique à l'extérieur...pourquoi m'affiche-t-il 1/5000 f/1,4 - 1/3200 f/2 et 1/1600 f/2,8 et que de surcroît l'histo montre que l'image à f/1,4 est un poil plus sombre.
Si je remplace le 35 1.4 AFS par le 35 1.8 DX je suis désormais à 1/4000 f/1,8 et idem à l'autre pour f/2 et f/2,8.
Les indications avec le f/1.8 35 sont logiques et cohérentes (f/2~1/3200s <-> f/1.8~1/4000s).
Par contre, je ne comprends pas bien f/1.4~1/5000s avec une image plus sombre... sans doute le vignetage à PO empêche-t-il la cellule d'afficher le 1/6400s attendu, mais pourquoi une image plus sombre au bout du compte (ça ressemble un peu à une "double peine"...) ?
Citation de: Verso92 le Novembre 24, 2010, 16:22:49
...mais pourquoi une image plus sombre au bout du compte (ça ressemble un peu à une "double peine"...) ?
Il faut faire un crop du centre de l'image.
Le vignettage peut fausser l'histogramme.
Citation de: JMS le Novembre 24, 2010, 15:54:19
Norsorex, CI a signalé une bidouille ISO sur Canon, j'ai pas vu le verdict de ces mesures sur Nikon.
Mais admettons que je sois maintenant dans mon bureau et que je vise en mesure spot quelque brique à l'extérieur...pourquoi m'affiche-t-il 1/5000 f/1,4 - 1/3200 f/2 et 1/1600 f/2,8 et que de surcroît l'histo montre que l'image à f/1,4 est un poil plus sombre.
Si je remplace le 35 1.4 AFS par le 35 1.8 DX je suis désormais à 1/4000 f/1,8 et idem à l'autre pour f/2 et f/2,8.
Il est vrai que j'ai testé avec un appareil pourri, tu sais celui qui rend fou et furieux sans oublier d'être stupide. Mais avant de dire que Nikon bidouille les ISO ou les EXIF il faudrait peut-être vérifier ?
Nikon ne ferait donc aucune correction du phénomène ? Image sous-ex et basta ?
Le vignetage peut fausser l'histogramme en effet, mais pas la mesure spot sur le collimateur central ! Néanmoins le vignetage d'un 35 1.4 AFS FX sur un D7000 reste assez anecdotique.
J'ai répété cet essai plusieurs fois et j'en conclus que le D7000 voit ce 1.4 plutôt comme un 1.5 ou 1.6 environ, sinon il aurait logiquement choisi 1/6400 au lieu de 1/5000 et qu'il modifie la vitesse pour bien exposer en conséquence, sans bidouiller les ISO pour autant.
A voir avec d'autres modèles,ce week end j'essaierai avec quatre 50 1.4 différents et quatre 50 1.8 différents sur le D3, on verra bien si ce sont les vitesses ou les ISO qui bougent !
Pour Fanzizou, il faut noter que si la correction se fait à une vitesse plus lente que celle théoriquement nécessaire si f=T, il n'y a pas de sous exposition. Pour voir si les ISO bougent, il faudra faire le contraire: se mettre en mode manuel, exposer "comme il faut" à f/1.4 et regarder si l'image est plus sombre...c'est ce que je viens de faire en choisissant après mesure spot à f/2,8 sur une surface unie bien sombre 1600 ISO : 1/200 à f/2.8, 1/400 à f/2 et 1/800 à f/1,4. Non seulement l'image à f/1,4 est un peu plus sombre, mais encore l'appareil avait la gentillesse de me montrer un cran de 0.3 IL de sous ex dans le barregraph du viseur !
Donc jusqu'à preuve du contraire le nouveau 35 1.4 AFS est un peu moins lumineux qu'il ne le dit, mais le D7000 ne triche absolument pas avec çà. Encore un élément à charge à lui reprocher dans les fils anti D7000, car l'amateur qui ne travaille qu'en manuel avec une cellule externe en décalant vitesse et diaph peut se tromper à PO !
Citation de: GBo le Novembre 24, 2010, 13:21:35
On devrait alors voir les cercles de flou se terminer par un anneau de plus en plus sombre à partir d'un cercle correspondant à f/2 par exemple. Ce n'est pas du tout ce que l'on constate sur les 3 exemples de flous mesurables postés ici (resp. au K-7, D700, et 5D2).
Ce n'est pas faux, mais en fait la tache n'est pas forcément uniforme au départ.
A cause de l'aberration sphérique, elle peut être plus lumineuse au bord (anneau lumineux qui diminuerait d'ailleurs en diaphragmant car corrélativement l'aberrations sphérique diminuerait aussi).
Et peut-être se terminerait-elle par un anneau plus lumineux s'il n'y avait pas le supposé effet ?
Mon AFS 50/1,4 sur D700 en spot offre une vitesse double à f/1,4 qu'à f/2.
Mon AI 28/2 donne à f/2 1/20 et à f/2.8 1/13
Non renseigné, mon AI 28/2 donne à f/2 une vitesse double qu'à f/2,8
Ce qui laisse supposer que l'ouverture photométrique du AFS 50/1,4 est juste.
Alors que le AI 28/2 aurait une perte de 1/3IL à f/2 (comparativement à f/2,8).
Citation de: JMS le Novembre 24, 2010, 16:56:20
Le vignetage peut fausser l'histogramme en effet, mais pas la mesure spot sur le collimateur central ! Néanmoins le vignetage d'un 35 1.4 AFS FX sur un D7000 reste assez anecdotique.
J'ai répété cet essai plusieurs fois et j'en conclus que le D7000 voit ce 1.4 plutôt comme un 1.5 ou 1.6 environ, sinon il aurait logiquement choisi 1/6400 au lieu de 1/5000 et qu'il modifie la vitesse pour bien exposer en conséquence, sans bidouiller les ISO pour autant.
A voir avec d'autres modèles,ce week end j'essaierai avec quatre 50 1.4 différents et quatre 50 1.8 différents sur le D3, on verra bien si ce sont les vitesses ou les ISO qui bougent !
Pour Fanzizou, il faut noter que si la correction se fait à une vitesse plus lente que celle théoriquement nécessaire si f=T, il n'y a pas de sous exposition. Pour voir si les ISO bougent, il faudra faire le contraire: se mettre en mode manuel, exposer "comme il faut" à f/1.4 et regarder si l'image est plus sombre...c'est ce que je viens de faire en choisissant après mesure spot à f/2,8 sur une surface unie bien sombre 1600 ISO : 1/200 à f/2.8, 1/400 à f/2 et 1/800 à f/1,4. Non seulement l'image à f/1,4 est un peu plus sombre, mais encore l'appareil avait la gentillesse de me montrer un cran de 0.3 IL de sous ex dans le barregraph du viseur !
Donc jusqu'à preuve du contraire le nouveau 35 1.4 AFS est un peu moins lumineux qu'il ne le dit, mais le D7000 ne triche absolument pas avec çà. Encore un élément à charge à lui reprocher dans les fils anti D7000, car l'amateur qui ne travaille qu'en manuel avec une cellule externe en décalant vitesse et diaph peut se tromper à PO !
Le 35 à 2000€ qui ne fait pas vraiment f1.4 ou plutôt le capteur du D7000 qui "mange" les rayons obliques comme expliqué ds le dernier CI ?
Je préfèrerai la seconde explication, ça me choquerait moins ! Vu le prix du 35.....
En tous les cas, Nikon ne triche pas en remontant les iso, c'est déjà un bon point.
Citation de: Fanzizou le Novembre 24, 2010, 18:03:38
[...]
En tous les cas, Nikon ne triche pas en remontant les iso, c'est déjà un bon point.
Pour être sûr à 100% qu'un Nikon ne triche pas sur les ISO aux grandes ouvertures, il faudrait AMHA faire deux photos en mode manuel à PO (sur trépied, cible unie uniformément éclairée):
- une normale avec la connexion électrique objo-boitier
- une avec le même objo, toujours à PO mais
sans la connexion électrique, de sorte que le boitier ignore à quel diaph on est (il ne peut donc plus tricher). Même temps d'expo que la 1re photo.
Analyser ensuite les différences de niveau de gris dans les images obtenues (sur Photoshop ou autre).
Recommencer deux ou trois fois la manip avec/sans connection pour être sûr de son coup et apprécier l'écart type.
Si différence significative et systématique, c'est qu'il y a triche dans le cas "connecté".
Pour désolidariser le contact électrique objo-boitier facilement, sur mon Canon j'ai trouvé un truc très simple : il suffit d'appuyer sur le bouton de déverrouillage de l'objectif et de tourner légèrement l'objo (comme si on voulait l'enlever mais sans aller jusqu'au bout). Dès qu'on commence à tourner, le boitier perd le contact électrique avec l'objectif, et le diaph affiché par le LCD du boitier devient "00", comme sur un objo antique à bague muette. Sur Nikon je ne sais pas.
Il faut faire aussi la manip sur Canon, personne ne l'ayant fait à ma connaissance, seules des preuves indirectes ont été fournies.
Je n'ai rien contre l'explication des rayons obliques,et sur ce modèle pas trace de remontée d'ISO, par contre il expose plus longtemps à 1.4 ! Evidemment ce modèle est destiné au D3, donc je ferai ce week end la même mesure dessus !
oops fausse manip
Citation de: Fanzizou le Novembre 24, 2010, 18:03:38
En tous les cas, Nikon ne triche pas en remontant les iso, c'est déjà un bon point.
Difficile d'être catégorique : le boitier peut tout à fait, en connaissance de cause, remonter la sensibilité "réelle" de 100 à 160 ISO, par exemple, sans l'indiquer dans les EXIF.
Le seul moyen d'en être certain, c'est d'analyser s'il n'y a pas de remonter de bruit, ou encore, comme indiqué par GBo, de priver le boitier de l'information d'ouverture sur l'objectif utilisé...
Citation de: JMS le Novembre 24, 2010, 15:54:19
Norsorex, CI a signalé une bidouille ISO sur Canon, j'ai pas vu le verdict de ces mesures sur Nikon.
Mais admettons que je sois maintenant dans mon bureau et que je vise en mesure spot quelque brique à l'extérieur...pourquoi m'affiche-t-il 1/5000 f/1,4 - 1/3200 f/2 et 1/1600 f/2,8 et que de surcroît l'histo montre que l'image à f/1,4 est un poil plus sombre.
Si je remplace le 35 1.4 AFS par le 35 1.8 DX je suis désormais à 1/4000 f/1,8 et idem à l'autre pour f/2 et f/2,8.
Il est vrai que j'ai testé avec un appareil pourri, tu sais celui qui rend fou et furieux sans oublier d'être stupide. Mais avant de dire que Nikon bidouille les ISO ou les EXIF il faudrait peut-être vérifier ?
Je ne trouve pas que cela apporte beaucoup d'eau à notre moulin. En effet, là tu ne testes que le fonctionnement de la cellule qui est indépendant de celui du capteur. Et rien n'interdit à un fabricant d'indiquer ce qu'il veut et même des mesures faussées. D'ailleurs l'article de Luminous Landscape qui présente les mesures effectuées par DxO et qui a d'une certaine façon lancé la polémique montre un graphique avec les corrections de gain pour différents boitiers (un Canon, un Nikon et un Sony). Le verdict est le même pour ces trois là.
Cependant tout le monde semble crier au scandale en disant que les fabricants trichent avec la sensibilité ISO et "cachent la poussière sous le tapis" (dixit CI). Pour ma part j'y vois deux interprétations différentes de la définition de la sensibilité ISO. Pour DxOmark (et cette vision est proche de celle de CI), la sensibilité ISO se définit pour un
capteur à partir de la quantité de lumière à la saturation (DxOmark effectue ses tests sur les capteurs sans optique), auquel cas les fabricants ne respectent pas la définition ISO en modifiant le gain du capteur pour les grandes ouvertures. Mais à mon avis, pour les fabricants, la sensibilité ISO se définit pour un
appareil photo à partir de la quantité de lumière à la saturation. La différence, c'est que dans ce second cas il y a une optique devant le capteur, et la correction de gain du capteur que les fabricants effectuent le permet de respecter la définition ISO en compensant automatiquement des pertes connues. Dans ce cas ils ne mentent plus, mais au contraire respectent les standards. N'ayant pas accès aux docs des standards ISO, je ne peux pas dire laquelle des deux visions est la plus proche de ceux-ci, mais je trouve celle des fabricants assez pragmatique et réaliste quant à une utilisation sur le terrain.
Citation de: seba le Novembre 24, 2010, 17:14:03
Ce n'est pas faux, mais en fait la tache n'est pas forcément uniforme au départ.
A cause de l'aberration sphérique, elle peut être plus lumineuse au bord (anneau lumineux qui diminuerait d'ailleurs en diaphragmant car corrélativement l'aberrations sphérique diminuerait aussi).
Et peut-être se terminerait-elle par un anneau plus lumineux s'il n'y avait pas le supposé effet ?
On pourrait envisager de faire des mesures photométriques : normalement pour une vitesse constante, la quantité de lumière totale devrait être proportionnelle à l'ouverture et donc à la taille de la tache. Si ce n'est pas le cas, il y a effectivement des pertes. Mais attention ces mesures doivent être faites directement dans le RAW avant le dématriçage et la correction gamma pour être précises et sensées. Je l'aurais bien fait car j'ai les outils informatiques pour, mais je n'ai pas d'optiques ouvrants au delà de 1,8.
Citation de: Verso92 le Novembre 24, 2010, 19:31:30
Difficile d'être catégorique : le boitier peut tout à fait, en connaissance de cause, remonter la sensibilité "réelle" de 100 à 160 ISO, par exemple, sans l'indiquer dans les EXIF.
Le seul moyen d'en être certain, c'est d'analyser s'il n'y a pas de remonter de bruit, ou encore, comme indiqué par GBo, de priver le boitier de l'information d'ouverture sur l'objectif utilisé...
OK, c'est clair, effectivement. la manip consistant à cacher les contacts électriques me parait la meilleure. Pour la montée du bruit pourquoi pas, mais il faut taper à très haut iso pour bien voir quelquechose...
Bon, petit essai à l'instant :
D700 + f/1.4 50 AF-D.
- 200 ISO,
- Mode M,
- mesure spot,
- BdB mesurée,
- MaP manuelle,
- trépied + retardateur.
Les photos 1, 2, 3 et 4 ont été réalisées "classiquement", avec l'objectif verrouillé sur le boitier.
Les photos A et B ont été réalisées avec l'objectif déverrouillé du boitier, bloqué à f/1.4, dans les mêmes conditions.
- photo A : mêmes paramètres que que pour la photo 1, à savoir 1/60s en mode M (le barregraphe indique -2/3 d'IL...),
- photo B : ajustement en mode M en suivant les indications du barregraphe, à savoir 1/40s.
J'ai de plus fait des mesures à la pipette, au milieu du "S" de CBS.
Perplexe je suis...
Merci Verso, si tu as encore la manip à dispo, ça aurait été plus simple de faire A et B à la même vitesse d'expo, là ça va nous faire faire des calculs.
Edité: c'est ce que tu as fait entre 1 et A, j'ai mal lu sorry
Citation de: GBo le Novembre 24, 2010, 20:57:33
Merci Verso, si tu as encore la manip à dispo, ça aurait été plus simple de faire A et B à la même vitesse d'expo, là ça va compliquer les calculs !
Edité: c'est ce que tu as fait entre 1 et A, j'ai mal lu sorry
En fait, quand j'ai vu qu'il fallait opérer au 1/40s à PO avec l'objectif déverrouillé (barregraphe à "0"), je me suis dit que j'avais mis en évidence une perte de 2/3 d'IL. Las, quand j'ai vu le résultat (une image un peu plus claire), j'ai vite "déchanté".
Que faut-il en déduire... je n'en sais rien !
(en principe, la mesure spot devrait opérer avec le D700 + objectif déverrouillé de façon transparente...)
Bon ben je mesure les niveaux de gris (échelle entre 0 et 255) au centre du S de "CBS" sur le canal vert à la pipette moyennée 5x5 px
Photo 1 : 176
Photo A : 173
=> Si la photo 1 a profité d'un gain électrique (boost d'ISO), il est vraiment très minime, et on est peut-être sur "le trait du crayon" en matière de précision.
Si tu as un peu plus de temps, il faudrait faire plusieurs fois la manip 1 vs A (tout au 1/60ième donc) pour voir si ce petit écart se confirme ou au contraire se noie dans la dispersion des mesures.
PS : Excellent disque au fait, j'adore Miles, y compris de cette époque.
Citation de: GBo le Novembre 24, 2010, 21:15:58
PS : Excellent disque au fait j'adore Miles, y compris de cette époque.
Miles Smiles et
Nefertiti : la grande époque du génial quintette de Miles !
;-)
Citation de: GBo le Novembre 24, 2010, 21:15:58
Si tu as un peu plus de temps, il faudrait faire plusieurs fois la manip 1 vs A (tout au 1/60ième donc) pour voir si ce petit écart se confirme ou au contraire se noie dans la dispersion des mesures.
Essais refaits quatre fois pour "1" et quatre fois pour "A"... je te laisse faire les comparatifs à la pipette ?
;-)
Citation de: Verso92 le Novembre 24, 2010, 21:58:18
Essais refaits quatre fois pour "1" et quatre fois pour "A"... je te laisse faire les comparatifs à la pipette ?
;-)
Je l'aurais voulu ;D
1a: 173; 1b: 174; 1c: 174; 1d: 174;
A1: 169; A2: 170; A3: 170; A4: 170;
La précision des mesures est donc bonne, ta manip est impecc.
Si le fait d'avoir un peu déboité l'objo pour le débrancher n'a rien changé à la transmission*, il y a bien dans la série 1 un petit quelque chose qui ressemble à un petit boost de 2.4% en niveau de gris.
C'est surprenant car si c'est faible qu'on se demande bien pourquoi le constructeur s'amuserait à ça. Je suis perplexe.
(*) pour bien faire, il faudrait une contre-manip du genre: une photo "1" à f/5.6 et une photo "A" à f/5.6 pour voir si c'est pas le début de déboitage qui fait ça ? Car à f/5.6, le boitier n'est pas sensé tricher, on devrait trouver la même valeur de gris (à moins de 1% près).
Citation de: GBo le Novembre 24, 2010, 22:23:00
Si le fait d'avoir un peu déboité l'objo pour le débrancher n'a rien changé à la transmission*
A f/1.4 (PO), aucun risque de fausser une quelconque "transmission" : par principe, il n'y en a pas !
(le mécanisme de diaphragme est bien logé dans son rangement...)
Citation de: Verso92 le Novembre 24, 2010, 22:29:31
A f/1.4 (PO), aucun risque de fausser une quelconque "transmission" : par principe, il n'y en a pas !
(le mécanisme de diaphragme est bien logé dans son rangement...)
On a fait tourner le vignettage qui ne serait éventuellement pas tout à fait circulaire, c'est ça que je voulais dire comme genre de chose. Le S de CBS, assez excentré, serait peut-être un poil plus sombre à cause de ça (auquel cas la manip à 5.6 ne serait même pas probante puisque le vignettage sera amoindri, et zut).
Citation de: GBo le Novembre 24, 2010, 22:23:00
(*) pour bien faire, il faudrait une contre-manip du genre: une photo "1" à f/5.6 et une photo "A" à f/5.6 pour voir si c'est pas le début de déboitage qui fait ça ? Car à f/5.6, le boitier n'est pas sensé tricher, on devrait trouver la même valeur de gris (à moins de 1% près).
La dernière pour ce soir !
;-)
Citation de: Verso92 le Novembre 24, 2010, 22:40:02
La dernière pour ce soir !
;-)
Emboité : 181
Déboité : 179
L'écart s'est amenuisé. Je ne sais pas conclure (cf. pourquoi dans mon post précédent).
Merci Verso pour les efforts consentis pour faire avancer la science en tout cas. ;)
Citation de: GBo le Novembre 24, 2010, 22:49:45
Emboité : 181
Déboité : 179
L'écart s'est amenuisé. Je ne sais pas conclure (cf. pourquoi dans mon post précédent).
Paradoxalement, le fonctionnement est certainement plus précis en mode "déboité" : le mécanisme de diaphragme est rigoureusement fixe pendant tout le cycle.
Et puis, "181" vs "179", on entre dans le domaine des fluctuations "normales"...
Citation de: GBo le Novembre 24, 2010, 22:49:45
Merci Verso pour les efforts consentis pour faire avancer la science en tout cas. ;)
J'ai, par déformation professionnelle (?), une curiosité avérée pour tout ce qui touche de près ou de loin le fonctionnement "intime" de nos
chers appareils... ;-)
Pour être loin des bords de l'image, j'ai tenté une mesure de max (toujours sur le canal vert) sur le reflet du bitoniau métallique :
1a:253, 1b:251, 1c:253, 1d:250
A1:234, A2:238, A3:245; A4:246
C'est forcément moins précis qu'une moyenne sur plusieurs pixels d'un fond uni mais on a aussi une petite différence entre la série 1 et la série A qui n'est pas due au hasard.
Citation de: GBo le Novembre 24, 2010, 23:10:11
Pour être loin des bords de l'image, j'ai tenté une mesure de max (toujours sur le canal vert) sur le reflet du bitoniau métallique,
1a:253, 1b:251, 1c:253, 1d:250
A1:234, A2:238, A3:245; A4:246
C'est forcément moins précis qu'une moyenne sur plusieurs pixels d'un fond uni mais on a aussi une différence entre la série 1 et la série A qui n'est pas due au harsard.
Ce qui semblerait corroborer l'hypothèse du gain appliqué sur la sensibilité en fonctionnement normal pour compenser la perte de rendement du capteur aux ouvertures extrêmes...
Citation de: Verso92 le Novembre 24, 2010, 23:12:20
Ce qui semblerait corroborer l'hypothèse du gain appliqué sur la sensibilité en fonctionnement normal pour compenser la perte de rendement du capteur aux ouvertures extrêmes...
Mmoui mais si la perte compensée par tricherie n'est que de 3% en niveaux de gris, ça valait pas une pompeuse "lettre ouverte aux constructeurs". Pas à Nikon en destinataire en tout cas.
Personne n'a un Canon et un objectif Canon "électrique" qui ouvre à 1.4 ou à 1.2 pour voir ?
Cible unie au centre please ;D
Citation de: GBo le Novembre 24, 2010, 23:17:24
Mmoui mais si la perte à compenser est de 3% en niveaux de gris ça valait pas une pompeuse "lettre ouverte aux constructeurs". Pas à Nikon en destinataire en tout cas.
Je pense aussi...
(reste les résultats de la manip effectuée avec l'objectif déboité en respectant les indications du système de mesure (photo B), que je ne m'explique pas...)
j'admire votre patience !
moi je m'abrutis avec du foot à la TV ;D
Citation de: Fanzizou le Novembre 24, 2010, 23:20:31
j'admire votre patience !
moi je m'abrutis avec du foot à la TV ;D
0-3 !
(mais j'ai éteint la télé pendant mes PdV pour ne pas fausser les résultats ! ;-)
Citation de: GBo le Novembre 24, 2010, 23:17:24
Mmoui mais si la perte compensée par tricherie n'est que de 3% en niveaux de gris, ça valait pas une pompeuse "lettre ouverte aux constructeurs". Pas à Nikon en destinataire en tout cas.
Personne n'a un Canon et un objectif Canon "électrique" qui ouvre à 1.4 ou à 1.2 pour voir ?
Cible unie au centre please ;D
Attention, vos mesures avec Verso sont faites sur des Jpeg, c'est-à-dire sur des images qui ne sont pas dans un espace de couleur linéaire. La valeur 3% n'est donc pas très sensée.
Plutôt que de regarder le foot (pas trop fan de ça en fait), j'ai commencé à regarder "des racines et des ailes". Et comme ça me barbait (j'ai trouvé les reportages de piètres qualités en fait) j'ai préféré aller chercher des documents sur comment les fabricants déterminaient la sensibilité ISO. Particulièrement intéressant, ce document (http://www.kodak.com/global/plugins/acrobat/en/business/ISS/supportdocs/ISOMeasurements.pdf) Kodak qui explique entre autre que du fait de la définition que Kodak utilise, la mesure de la sensibilité ISO va dépendre de beaucoup de paramètres et entre autre de l'ouverture de l'objectif. Mais cette définition implique bien ce que je disais précédemment, c'est-à-dire qu'à partir du moment où il y a des pertes de luminosité en fonction de l'ouverture il va falloir jouer sur le gain du capteur pour rester à sensibilité constante. L'erreur que fait alors CI dans son article est donc de considérer que la sensibilité ISO fixe le gain du capteur alors qu'elle fixe l'exposition (ce qui est logique).
Et donc on peut considérer que dans les photos de Verso, en s'en tenant à la définition choisie par Kodak, celles avec l'objectif emboité sont effectivement à sensibilité constante tandis que celles avec l'objectif déboité ne le sont pas.
On peut également lire ce document (http://www.cipa.jp/english/hyoujunka/kikaku/pdf/DC-004_EN.pdf) de la CIPA qui présente deux façon de mesurer la sensibilité. Mais la première façon est en fait celle choisie par Kodak.
Finalement pas tant de mensonges que cela de la part des fabricants quand on s'intéresse à ce qu'ils font.
Si j'ai bien compris, le "rendement" du capteur va directement jouer sur la valeur de L mesurée, qui va être influencée par les caractéristiques de capture du photosite en fonction de l'angle du cône l'illuminant (remplissage imparfait en cas de très grandes ouvertures)... c'est bien ça ?
Citation de: FX-Bucher le Novembre 24, 2010, 23:59:18
Attention, vos mesures avec Verso sont faites sur des Jpeg, c'est-à-dire sur des images qui ne sont pas dans un espace de couleur linéaire. La valeur 3% n'est donc pas très sensée.
[...]
Pas très sensée ? d'une part le jpeg en soi est significatif de l'activité du photographe amateur moyen (grosse partie du lectorat de C.I. qui pond l'article polémique contre Canikon), et d'autre part je ne vois pas pourquoi on ne trouverait pas le même
% d'écart en RAW (on ne parle pas ici de deux mesures absolues mais d'un ratio entre deux mesures parfaitement déterministes).
Résumons nous : la cible est la même, le comportement de l'appareil est reproductible (cf. la série de 2*4 images) et donne l'ordre de grandeur de la différence d'exposition sur photos jpeg entre :
"1" : photo prise à 1/60 sur un objo à Pleine Ouverture ouvrant à f/1.4
"A" : photo prise à 1/60 avec le même objectif toujours à PO, mais en laissant le boitier dans l'ignorance de l'ouverture de l'objectif
Dans le cas A, le boitier ne peut pas tricher avec le gain (ni avec les vitesses d'ailleurs).
En comparant A avec 1, on s'aperçoit que le boitier D700 semble appliquer une correction dans le cas 1, par un moyen ou un autre, correction qui est à peine décelable aux mesures,
et invisible à l'oeil nu.
Cette expérience montre bien que si tricherie de gain il y a sur le D700 à f/1.4 renseigné, elle est presque négligeable, sans effet décelable dans l'usage courant d'un reflex numérique (c'est à dire pour prendre des photos et non pour faire des mesures fines).
Moi qui pensait que L.L./C.I. s'étaient trompé uniquement sur la PdC, je commence à avoir un doute sur la validité de leur quantification du phénomène de "boost d'ISO"...
A suivre avec Canon si quelqu'un a le temps de s'y mettre, avec cette même manip de "déboitage" (c'est sans danger, j'ai essayé sur mon 40D, mais je n'ai pas d'objo Canon assez ouvert).
cdlt,
GBo
Bonjour,
Pour en revenir aux réserves formulées quant à la représentativité de mon dernier dessin, il est tout à fait clair que ce n'est qu'un schéma de principe. Si on admet que le principe est bon mais que, malgré tout, il ne reflète pas la réalité, il faut répondre à la question : qu'est-ce qui peut faire diverger la réalité du principe ?
Pour le moment, compte tenu de tout ce que j'ai lu (et merci pour les excellents liens), je suis tenté de dire qu'il n'y a que le fait que la baisse de sensibilité angulaire des photosites est progressive.
Par contre, il y a un point qui me chagrine un peu : dans les expériences que vous faites, vous parlez (et c'est normal) de pixels. Mais la relation photosite-pixel est loin d'être directe. Tout le monde sera d'accord là-dessus. Il me semble bien (je n'ai rien trouvé qui permette de penser le contraire) que les documents cités dans les différents liens donnent des caractéristiques de capteurs nus. Quid du filtre passe-bas (propre à chaque fabricant de boîtier) et de l'effet d'étalement qu'il produit ? Je ne suis pas très pointu dans ce domaine mais, pour moi, c'est aussi une des causes pouvant expliquer la différence.
Amicalement,
Pierre T.
Citation de: Verso92 le Novembre 25, 2010, 00:30:23
Si j'ai bien compris, le "rendement" du capteur va directement jouer sur la valeur de L mesurée, qui va être influencée par les caractéristiques de capture du photosite en fonction de l'angle du cône l'illuminant (remplissage imparfait en cas de très grandes ouvertures)... c'est bien ça ?
Disons qu'un capteur avec une efficacité optique plus faible va avoir besoin de plus de lumière pour parvenir à la saturation et donc présenter une sensibilité plus faible. Si on compense ce diminution d'efficacité optique en augmentant le gain du capteur, alors la sensibilité reste constante. On remarque quand même que dans ce cas le capteur capte moins de lumière, mais l'intégralité du système optique (capteur + optiques) en reçoit la même quantité, mais vu que le capteur capte moins de lumière, il y aura forcément plus de bruit (d'ailleurs CI a mesuré l'évolution du bruit et non pas la sensibilité ISO).
Petite conclusion sur mes manips d'hier soir :
1 - il semble bien qu'il y ait une compensation introduite sur le D700 en cas d'utilisation des très grandes ouvertures (f/1.4). Mais celle-ci est relativement ténue (1/4 d'IL, peut-être moins ?).
Citation de: Verso92 le Novembre 24, 2010, 23:18:56
(reste les résultats de la manip effectuée avec l'objectif déboité en respectant les indications du système de mesure (photo B), que je ne m'explique pas...)
2 - sur les photos A et B (objectif déboité), il ne faut sans doute pas tenir compte des indications du posemètre : en effet, mon D700 n'est pas vierge de programmation d'objectif "sans cpu". Pour les manips d'hier, c'était celle du f/2 35 qui était active. Il existe peut-être une compensation introduite dans le D700 pour tenir compte des caractéristiques de ces objectifs. Cela ne change rien, par contre, aux résultats obtenus pour la photo "A" (f/1.4~1/60s en mode M sans tenir compte des indications du posemètre).
3 - le monde entier sait maintenant quel est le dernier vinyl que j'ai écouté... ;-)
Citation de: FX-Bucher le Novembre 24, 2010, 23:59:18
Attention, vos mesures avec Verso sont faites sur des Jpeg, c'est-à-dire sur des images qui ne sont pas dans un espace de couleur linéaire. La valeur 3% n'est donc pas très sensée.
Plutôt que de regarder le foot (pas trop fan de ça en fait), j'ai commencé à regarder "des racines et des ailes". Et comme ça me barbait (j'ai trouvé les reportages de piètres qualités en fait) j'ai préféré aller chercher des documents sur comment les fabricants déterminaient la sensibilité ISO. Particulièrement intéressant, ce document (http://www.kodak.com/global/plugins/acrobat/en/business/ISS/supportdocs/ISOMeasurements.pdf) Kodak qui explique entre autre que du fait de la définition que Kodak utilise, la mesure de la sensibilité ISO va dépendre de beaucoup de paramètres et entre autre de l'ouverture de l'objectif. Mais cette définition implique bien ce que je disais précédemment, c'est-à-dire qu'à partir du moment où il y a des pertes de luminosité en fonction de l'ouverture il va falloir jouer sur le gain du capteur pour rester à sensibilité constante. L'erreur que fait alors CI dans son article est donc de considérer que la sensibilité ISO fixe le gain du capteur alors qu'elle fixe l'exposition (ce qui est logique).
Et donc on peut considérer que dans les photos de Verso, en s'en tenant à la définition choisie par Kodak, celles avec l'objectif emboité sont effectivement à sensibilité constante tandis que celles avec l'objectif déboité ne le sont pas.
On peut également lire ce document (http://www.cipa.jp/english/hyoujunka/kikaku/pdf/DC-004_EN.pdf) de la CIPA qui présente deux façon de mesurer la sensibilité. Mais la première façon est en fait celle choisie par Kodak.
Finalement pas tant de mensonges que cela de la part des fabricants quand on s'intéresse à ce qu'ils font.
Sans doute, mais est-ce vraiment important ? Les faits sont là: les microlentilles perdent en rendement pour les diaphragmes les plus ouverts, et il faut bien le compenser. Nous essayons juste de comprendre comment, et peu importe les normes ISO non ?
Citation de: GBo le Novembre 25, 2010, 08:50:25
Pas très sensée ? d'une part le jpeg en soi est significatif de l'activité du photographe amateur moyen (grosse partie du lectorat de C.I. qui pond l'article polémique contre Canikon), et d'autre part je ne vois pas pourquoi on ne trouverait pas le même % d'écart en RAW (on ne parle pas ici de deux mesures absolues mais d'un ratio entre deux mesures parfaitement déterministes).
[...]
Je vois deux soucis à faire des mesures sur des JPEG :
- D'une part un jpeg est encodé dans un espace non linéaire (c-à-d que les valeurs des niveaux ne sont pas proportionnelles à l'intensité lumineuse reçue, mais suivent une courbe gamma). Dans ce cas les rapports entre grandeurs ne sont plus respectés, et finalement dire qu'il y a 3% d'écart entre deux valeurs mesurées est équivalent à dire qu'un son à 106dB est 6% plus fort qu'un son à 100dB.
- D'autre part, on ne sait rien de ce que fait le dématriceur. CI accuse (à tord à mon avis) les fabricants de cacher la poussière sous le tapis en modifiant le gain en douce, mais alors je pense que du côté des dématriceurs, ce n'est plus de la poussière qui est cachée, mais une décharge. On peut par exemple imaginer qu'un dématriceur calcule l'intensité lumineuse effective à partir du RAW et en modifie a posteriori l'exposition automatiquement pour la faire correspondre à la mesure de la cellule (mesure enregistrée dans les données EXIF). L'utilisateur dans ce cas (hypothétique) ne verrait rien, et même il obtiendrait ce qu'il souhaitait (car il souhaite que l'exposition de sa photo corresponde à celle annoncée par la cellule). Ce n'est qu'un exemple hypothétique, mais je suis quasi sûr que les dématriceurs recèlent de telles astuces.
Au contraire dans un RAW, les niveaux sont proportionnels à l'intensité lumineuse captée et il n'y a pas de souci avec le dématriçage.
Citation de: Fanzizou le Novembre 25, 2010, 10:08:08
Sans doute, mais est-ce vraiment important ? Les faits sont là: les microlentilles perdent en rendement pour les diaphragmes les plus ouverts, et il faut bien le compenser. Nous essayons juste de comprendre comment, et peu importe les normes ISO non ?
En fait l'article de CI affirme plusieurs choses et entre autre accuse les fabricants de modifier la sensibilité ISO sans en prévenir l'utilisateur. Apparemment il n'en est rien.
Citation de: Fanzizou le Novembre 25, 2010, 10:08:08
Sans doute, mais est-ce vraiment important ? Les faits sont là: les microlentilles perdent en rendement pour les diaphragmes les plus ouverts, et il faut bien le compenser. Nous essayons juste de comprendre comment, et peu importe les normes ISO non ?
Au contraire, Fanzizou, au contraire : le fait de comprendre ce qu'est réellement une sensibilité au sens où l'ISO l'entend permet d'éviter de raconter trop de bêtises...
Citation de: FX-Bucher le Novembre 25, 2010, 10:09:05
Au contraire dans un RAW, les niveaux sont proportionnels à l'intensité lumineuse captée et il n'y a pas de souci avec le dématriçage.
Il faudrait donc extraire les valeurs à l'aide d'un logiciel genre
Isis...
Citation de: Verso92 le Novembre 25, 2010, 10:22:15
Il faudrait donc extraire les valeurs à l'aide d'un logiciel genre Isis...
Ah bon Isis sait faire ça ? Tu me diras, une déesse, ça sait tout faire.
Mais oui Iris devrait pouvoir le permettre. Mais y'a d'autres possibilités. Personnellement j'ai fait quelques scriptes sous Scilab pour pouvoir étudier les caractéristiques des capteurs et optiques à partir des Raw et qui devraient pourvoir faire cela sans souci et sans Isis ni Iris.
Tu appartiens à la grande famille des bisounours, FX ?
CI a fait des mesures de bruit aux différentes ouvertures et on voit en lisant l'article, sauf à être aveugle ou de mauvaise foi, que ces mesures sont très remarquablement corrélées à une augmentation progressive de la sensibilité.
Par ailleurs, j'aurais tendance à croire les yeux fermés les mesures de DxO : ce labo, tout français qu'il soit, ne compte pas que des manches ::)
Enfin, c'est absolument cohérent avec le profil de sensibilité à la lumière des microlentilles tel qu'on le découvre dans les datasheets (ceux qui parlent de vérifier en argentique n'ont vraiment rien pigé au problème, puisqu'ils pensent toujours que ça vient de l'optique et confondent avec le vignetage : ça ne les empêche pas d'intervenir, comme tous ceux qui n'ont pas lu l'article de CI, du reste).
Je n'ai pas cet article sous les yeux en ce moment, mais, de mémoire, je crois qu'ils ont fait l'essai avec l'appareil le plus sensible à cet effet, le 5DMk2.
Faire des tests avec un D3 ou un D700 ne sert à rien : ils semblent très peu touchés, au point que les mesures de ce type risquent de se borner à jouer sur l'épaisseur du trait. Bref, c'est du cas par cas, du boîtier par boîtier : les généralisations dans un sens comme dans l'autre sont ridicules, surtout quand on voit que Nikon est arrivé à améliorer très sensiblement le résultat entre D3 et D3s...
Enfin, minimiser ainsi par des arguties l'importance de ce constat est navrant : travailler à 3.200 ISO (par exemple) n'est pas la même chose que de bosser à 5000 ISO. Or, c'est à peu près ce qui se passe avec le 5DMk2 et un 1,4. Un, ce n'est pas correct de la part du fabricant de ne pas le dire et de ne pas donner la possibilité de choisir entre une correction auto par la sensibilité (le gain électronique), par la vitesse ou par la... sous-ex. Deux, pour les corrections du bruit, notamment les profils auto des logiciels type DxO, ça change bien des choses car, faut-il le rappeler, du moins pour le Canon, les données Exif sont fausses.
Maintenant, si te faire mettre "à la furtive" t'enthousiasme, c'est ton problème. Pour ma part, je demande au moins qu'on me laisse le choix de la marque de vaseline !
Citation de: FX-Bucher le Novembre 25, 2010, 10:09:05
Je vois deux soucis à faire des mesures sur des JPEG :
- D'une part un jpeg est encodé dans un espace non linéaire (c-à-d que les valeurs des niveaux ne sont pas proportionnelles à l'intensité lumineuse reçue, mais suivent une courbe gamma). Dans ce cas les rapports entre grandeurs ne sont plus respectés, et finalement dire qu'il y a 3% d'écart entre deux valeurs mesurées est équivalent à dire qu'un son à 106dB est 6% plus fort qu'un son à 100dB. [...]
Ok, I got it now, mais cet espace non linéaire est bien celui de la photo que l'on voit ou que l'on tire (aux autres corrections de gamma près en aval, certes). Donc je comprends maintenant que tu pourras être plus juste dans la quantification de l'écart avec une manip plus compliquée, mais le but du test du « déboitage à PO » est parfaitement atteint, car à la question :
- « y a-t-il tricherie
significative d'ISO dans nos boitiers aux grandes ouvertures ? (à la lecture de l'essai de L.L. on nous laisse penser à des tricheries de l'ordre de 1/3 EV voire du ½ EV !) »
La réponse du test de Verso est :
-
NON ,
pas sur le Nikon D700 en tout cas, ou alors
peanuts, en tout cas indécelable à l'œil nu dans l'espace non linéaire du jpeg boitier :-)
Citation de: FX-Bucher le Novembre 25, 2010, 10:36:01
Ah bon Isis sait faire ça ? Tu me diras, une déesse, ça sait tout faire.
Mais oui Iris devrait pouvoir le permettre.
A force d'avoir photographié
Nefertiti hier soir... ;-)
Citation de: Caton le Novembre 25, 2010, 10:36:07
CI a fait des mesures de bruit aux différentes ouvertures et on voit en lisant l'article, sauf à être aveugle ou de mauvaise foi, que ces mesures sont très remarquablement corrélées à une augmentation progressive de la sensibilité.
Il serait plus judicieux, je pense, de parler d'une augmentation progressive du
gain (la sensibilté, voir le document Kodak mis en lien plus haut, faisant déjà intervenir le gain dans la détermination de la sensibilité).
Citation de: Caton le Novembre 25, 2010, 10:36:07
Faire des tests avec un D3 ou un D700 ne sert à rien : ils semblent très peu touchés, au point que les mesures de ce type risquent de se borner à jouer sur l'épaisseur du trait.
Faire le test avec un D700 permet de quantifier (aux erreurs de manip près) les écarts liés à ce boitier. Ni plus, ni moins.
Citation de: Caton le Novembre 25, 2010, 10:36:07
[...] faut-il le rappeler, du moins pour le Canon, les données Exif sont fausses.
Voir remarque précédente sur la définition de la sensibilité...
Citation de: PierreT le Novembre 25, 2010, 09:33:40
Bonjour,
Pour en revenir aux réserves formulées quant à la représentativité de mon dernier dessin, il est tout à fait clair que ce n'est qu'un schéma de principe. Si on admet que le principe est bon mais que, malgré tout, il ne reflète pas la réalité, il faut répondre à la question : qu'est-ce qui peut faire diverger la réalité du principe ?
Pour le moment, compte tenu de tout ce que j'ai lu (et merci pour les excellents liens), je suis tenté de dire qu'il n'y a que le fait que la baisse de sensibilité angulaire des photosites est progressive.
Par contre, il y a un point qui me chagrine un peu : dans les expériences que vous faites, vous parlez (et c'est normal) de pixels. Mais la relation photosite-pixel est loin d'être directe. Tout le monde sera d'accord là-dessus. Il me semble bien (je n'ai rien trouvé qui permette de penser le contraire) que les documents cités dans les différents liens donnent des caractéristiques de capteurs nus. Quid du filtre passe-bas (propre à chaque fabricant de boîtier) et de l'effet d'étalement qu'il produit ? Je ne suis pas très pointu dans ce domaine mais, pour moi, c'est aussi une des causes pouvant expliquer la différence.
Amicalement,
Pierre T.
Oui effectivement les documentations parlent des capteurs nus. Mais en même temps il s'agit de capteurs Kodak donc sans filtres passe-bas. Or je n'ai trouvé de documentation technique que pour les capteurs Kodak (il est dommage je trouve que les autres fondeurs ne les publient pas).
Ceci étant dit, je ne sais exactement comment fonctionne un filtre passe bas (j'ai lu qu'il s'agirait de deux lames biréfringentes l'une au dessus de l'autre), mais dans le cas présent, pour avoir une influence sur les grandes ouvertures uniquement, il faudrait que son efficacité dépende de l'angle d'incidence.
Citation de: Caton le Novembre 25, 2010, 10:36:07
Tu appartiens à la grande famille des bisounours, FX ?
Bah, si tu le dis...
Cependant, je pense qu'il serait utile que tu lises vraiment la discussion dans son intégralité, et que tu essayes de comprendre ce qu'il y est dit. Si après cela tu as des arguments techniques à avancer, des documents scientifiques à présenter, je pense que tout le monde en sera heureux. Et que cela apportera beaucoup plus à la réflexion que cet argumentum ad personnam.
Accessoirement, où ai-je dénigré DxOmark ? Comment dénigrer des mesures ? Je n'ai que critiqué l'interprétation qui est faite de ces mesures.
FX dixit :
"Cependant, je pense qu'il serait utile que tu lises vraiment la discussion dans son intégralité, et que tu essayes de comprendre ce qu'il y est dit. Si après cela tu as des arguments techniques à avancer, des documents scientifiques à présenter, je pense que tout le monde en sera heureux. Et que cela apportera beaucoup plus à la réflexion que cet argumentum ad personnam."
Pour l'heure, j'ai lu la discussion et c'est justement ce qui m'interpelle : qu'il s'agisse de toi et de Verso, j'ai simplement le sentiment que vous bossez, pour l'un à s'autopersuader et pour l'autre à persuader le reste des photimiens, que ce problème n'a pas d'importance.
Verso devrait avoir compris, s'il a lu l'article de CI, qu'il n'est pas concerné (ou tellement à la marge qu'il peut dormir tranquille). Mais ceux qui ont, par exemple, un 5DMk2 sont, eux, bel et bien concernés comme le montrent les mesures de bruit de CI. Le problème est bien réel, pour certains boîtiers, et je ne vois pas en quoi il y a matière a avancer des arguties comme le distinguo entre ISO et ISO pour tenter de discréditer ceux qui en ont conscience.
On s'en fout, totalement, de la manière dont les ISO sont mesurés. Si ça peut te faire plaisir, parlons de gain électronique : celui-là, il augmente bien puisque le bruit en fait autant.
Ce n'est pas en rebaptisant le problème qu'on en modifie les conséquences et c'est pourquoi je maintient le terme "argutie". Oui, le bruit augmente bien, en douce, pour maintenir l'exposition constante aux très grandes ouvertures avec certains appareils, dont le 5DMk2!
C'est aussi pourquoi aussi pourquoi j'aimerais comprendre tes motivations... le fait que le bruit augmente bien sans que les Exif en rendent compte est bien le fond du vrai problème, celui qui a de vraies conséquences pour l'utilisateur final, lorsqu'il applique un set de traitement préprogrammé pour une "sensibilité" donnée. Et cela quelle que soit la manière dont tu décides de l'appeler : ISO shift ou augmentation du gain électronique, mais toujours en loucedé !
Alors, je veux bien que tu me balances des arguments techniques et que tu m'estimes incapable de rentrer dans tes hautes considérations, mais je t'ai déjà interpellé sur une de tes anciennes interventions sur le sujet, dans ce fil ou dans l'un des autres (s'il faut chercher, je chercherais). Interpellation qui montrait bien, justement, que tu n'avais absolument pas compris de quoi il en retournait. Heureusement, Pierre T était là. Aussi, je trouve comique que tu m'interpelles aujourd'hui sur ma compréhension défaillante du phénomène.
Je sais parfaitement ce qui est en cause et j'en mesure aussi les conséquences pratiques pour ceux dont le capteur en est affecté. Toi pas, manifestement, puisque tu t'efforces de cacher la réalité de ces conséquences derrières des arguties dignes d'un jésuite !
Citation de: Caton le Novembre 25, 2010, 12:14:32
Pour l'heure, j'ai lu la discussion et c'est justement ce qui m'interpelle : qu'il s'agisse de toi et de Verso, j'ai simplement le sentiment que vous bossez, pour l'un à s'autopersuader et pour l'autre à persuader le reste des photimiens, que ce problème n'a pas d'importance.
En ce qui me concerne, je suis cette discussion avec beaucoup d'intérêt, mais en portant mon attention principalement sur les argumentations techniques (schémas de PierreT, documents Kodak définissant les ISO d'un APN, etc). Je n'ai nullement l'intention de convaincre qui que ce soit. Quand j'ai commencé ma petite séance d'essais hier soir, je n'avais aucune idée de ce qui allait en sortir. J'ai fait en sorte que mon expérimentation soit la plus rigoureuse possible, en essayant de limiter les biais au maximum.
A aucun moment je n'ai émis de jugement sur l'importance -ou pas- de ce "problème". Je me suis juste permis d'essayer de le quantifier sur le matériel que je possède...
Citation de: Caton le Novembre 25, 2010, 12:14:32
Verso devrait avoir compris, s'il a lu l'article de CI, qu'il n'est pas concerné (ou tellement à la marge qu'il peut dormir tranquille). Mais ceux qui ont, par exemple, un 5DMk2 sont, eux, bel et bien concernés comme le montrent les mesures de bruit de CI. Le problème est bien réel, pour certains boîtiers, et je ne vois pas en quoi il y a matière a avancer des arguties comme le distinguo entre ISO et ISO pour tenter de discréditer ceux qui en ont conscience.
La question n'est pas de savoir si je suis concerné ou pas par l'article (que j'ai lu). Juste voir ce que ça donne sur mon matériel...
Maintenant, si un possesseur de 5D MkII faisait le même genre de manip que celle que j'ai faite hier (qui s'y colle ?), je suivrais, bien sûr, les résultats avec beaucoup d'attention.
Le D3x et les Sony a850 et a900 ayant une densité de pixels supérieure à celle du 5DmkII, il faudrait aussi chercher de ce côté-là, non?
Et puis quand je lis que les APS-C 12Mp ne sont pas touchés, j'ai du mal à comprendre, car le nombre de pixels APS-C d'un D3x (donc plus dense que le 5DmkII) n'est que de 10Mp, ce qui fait que tous les APS-C récents sont au dessus, voire bien au dessus, en matière de petits puits. Pourquoi ne propose-t-on pas des tests sur un 7D/550D/60D ou D7000/K5/a55?
Je n'ai pas encore lu l'article de CI car seul le pocket est dans les rayons pour le moment, j'attends le grand format pour l'acheter (mais l'article sur Luminous Landscape oui), je manque peut-être un argument qui protège les APS-C par rapport aux 24x36, mais j'avoue qu'à priori, je ne vois pas la cause.
Citation de: Verso92 le Novembre 25, 2010, 10:22:15
Au contraire, Fanzizou, au contraire : le fait de comprendre ce qu'est réellement une sensibilité au sens où l'ISO l'entend permet d'éviter de raconter trop de bêtises...
Il faudrait donc extraire les valeurs à l'aide d'un logiciel genre Isis...
il n'empêche, ça nous explique toujours pas comment Nikon et/ou Canon font pour compenser cette perte liée aux microlentilles.
Personellement, je souhaiterai simplement qu'ils allongent le temps de pose, point barre. Comme ça on reste sur le même niveau de bruit à la sensibilité annoncée.
Citation de: FX-Bucher le Novembre 25, 2010, 11:03:37
Ceci étant dit, je ne sais exactement comment fonctionne un filtre passe bas (j'ai lu qu'il s'agirait de deux lames biréfringentes l'une au dessus de l'autre), mais dans le cas présent, pour avoir une influence sur les grandes ouvertures uniquement, il faudrait que son efficacité dépende de l'angle d'incidence.
Les épaisseurs respectives des lames biréfringentes et "quart d'onde" constituant un filtre passe-bas conditionnent son bon fonctionnement. L'incidence des rayons qui les traversent doit forcément avoir des conséquences puisqu'elle modifie l'épaisseur apparente des lames.
Citation de: Fanzizou le Novembre 25, 2010, 14:06:41
il n'empêche, ça nous explique toujours pas comment Nikon et/ou Canon font pour compenser cette perte liée aux microlentilles.
Personellement, je souhaiterai simplement qu'ils allongent le temps de pose, point barre. Comme ça on reste sur le même niveau de bruit à la sensibilité annoncée.
Mais... ce n'est pas possible, Fanzizou !
D'un point de vue "pratique" au moins, la sensibilité, ça "signifie" quelque chose !
Quand tu fais une mesure incidente avec une cellule à main, tu vas obtenir, par exemple f/1.4~1/500s pour 200 ISO. Tu dois pouvoir, c'est évident, reporter telles quelles les indications données par cellule sur l'appareil et obtenir une exposition correcte...
En cas de baisse de rendement du capteur à certaines ouvertures, comme on ne peut jouer ni sur la valeur de l'ouverture, ni sur celle du TdP, ni sur celle de la sensibilité ISO (ou alors, ces paramètres ne signifient plus rien !), on ne peut jouer que sur le gain de la chaine d'amplification du signal délivré par le capteur...
Citation de: Lyr le Novembre 25, 2010, 13:50:33
(...)
Et puis quand je lis que les APS-C 12Mp ne sont pas touchés, j'ai du mal à comprendre, car le nombre de pixels APS-C d'un D3x (donc plus dense que le 5DmkII) n'est que de 10Mp, ce qui fait que tous les APS-C récents sont au dessus, voire bien au dessus, en matière de petits puits. Pourquoi ne propose-t-on pas des tests sur un 7D/550D/60D ou D7000/K5/a55?
(...)
Probablement parce que les puits périphériques des capteurs APS-C sont plus proches du centre que les puits périphériques des capteurs 24x36 et que le problème, si problème il y a, varie en raison directe de l'éloignement du puits au centre, toutes choses étant égales par ailleurs et notamment l'objectif et le tirage de la monture.
Je tenterai une manip. avec mon S5 plus 50f1.4 AFD à l'occasion.
Citation de: Verso92 le Novembre 25, 2010, 14:23:15
Mais... ce n'est pas possible, Fanzizou !
D'un point de vue "pratique" au moins, la sensibilité, ça "signifie" quelque chose !
Quand tu fais une mesure incidente avec une cellule à main, tu vas obtenir, par exemple f/1.4~1/500s pour 200 ISO. Tu dois pouvoir, c'est évident, reporter telles quelles les indications données par cellule sur l'appareil et obtenir une exposition correcte...
En cas de baisse de rendement du capteur à certaines ouvertures, comme on ne peut jouer ni sur la valeur de l'ouverture, ni sur celle du TdP, ni sur celle de la sensibilité ISO (ou alors, ces paramètres ne signifient plus rien !), on ne peut jouer que sur le gain de la chaine d'amplification du signal délivré par le capteur...
heu....non, pas d'accord.
Tu mesures 1/500s à f1.4 avec ta cellule à main.
Appareil en manuel, tu mets f1.4 et 1/500s. Comme l'appareil connait le diaph (à moins de bidouiller avec des antiquités....), l'appareil peut te signaler gentiment qu'il va prendre au 1/320s ..... Il sait qu'il est à f1.4, donc il peut faire la correction théorique liée aux microlentilles de son propre capteur.
Par exemple....
jouer sur le gain, c'est jouer sur la sensibilité, sur un APN. Que fait un APN quand il photographie à 200iso. Il oue sur le gain par rapport à la sensibilité de base de 100iso du capteur...
Moi je préfère qu'il joue sur la vitesse d'obturation. C'est un choix de programmation, c'est tout.
Citation de: Mistral75 le Novembre 25, 2010, 14:50:03
Probablement parce que les puits périphériques des capteurs APS-C sont plus proches du centre que les puits périphériques des capteurs 24x36 et que le problème, si problème il y a, varie en raison directe de l'éloignement du puits au centre, toutes choses étant égales par ailleurs et notamment l'objectif et le tirage de la monture.
ben moi je ne trouve pas celà évident. Ce qui ressortirait alors, c'est du vignetage, et non une sous-ex généralisée sur tout le champ.
Citation de: Fanzizou le Novembre 25, 2010, 15:11:29
heu....non, pas d'accord.
Tu mesures 1/500s à f1.4 avec ta cellule à main.
Appareil en manuel, tu mets f1.4 et 1/500s. Comme l'appareil connait le diaph (à moins de bidouiller avec des antiquités....), l'appareil peut te signaler gentiment qu'il va prendre au 1/320s ..... Il sait qu'il est à f1.4, donc il peut faire la correction théorique liée aux microlentilles de son propre capteur.
Par exemple....
Mais, ce n'est pas possible !!!
Si tu choisis 1/500s, c'est parce que tu veux faire la photo au 1/500s, non ?
(le 1/350s, pour beaucoup de photos de sujets en mouvement, ça va être différent du 1/500s...
on ne peut pas s'amuser à bouger dans tous les sens la valeur de paramètres tels que l'ISO*, le TdP ou l'ouverture !)
Par contre, une augmentation du gain va seulement jouer -éventuellement- sur le bruit dans les ombres. Et comme les gens de chez DxO ont caractérisé le couple boitier/objectif, ça ne va pas les gêner plus que ça dans leurs corrections...
*au moins, vue du photographe...
Citation de: Verso92 le Novembre 25, 2010, 15:18:39
Mais, ce n'est pas possible !!!
Si tu choisis 1/500s, c'est parce que tu veux faire la photo au 1/500s, non ?
(le 1/350s, pour beaucoup de photos de sujets en mouvement, ça va être différent du 1/500s... on ne peut pas s'amuser à bouger dans tous les sens la valeur de paramètres tels que l'ISO*, le TdP ou l'ouverture !)
Par contre, une augmentation du gain va seulement jouer -éventuellement- sur le bruit dans les ombres. Et comme les gens de chez DxO ont caractérisé le couple boitier/objectif, ça ne va pas les gêner plus que ça dans leurs corrections...
*au moins, vue du photographe...
Question de choix. A partir du moment ou l'appareil me dit comment il corrige, je n'ai pas de pb philosophique avec ce petit pb de rendement.... L'idéal serait de pouvoir choisir: remontée du gain (boost de l'ISO vu du point de vue du photographe), ou augmentation du tdp.... A 100iso je vais surement choisir le boost ISO, à 6400 sans doute pas si le tdp est encore OK....
Le principe de base c'est d'être prévenu du truc, et de ne pas le cacher sous le tapis comme le dit CI.
Encore faut-il que le pb existe vraiment. Pour l'instant à part le 5DMkII, les essais pratiques réalisés ici sont peu concluants.
Citation de: PierreT le Novembre 25, 2010, 14:06:56
Les épaisseurs respectives des lames biréfringentes et "quart d'onde" constituant un filtre passe-bas conditionnent son bon fonctionnement. L'incidence des rayons qui les traversent doit forcément avoir des conséquences puisqu'elle modifie l'épaisseur apparente des lames.
Effectivement il y a forcément une incidence, mais, étant donné qu'on peut supposer que le filtre passe bas est composé de lames planes, et étant donné qu'au centre du capteur les rayons sont inclinés au maximum de 25° environ pour un objectif ouvrant à f/1,2 ce qui représente un trajet plus long d'environ 10% seulement, on peut supposer même sans connaître les caractéristiques optiques des matériaux composants ces filtres que l'écart de transmittance est négligeable entre les rayons du centre et ceux de l'extérieur de la pupille de sortie (en considérant que ces filtres ont des propriétés proches de celles du verre et donc un coefficient d'absorption proche de 0,1 et qu'ils font 3mm d'épaisseur, j'obtiens une transmission sur les bords proche de 97% ou -0,04Ev de celle au centre). De même étant donné le faible angle d'incidence, je ne suis pas sûr que les pertes dues à la réflexion soient très importantes.
Citation de: Fanzizou le Novembre 25, 2010, 16:02:54
Question de choix. A partir du moment ou l'appareil me dit comment il corrige, je n'ai pas de pb philosophique avec ce petit pb de rendement....
Avec des abaques, pour indiquer quelles corrections faire suivant les cas pour que la photo soit bien exposée ? Quel retour en arrière !
Non, sérieusement, ne changez rien, messieurs les constructeurs !
(juste un peu plus de transparence, peut-être, pour qu'on sache où on met les pieds quand on achète certains types de matériel...)
Citation de: Fanzizou le Novembre 25, 2010, 16:02:54
[...]
Encore faut-il que le pb existe vraiment. Pour l'instant à part le 5DMkII, les essais pratiques réalisés ici sont peu concluants.
A combien de fractions d'EV s'élèverait le « boost d'ISO » caché du 5Dmk2 à f/1.4 selon C.I. ? (je n'ai plus l'article devant les yeux)
cdlt,
GBo
Maintenant qu'on a eu les hors d'œuvres et que nous sommes aux portes du descriptif, je vous propose de commencer à décrire sommairement la " fonction de transfert" de nos chers boitiers.
Il convient de RESTER SIMPLE.
Pour la compréhension de tous, je propose qu'elle soit écrite verticalement et uniquement avec des mots ou une phrase simple.
Ceci devrait de mettre en évidence la problématique ""ce que je demande au boitier / ce qu'il fait / ce qu'il me restitue / conforme ou non ? ""
Exemple :
- ce que l'on veut prendre en photo
- je choisis un réglage
- j'appuie sur le déclencheur
- ce que je vois sur l'afficheur
- ce que je REvois sur un écran
- ce que ma mémoire à conserver de la "situation photographique (scène éclairage)
- Ma sensibilité ou mon désir
Maintenant, je propose d'ajouter à la liste ce qui à votre avis se passe DANS LA SITUATION initial du fil
Donc logiquement j'ajoute au minimum -> choix d'un objectif lumineux et ouverture 1.4 ou <.
- ce que l'on veut prendre en photo
- lumière faible
- 50 / 1.4
- je choisis un réglage
- ISO 800 ? 1600 ?
- Manuel / auto ? Priorité
- intention photographique ? PDC
- Type de mesure ?
- j'appuie sur le déclencheur
- ce que je vois sur l'afficheur
- ce que je REvois sur un écran
- ce que ma mémoire à conserver de la "situation photographique (scène éclairage)
- Ma sensibilité ou mon désir
Si cette approche vous convient, je propose qu'on enrichisse la liste et qu'ensuite on "diagramme un peu" si possible avec des schémas blocs.
Alors on devrait arrivé à la conclusion que les fonctions diverses du boitier sont toutes "optimisantes" et donc pas forcement "VRAI"
;)
Fanzizou, puisque tu te demandes "Encore faut-il que le pb existe vraiment. Pour l'instant à part le 5DMkII, les essais pratiques réalisés ici sont peu concluants", pourquoi ne pas tout simplement consulter la base de données DxO, ici :
http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues
Les chiffres parlent d'eux-même.
Il y a un lien direct entre deux facteurs, l'âge du capteur et le pixel pitch d'une part, et la perte de rendement aux grandes ouvertures.
Les plus atteints sont les vieux CCD (Nikon D40/50, etc.) et les vieux Cmos Canon (EOS 350D, etc.) ainsi que les appareils ayant un pixel pitch étroit.
regardez vous mêmes, ça vous évitera de vous lancer dans des manipes compliquées et peu parlantes. Avec un f/1,4, les D3, D700, etc. sont entre -0,3 et -0,4 IL. Avec la plupart des autres boîtiers, ça se gâte : le D3x est autour de -0,4 IL par exemple, mais le 5D MkII à -0,45 et les APS-C 12 méga vers -0,5. Le pompon est atteint, logique, par le 7D vers -0,65. Le 550D, avec un capteur sans doute doté de microlentilles légèrement améliorées (quelques mois séparent ces deux appareils), fait un peu mieux.
Par ailleurs, ce que je demande, tout comme Fanzizou, c'est de pouvoir choisir - ainsi que Pascal Miele le suggère aussi dans sa conclusion - par menu si je veux ou pas de correction, et si j'en veux une, sur quel paramètre, ISO (disons, amplification pour faire plaisir aux jésuites de la définition de la sensibilité) ou vitesse. Je demande aussi que les Exif soient justes, et pas bidonnés, pour que les logiciels de traitement auto puissent bosser correctement.
C'est quand même pas excessif, si ?
Citation de: Caton le Novembre 25, 2010, 17:19:05
Par ailleurs, ce que je demande, tout comme Fanzizou, c'est de pouvoir choisir - ainsi que Pascal Miele le suggère aussi dans sa conclusion - par menu si je veux ou pas de correction, et si j'en veux une, sur quel paramètre, ISO (disons, amplification pour faire plaisir aux jésuites de la définition de la sensibilité) ou vitesse. Je demande aussi que les Exif soient justes, et pas bidonnés, pour que les logiciels de traitement auto puissent bosser correctement.
C'est quand même pas excessif, si ?
Et bien demande le, alors...
(que viennent faire les jésuites là-dedans ?)
Il me semble pourtant qu'il y a des points bien plus importants que celui là (le paramétrage demandé par PM) à améliorer sur les APN. D'autre part, comme les logiciels de traitement auto connaissent le gain appliqué par les fabricants (au moins DxO) après caractérisation, je ne vois pas ce qui les empêcherait d'adapter leur traitement en conséquence...
Citation de: Verso92 le Novembre 25, 2010, 16:10:07
Avec des abaques, pour indiquer quelles corrections faire suivant les cas pour que la photo soit bien exposée ? Quel retour en arrière !
Non, sérieusement, ne changez rien, messieurs les constructeurs !
(juste un peu plus de transparence, peut-être, pour qu'on sache où on met les pieds quand on achète certains types de matériel...)
A vrai dire je m'en fous, je ne travaille jamais avec une cellule à main, j'aime assez la matricielle qui a l'avantage, quelle surprise d'être dans l'appareil (si si ;D).
Et si on est pas en manuel, si en mode A l'appareil me dit 1/320s au lieu de1/500s, c'est pas trop grave, pas plus que s'il booste le gain d'1/3 d'IL. Au delà de 6400iso toutefois, pouvoir choisir pourquoi pas....
Citation de: Caton le Novembre 25, 2010, 17:19:05
Fanzizou, puisque tu te demandes "Encore faut-il que le pb existe vraiment. Pour l'instant à part le 5DMkII, les essais pratiques réalisés ici sont peu concluants", pourquoi ne pas tout simplement consulter la base de données DxO, ici :
http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues
Les chiffres parlent d'eux-même.
Il y a un lien direct entre deux facteurs, l'âge du capteur et le pixel pitch d'une part, et la perte de rendement aux grandes ouvertures.
Les plus atteints sont les vieux CCD (Nikon D40/50, etc.) et les vieux Cmos Canon (EOS 350D, etc.) ainsi que les appareils ayant un pixel pitch étroit.
regardez vous mêmes, ça vous évitera de vous lancer dans des manipes compliquées et peu parlantes. Avec un f/1,4, les D3, D700, etc. sont entre -0,3 et -0,4 IL. Avec la plupart des autres boîtiers, ça se gâte : le D3x est autour de -0,4 IL par exemple, mais le 5D MkII à -0,45 et les APS-C 12 méga vers -0,5. Le pompon est atteint, logique, par le 7D vers -0,65. Le 550D, avec un capteur sans doute doté de microlentilles légèrement améliorées (quelques mois séparent ces deux appareils), fait un peu mieux.
Par ailleurs, ce que je demande, tout comme Fanzizou, c'est de pouvoir choisir - ainsi que Pascal Miele le suggère aussi dans sa conclusion - par menu si je veux ou pas de correction, et si j'en veux une, sur quel paramètre, ISO (disons, amplification pour faire plaisir aux jésuites de la définition de la sensibilité) ou vitesse. Je demande aussi que les Exif soient justes, et pas bidonnés, pour que les logiciels de traitement auto puissent bosser correctement.
C'est quand même pas excessif, si ?
y'a les mêmes mesures pour le Fuji S5 chez DXO ? je vais aller voir...
Pas de Fuji ds les mesures DXO. Le capteur un peu spécial en nid d'abeille avec des photosites de 2 tailles différente, serait pourtant assez interessant à tester.
Leur courbe montre une sensibilité du pixel pitch, mais aussi que ça n'est pas le seul paramètre.
Citation de: Fanzizou le Novembre 25, 2010, 17:39:37
A vrai dire je m'en fous, je ne travaille jamais avec une cellule à main, j'aime assez la matricielle qui a l'avantage, quelle surprise d'être dans l'appareil (si si ;D).
Et si on est pas en manuel, si en mode A l'appareil me dit 1/320s au lieu de1/500s, c'est pas trop grave, pas plus que s'il booste le gain d'1/3 d'IL. Au delà de 6400iso toutefois, pouvoir choisir pourquoi pas....
Mouais... bien sûr, on peut balayer d'un revers de main toute la métrologie, expliquer qu'on ne fait jamais de photo de studio (flashmètre, etc), par exemple. Mais raisonner à
sa petite échelle d'utilisateur confiné à l'utilisation de
sa matricielle et vouloir tout y ramener, est-ce bien raisonnable ?
Citation de: Caton le Novembre 25, 2010, 17:19:05
Fanzizou, puisque tu te demandes "Encore faut-il que le pb existe vraiment. Pour l'instant à part le 5DMkII, les essais pratiques réalisés ici sont peu concluants", pourquoi ne pas tout simplement consulter la base de données DxO, ici :
http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues
Les chiffres parlent d'eux-même.
Il y a un lien direct entre deux facteurs, l'âge du capteur et le pixel pitch d'une part, et la perte de rendement aux grandes ouvertures.
Les plus atteints sont les vieux CCD (Nikon D40/50, etc.) et les vieux Cmos Canon (EOS 350D, etc.) ainsi que les appareils ayant un pixel pitch étroit.
regardez vous mêmes, ça vous évitera de vous lancer dans des manipes compliquées et peu parlantes. Avec un f/1,4, les D3, D700, etc. sont entre -0,3 et -0,4 IL. [...]
Je t'arrête tout de suite, -0,3 et -0,4 IL ce n'est pas négligeable (et ça se voit bien), ce n'est pas ce que l'on trouve avec Verso: on est en-dessous de 0.1 IL de triche sur son boitier à f/1.4, et c'est imperceptible. Il y a un souci de reproductibilité, c'est génant ça...
A moins que... à moins qu'il y ait confusion dans l'interprétation du tableau DxO «
ΔEV at f/1.4 function of pixel pitch » : si c'était en fait l'ensemble des pertes qui était comptées ici, c'est-à-dire les pertes de transmittance de l'objectif utilisé pour le test (le T-stop - F-stop quoi) + la perte additionnelle amenée par le capteur ? Ca ferait plus de sens !
La manip du déboitement de Verso-GBo elle, met en évidence uniquement la perte du capteur à 1.4, ou plus exactement la compensation de cette perte, préprogrammée par Nikon pour ce capteur à cette ouverture.
Citation de: GBo le Novembre 25, 2010, 19:01:51
Je t'arrête tout de suite, -0,3 et -0,4 IL ce n'est pas négligeable (et ça se voit bien), ce n'est pas ce que l'on trouve avec Verso: on est en-dessous de 0.1 IL de triche sur son boitier à f/1.4, et c'est imperceptible. Il y a un souci de reproductibilité, c'est génant ça...
Ne sois pas trop catégorique, quand même, GBo, en avançant un chiffre inférieur à 0,1 IL : je ne pense pas qu'on puisse déterminer cette perte avec précision juste en analysant les images à la pipette et en faisant un ratio (non linéarités).
D'une façon plus pragmatique, je dirais, par rapport à mon expérience, qu'on doit se situer au pire au 1/4 d'IL, peut-être en-dessous. Mais cela ne change pas fondamentalement les choses dans le principe, on est bien d'accord...
Citation de: FX-Bucher le Novembre 25, 2010, 11:03:37
Effectivement il y a forcément une incidence, mais, étant donné qu'on peut supposer que le filtre passe bas est composé de lames planes, et étant donné qu'au centre du capteur les rayons sont inclinés au maximum de 25° environ pour un objectif ouvrant à f/1,2 ce qui représente un trajet plus long d'environ 10% seulement, on peut supposer même sans connaître les caractéristiques optiques des matériaux composants ces filtres que l'écart de transmittance est négligeable entre les rayons du centre et ceux de l'extérieur de la pupille de sortie (en considérant que ces filtres ont des propriétés proches de celles du verre et donc un coefficient d'absorption proche de 0,1 et qu'ils font 3mm d'épaisseur, j'obtiens une transmission sur les bords proche de 97% ou -0,04Ev de celle au centre). De même étant donné le faible angle d'incidence, je ne suis pas sûr que les pertes dues à la réflexion soient très importantes.
Non, non, je ne pensais pas à un problème de transmittance , ni même de réflexion d'ailleurs, mais aux deux dédoublements successifs des rayons qui s'opèrent dans le filtre passe-bas. Ces dédoublements sont fait de manière à correspondre exactement au pas des photosites, et c'est l'épaisseur des lames biréfringentes et/ou quart d'onde qui détermine cet écartement (voir brevets 7.075.719 et 2008/0008424). Il ne me paraît donc pas idiot de penser qu'une augmentation (même faible) de l'épaisseur apparente des lames (due à l'incidence) puisse modifier la manière dont les rayons sont dédoublés. Le dédoublement ne serait alors plus en phase avec les photosites... Mais je n'ai pas encore trouvé le temps de lire complètement les brevets mentionnés)...
Citation de: Verso92 le Novembre 25, 2010, 19:19:14
Ne sois pas trop catégorique, quand même, GBo, en avançant un chiffre inférieur à 0,1 IL : je ne pense pas qu'on puisse déterminer cette perte avec précision juste en analysant les images à la pipette et en faisant un ratio (non linéarités).
D'une façon plus pragmatique, je dirais, par rapport à mon expérience, qu'on doit se situer au pire au 1/4 d'IL, peut-être en-dessous. Mais cela ne change pas fondamentalement les choses dans le principe, on est bien d'accord...
J'ai lancé 0.1 IL au pif c'est vrai, néanmoins j'ai fait une petite manip empirique (pour me rassurer :D): j'ai pris une photo d'une cible avec plusieurs aplats de gris, en mode M à ISO200, puis la même en ISO250 (boost de 1/3 d'IL): la valeur de gris qui est à 170 sur la 1ere photo passe à 193 avec le boost de 1/3 EV. Et le boost se voit comme le nez sur la figure. Or dans ta manip, on passait de 170 à 174, et on ne voit rien.
Je suis donc certain que les chiffres DxO que nous donne Caton pour le D700 ne se retrouvent pas du tout, d'où mon hypothèse qu'on ne parle pas de la même chose.
cdlt
GBo
Citation de: GBo le Novembre 25, 2010, 20:45:08
J'ai lancé 0.1 IL au pif c'est vrai, néanmoins j'ai fait une petite manip empirique (pour me rassurer :D): j'ai pris une photo d'une cible avec plusieurs aplats de gris, en mode M à ISO200, puis la même en ISO250 (boost de 1/3 d'IL): la valeur de gris qui est à 170 sur la 1ere photo passe à 193 avec le boost de 1/3 EV. Et le boost se voit comme le nez sur la figure. Or dans ta manip, on passait de 170 à 174, et on ne voit rien.
Je suis donc certain que les chiffres DxO que nous donne Caton pour le D700 ne se retrouvent pas du tout, d'où mon hypothèse qu'on ne parle pas de la même chose.
cdlt
GBo
De toute façon, par principe, le protocole de mesure influe de façon notable sur les données chiffrées qu'on en retire.
Le plus important, sans doute, est de constater une variation dans le même sens. Après coup, les quelques essais que j'ai fait hier semblent montrer que ce n'est pas besoin de se prendre la tête plus que ça, du moins avec le D700 associé au f/1.4 50 AF-D...
Ce n'est pas Caton, oh non!, mais DxO qui donne ces chiffres. Sans vouloir vous vexer, les gars, j'ai comme qui dirait un peu plus confiance dans leur labo et leurs méthodologies que dans vos essais effectués sur un coin de table!
Comme je l'ai souligné, prendre le D700 pour tenter de reproduire leurs essais n'est pas futé dans la mesure où c'est l'un des moins touchés. Avec des mesures à la grosse louche (à la pipette, sans source de lumière stabilisée, notamment, et sur une charte qui n'est même pas normale à l''axe optique) et le D700, on ne doit pas être loin de l'épaisseur du trait !
CI met en évidence le phénomène dans son test via la mesure du bruit sur un 5DMk2, ce qui me paraît déjà plus évident, comme procédure : choisir pour valider les mesures faites par un autre labo une procédure de contournement effectuée sur un appareil a priori fortement touché est quand même une précaution simple et sage.
En fait, là où je suis mort de rire, c'est de constater un peu plus au fur et à mesure que ce fil s'enfonce dans les sables mouvants, que tous nos cakes de la métrologie doutent de la réalité des mesures de dxO comme de celles de CI (en fait, au choix, affectent d'en douter pour se hausser sur leurs petites talonnettes, ou en doutent réellement pour exister malgré tout contre les véritables experts). Si on enlève Fanzizou, Seba et PierreT (pardon à ceux que j'aurais oublié), les démonstration sont souvent vaseuses. Mais d'un point de vue psychosociologique, c'est très éclairant sur ce que deviennent les forums où quelques vedettes s'efforcent de dire le dogme et d'exister, y compris au mépris des évidences.
Citation de: GBo le Novembre 25, 2010, 19:01:51
Je t'arrête tout de suite, -0,3 et -0,4 IL ce n'est pas négligeable (et ça se voit bien), ce n'est pas ce que l'on trouve avec Verso: on est en-dessous de 0.1 IL de triche sur son boitier à f/1.4, et c'est imperceptible. Il y a un souci de reproductibilité, c'est génant ça...
A moins que... à moins qu'il y ait confusion dans l'interprétation du tableau DxO « ΔEV at f/1.4 function of pixel pitch » : si c'était en fait l'ensemble des pertes qui était comptées ici, c'est-à-dire les pertes de transmittance de l'objectif utilisé pour le test (le T-stop - F-stop quoi) + la perte additionnelle amenée par le capteur ? Ca ferait plus de sens !
[...]
Bingo ! regarder les chiffres des onglets "transmission" des tests d'objectifs + boitier de DxO :
Canon EF 50mm f/1.4 USM sur
Canon EOS 7D Tstop difference : 0.7 EV
http://www.dxomark.com/index.php/en/Lens-with-Camera/All-tested-lenses/Canon/EF50-mm-f-1.4-USM/(camera)/619/(cameraname)/CANON-EOS-7D
Retenons que cette valeur, c'est pour DxO la "Tstop difference to manufacter f# at full aperture"
C'est donc du TOUT inclus, y compris les pertes dues à l'objectif, on est bien d'accord ?
Or c'est (à l'arrondi près ?) quasiment le même chiffre que l'on retrouve dans le «
ΔEV at f/1.4 function of pixel pitch » pris par Caton comme étant celui des pertes dues uniquement au capteur. Le voici :
Canon EOS 7D : - 0.66 EV
http://www.dxomark.com/itext/insights_tstop/Tstop1.jpg
--
Canon EF 50mm f/1.4 USM sur
Canon EOS 5D Mark II Tstop difference : 0.5 EV
http://www.dxomark.com/index.php/en/Lens-with-Camera/All-tested-lenses/Canon/EF50-mm-f-1.4-USM/(camera)/483/(cameraname)/CANON-EOS-5D-Mark-II
Or sur le tableau «
ΔEV at f/1.4 function of pixel pitch », on a :
Canon EOS 5D Mark II : - 0.44 EV
--
Canon EF 50mm f/1.4 USM sur
Canon EOS 30D Tstop difference : 0.6 EV
http://www.dxomark.com/index.php/en/Lens-with-Camera/All-tested-lenses/Canon/EF50-mm-f-1.4-USM/(camera)/179/(cameraname)/CANON-EOS-30D
Sur le tableau «
ΔEV at f/1.4 function of pixel pitch » :
Canon EOS 30D : - 0.52 EV
--
Et ainsi de suite...
Citation de: Caton le Novembre 25, 2010, 21:25:29
Ce n'est pas Caton, oh non!, mais DxO qui donne ces chiffres. Sans vouloir vous vexer, les gars, j'ai comme qui dirait un peu plus confiance dans leur labo et leurs méthodologies que dans vos essais effectués sur un coin de table!
Aucun risque de me vexer, pour ma part : je n'ai fait qu'un essai sur un coin de table, comme tu le soulignes fort justement. Juste dans le but de voir si, oui ou non, cela changerait ma vie de photographe amateur. Ma conclusion provisoire : il semblerait que non, c'est tout...
Citation de: Caton le Novembre 25, 2010, 21:25:29
Comme je l'ai souligné, prendre le D700 pour tenter de reproduire leurs essais n'est pas futé dans la mesure où c'est l'un des moins touchés. Avec des mesures à la grosse louche (à la pipette, sans source de lumière stabilisée, notamment, et sur une charte qui n'est même pas normale à l''axe optique) et le D700, on ne doit pas être loin de l'épaisseur du trait !
CI met en évidence le phénomène dans son test via la mesure du bruit sur un 5DMk2, ce qui me paraît déjà plus évident, comme procédure : choisir pour valider les mesures faites par un autre labo une procédure de contournement effectuée sur un appareil a priori fortement touché est quand même une précaution simple et sage.
Tu parles de 0,3 ou 0,4 IL pour le D700, non ? On n'est pas tout à fait dans l'épaisseur du trait, il me semble...
(pour le 5DII, je n'envisage pas d'en acheter un dans les prochaines années : il faudra donc attendre qu'un possesseur de ce boitier s'y colle...)
Citation de: Caton le Novembre 25, 2010, 21:25:29
En fait, là où je suis mort de rire, c'est de constater un peu plus au fur et à mesure que ce fil s'enfonce dans les sables mouvants, que tous nos cakes de la métrologie doutent de la réalité des mesures de dxO comme de celles de CI (en fait, au choix, affectent d'en douter pour se hausser sur leurs petites talonnettes, ou en doutent réellement pour exister malgré tout contre les véritables experts). Si on enlève Fanzizou, Seba et PierreT (pardon à ceux que j'aurais oublié), les démonstration sont souvent vaseuses. Mais d'un point de vue psychosociologique, c'est très éclairant sur ce que deviennent les forums où quelques vedettes s'efforcent de dire le dogme et d'exister, y compris au mépris des évidences.
Pourquoi tant de dédain affiché ? En ce qui me concerne, je n'ai jamais remis en doute les mesures de DxO ou de CI*...
*sauf quand elles vont à l'encontre des mesures "constructeur" (qui ne sont pas non plus des "branques")... là, je préfère vérifier par moi-même, quand c'est faisable facilement !
Citation de: Tonton Bruno le Novembre 26, 2010, 08:58:59
Si je comprends bien, la mesure globale tient compte du vignetage, très important aux grandes ouvertures, et qui couvre presque tout le champ, avec un dégradé très progressif.
Non non Tonton, les mesures de l'onglet "Transmission" se font au centre chez DxO :
"First, we measure the ISO sensitivity of a sensor without optics, then since all sensors we currently measure are linear (or can be linearized with a simple "Dark value" subtraction) we can use the sensor as a photometer with an optics between the sensor and very stable luminous surface which luminance is precisely measured with a calibrated luminance-meter. It is then easy to compute the actual T-Stop of the lens and sensor combination: one part of the loss comes from then lens itself, another part is due to the sensor inability to capture light from some angles. That measurement is performed at image center, what happens in the field is a different measurement, available on www.dxomark.com as "vignetting"
Source : un expert de chez DxO cité par Dubovoy sur le forum de Luminous Landscape :
http://www.luminous-landscape.com/forum/index.php?topic=47800.msg398290#msg398290
Citation de: Tonton Bruno le Novembre 26, 2010, 08:58:59
Si je comprends bien la mesure de DXO, quand DXO annonce une perte de -0,4 IL pour le 50mm à f/1,4 sur le D3, ce serait à comparer à une perte de 0,3 IL sur un banc optique pur, en l'absence de capteur ou même de film.
Ce que je remarque plutôt, c'est que le tableau du haut* qu'a prix Caton pour nous annoncer fielement que le D700 triche de 0.3 EV à 0.4 EV à f1.4 n'est pas le bon tableau.
Car pour un boitier donné, ce tableau semble contenir quasiment les mêmes valeurs (sauf qu'elles ne sont pas arrondies au dixième d'EV supérieur) que ce DxO mesure comme étant la différence entre le F-stop annoncé pour l'objo utilisé pour le test (c'est à dire un 50mm à f/1.4 en l'occurrence) et ce qu'ils mesurent au banc de transmission pour l'objectif à travers le capteur du boitier en question. Ce chiffre tient donc compte des pertes de l'optique de l'objectif à 1.4 et de toute autre perte du boitier en question sous test (i.e. le chiffre contient aussi l'influence du capteur, mais pas que).
Or la tricherie d'ISO, si avérée, n'est sensée compenser que la perte additionnelle due au capteur, elle est donc sensiblement moindre que ce pourrait laisser supposer le tableau du haut*. En d'autre termes, on n'a pas le montant de la tricherie de gain par boitier de la part de DxO, sauf pour 4 appareils (c'est le tableau du bas*).
(*) Voir les tableaux sur ce lien :
http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues
Citation de: PierreT le Novembre 25, 2010, 19:31:14
Non, non, je ne pensais pas à un problème de transmittance , ni même de réflexion d'ailleurs, mais aux deux dédoublements successifs des rayons qui s'opèrent dans le filtre passe-bas. Ces dédoublements sont fait de manière à correspondre exactement au pas des photosites, et c'est l'épaisseur des lames biréfringentes et/ou quart d'onde qui détermine cet écartement (voir brevets 7.075.719 et 2008/0008424). Il ne me paraît donc pas idiot de penser qu'une augmentation (même faible) de l'épaisseur apparente des lames (due à l'incidence) puisse modifier la manière dont les rayons sont dédoublés. Le dédoublement ne serait alors plus en phase avec les photosites... Mais je n'ai pas encore trouvé le temps de lire complètement les brevets mentionnés)...
Est-ce à dire que si on supprime le filtre passe-bas (avec les autres sousis que ça peut créer), on résoud le problème ?
Il faudrait alors tenter une manip avec un S5 normal et un S5 dont on a enlever le filtre passe-bas (puisqu'il parait que certains l'ont fait).
Citation de: Verso92 le Novembre 25, 2010, 17:54:28
Mouais... bien sûr, on peut balayer d'un revers de main toute la métrologie, expliquer qu'on ne fait jamais de photo de studio (flashmètre, etc), par exemple. Mais raisonner à sa petite échelle d'utilisateur confiné à l'utilisation de sa matricielle et vouloir tout y ramener, est-ce bien raisonnable ?
Si tu veux. En aucun cas je n'impose ma pratique aux autres, je dis juste quel est l'impact pratique pour moi. Je ne balaye pas la métrologie d'un revers de main, sinon je ne lferai pas l'effort de lire ce fil !
Mais sommes nous tous d'accord pour dire que si perte il y a (je suis d'accord avec vous, le DeltaEv de DXO, on n'est pas sur de ce qu'il représente exactement), si on a le choix pour ratrapper entre une augmentation du temps de pose ou un boost iso, tout le monde est content ?
Je ne suis pas sur de très bien comprendre vos positions pratiques en fonction de vos façons d'utiliser vos APN.
Citation de: Fanzizou le Novembre 26, 2010, 09:46:31
Je ne suis pas sur de très bien comprendre vos positions pratiques en fonction de vos façons d'utiliser vos APN.
A vrai dire, je n'ai pas de "position pratique" particulière : je me contente simplement de faire des photos, en me concentrant sur l'essentiel.
Pour moi, les contournements que tu proposes (sur le TdP), en décorrélant complètement les correspondances IL vs TdP/ouvertures/sensibilité, ne peuvent que semer la confusion dans les esprits, en inventant de nouvelles règles de fonctionnement. Aujourd'hui, le comportement n'est peut-être pas satisfaisant sur tous les critères, mais au moins, il est "transparent".
Il me semble très intéressant par contre de connaitre le plus exactement possible les chiffres et les conséquences liés à la perte de rendement de certaines combinaisons boitiers/ouvertures, pour pouvoir choisir en toute connaissance de cause son équipement (cela vaut-il le coup, ou pas, d'acheter un objectif ouvrant à f/1.4 ou f/1.2 avec tel type de boitier, etc)...
Citation de: GBo le Novembre 26, 2010, 09:16:46
Non non Tonton, les mesures de l'onglet "Transmission" se font au centre chez DxO :
"First, we measure the ISO sensitivity of a sensor without optics, then since all sensors we currently measure are linear (or can be linearized with a simple "Dark value" subtraction) we can use the sensor as a photometer with an optics between the sensor and very stable luminous surface which luminance is precisely measured with a calibrated luminance-meter. It is then easy to compute the actual T-Stop of the lens and sensor combination: one part of the loss comes from then lens itself, another part is due to the sensor inability to capture light from some angles. That measurement is performed at image center, what happens in the field is a different measurement, available on www.dxomark.com as "vignetting"
Source : un expert de chez DxO cité par Dubovoy sur le forum de Luminous Landscape :
http://www.luminous-landscape.com/forum/index.php?topic=47800.msg398290#msg398290
Ce que je remarque plutôt, c'est que le tableau du haut* qu'a prix Caton pour nous annoncer fielement que le D700 triche de 0.3 EV à 0.4 EV à f1.4 n'est pas le bon tableau.
Car pour un boitier donné, ce tableau semble contenir quasiment les mêmes valeurs (sauf qu'elles ne sont pas arrondies au dixième d'EV supérieur) que ce DxO mesure comme étant la différence entre le F-stop annoncé pour l'objo utilisé pour le test (c'est à dire un 50mm à f/1.4 en l'occurrence) et ce qu'ils mesurent au banc de transmission pour l'objectif à travers le capteur du boitier en question. Ce chiffre tient donc compte des pertes de l'optique de l'objectif à 1.4 et de toute autre perte du boitier en question sous test (i.e. le chiffre contient aussi l'influence du capteur, mais pas que).
Or la tricherie d'ISO, si avérée, n'est sensée compenser que la perte additionnelle due au capteur, elle est donc sensiblement moindre que ce pourrait laisser supposer le tableau du haut*. En d'autre termes, on n'a pas le montant de la tricherie de gain par boitier de la part de DxO, sauf pour 4 appareils (c'est le tableau du bas*).
(*) Voir les tableaux sur ce lien :
http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues
Au bilan si on résume, je ne suis toujours pas sur de bien comprendre.
Prenons le cas du Canon50D qui est sur les 3 tableaux du lien DXO.
tableau du haut, il est annoncé à f1.4 une perte de 0.63ev pour l'ensemble complet
courbe du bas, la perte n'est plus que de 0.28ev (on retrouve ce que Verso à la louche estime sur son D700, "maxi 1/4ev" disait-il) pour le capteur seul (c'est précisemment sur ce point que je ne suis pas certain de mon raisonnement).
Au bilan, c'est donc les annonces sur les objectifs qui trichent le plus ?
Le 50f1.4 Canon aurait 0.63-0.28 = 0.35ev de perte rien que par les aberrations physiques des lentilles traversées (réflexion sur les dioptres ou transmitance, peu importe) ? Ou est-ce sur le diamètre de l'objectif qu'il y a écart ?
Citation de: Verso92 le Novembre 26, 2010, 10:00:05
A vrai dire, je n'ai pas de "position pratique" particulière : je me contente simplement de faire des photos, en me concentrant sur l'essentiel.
Il me semble très intéressant par contre de connaitre le plus exactement possible les chiffres et les conséquences liés à la perte de rendement de certaines combinaisons boitiers/ouvertures, pour pouvoir choisir en toute connaissance de cause son équipement (cela vaut-il le coup, ou pas, d'acheter un objectif ouvrant à f/1.4 ou f/1.2 avec tel type de boitier, etc)...
OK, je raisonne en gros de la même manière. Pour un 50 AFD à 250$ aux US je vais pas trop creuser, en revanche pour un 85 AFS à 2000€, je veux TOUT savoir ;D
Citation de: Fanzizou le Novembre 26, 2010, 10:05:33
OK, je raisonne en gros de la même manière. Pour un 50 AFD à 250$ aux US je vais pas trop creuser, en revanche pour un 85 AFS à 2000€, je veux TOUT savoir ;D
Et là, par contre, je suis tout à fait en phase avec toi !
Citation de: Caton le Novembre 25, 2010, 21:25:29
Ce n'est pas Caton, oh non!, mais DxO qui donne ces chiffres. Sans vouloir vous vexer, les gars, j'ai comme qui dirait un peu plus confiance dans leur labo et leurs méthodologies que dans vos essais effectués sur un coin de table!
Comme je l'ai souligné, prendre le D700 pour tenter de reproduire leurs essais n'est pas futé dans la mesure où c'est l'un des moins touchés. Avec des mesures à la grosse louche (à la pipette, sans source de lumière stabilisée, notamment, et sur une charte qui n'est même pas normale à l''axe optique) et le D700, on ne doit pas être loin de l'épaisseur du trait !
CI met en évidence le phénomène dans son test via la mesure du bruit sur un 5DMk2, ce qui me paraît déjà plus évident, comme procédure : choisir pour valider les mesures faites par un autre labo une procédure de contournement effectuée sur un appareil a priori fortement touché est quand même une précaution simple et sage.
En fait, là où je suis mort de rire, c'est de constater un peu plus au fur et à mesure que ce fil s'enfonce dans les sables mouvants, que tous nos cakes de la métrologie doutent de la réalité des mesures de dxO comme de celles de CI (en fait, au choix, affectent d'en douter pour se hausser sur leurs petites talonnettes, ou en doutent réellement pour exister malgré tout contre les véritables experts). Si on enlève Fanzizou, Seba et PierreT (pardon à ceux que j'aurais oublié), les démonstration sont souvent vaseuses. Mais d'un point de vue psychosociologique, c'est très éclairant sur ce que deviennent les forums où quelques vedettes s'efforcent de dire le dogme et d'exister, y compris au mépris des évidences.
Bah tu es bien sévère je trouve. On cherche juste à comprendre mieux dans la mesures de nos moyens d'investigations. Et si tu lis jusqu'au bout le fil en dessous de ton intervention ci-dessus, tu verras que les constatations de Verso sont loin d'être débiles, et qu'il a pris les précautions oratoires nécessaires sur la présentation de ses demi-conclusions (présentées comme telle par lui même donc).
Citation de: Tonton Bruno le Novembre 26, 2010, 08:58:59
Si je comprends bien, la mesure globale tient compte du vignetage, très important aux grandes ouvertures, et qui couvre presque tout le champ, avec un dégradé très progressif.
Il me semble en effet que le phénomène dont on parle depuis le début est celui du vignetage, tout simplement accentué en numérique par la nature physique du capteur (puits des photosites tous parallèles) et et la présence des microlentilles.
Si je comprends bien la mesure de DXO, quand DXO annonce une perte de -0,4 IL pour le 50mm à f/1,4 sur le D3, ce serait à comparer à une perte de 0,3 IL sur un banc optique pur, en l'absence de capteur ou même de film.
En revanche, la perte de 0,7 IL pour le 50mm à f/1,2 sur le 5D MKII serait à comparer à une perte théorique beaucoup moindre sur banc optique pur, je dirais au pif -0,4 IL seulement ?
Merci de me dire si c'est comme cela qu'il faut comprendre les choses.
Je pose la question autrement:
la mesure de la courbe du bas (qui seule représenterais le phénomène qui nous préoccupe ici) est-elle une moyenne sur tout le champ, ou une mesure plus ou moins ponctuelle au centre du champ ?
Citation de: Fanzizou le Novembre 26, 2010, 10:25:56
Je pose la question autrement:
la mesure de la courbe du bas (qui seule représenterais le phénomène qui nous préoccupe ici) est-elle une moyenne sur tout le champ, ou une mesure plus ou moins ponctuelle au centre du champ ?
DxO ne décrivant pas ses conditions d'essais, on a du mal à imaginer ce que représentent exactement leur résultats, comme le montrent les questions que tu te poses.
D'autre part, j'ai relu l'article de PM ce midi, et j'ai du mal à saisir le sens exact de certains passages, comme celui-ci (P133) :
"Par exemple, le Canon 85mm f/1.2 monté sur un EOS-1D Mark II, un 1Ds Mark II ou un 5D affiche une perte de 0,3 IL. La valeur photométrique est mesurée à f/1.4 au lieu des f/1.2 théoriques*, une valeur qui doit être très proche de ce que délivre l'argentique. Le capteur ne semble pas provoquer de perte notoire."D'autre part, je lis sur les tableaux DxO "
DeltaEV at f/1.2" = 0,4 IL pour le 5D...
http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues
j'avoue avoir un peu de mal à y retrouver mes petits !
*soit une différence de 0,5 IL...
Citation de: Fanzizou le Novembre 26, 2010, 10:25:56
Je pose la question autrement:
la mesure de la courbe du bas (qui seule représenterais le phénomène qui nous préoccupe ici) est-elle une moyenne sur tout le champ, ou une mesure plus ou moins ponctuelle au centre du champ ?
Très bon exemple que de prendre le Canon 50D en effet, et on va rester à f/1.4.
La courbe du bas :
http://www.dxomark.com/itext/insights_tstop/Tstop3.jpg
C'est la mesure de la correction du boitier (la tricherie d'ISO) en fonction du F-stop, il n'y a pas de notion de champ dans cette mesure (le gain appliqué l'est sur toute l'image).
DxO trouve que le 50D présente une tricherie de gain de +
0.3 EV à f/1.4. C'est sensé compenser la perte du capteur du 50D quand le boitier reconnait qu'on lui colle un objo ouvert à f/1.4.
Voyons maintenant le tableau du haut :
http://www.dxomark.com/itext/insights_tstop/Tstop1.jpg
On nous dit que le Canon 50D a un ΔEV de –
0.63 EV par rapport à son F-stop pour un objo ouvrant à un 1.4.
On voit donc dors et déjà que la tricherie de gain et le chiffre de perte ΔEV sont sensiblement différents.
La seule explication est que ce chiffre de ΔEV n'inclue pas seulement la perte due au capteur, mais aussi celle de l'objectif. L'article ne le précise pas.
Voyons donc les données DxO correspondant aux tests de transmission des objos 1.4 sur 50D pour vérifier cette piste.
Sur l'onglet Transmission de cette page :
http://www.dxomark.com/index.php/en/Lens-with-Camera/All-tested-lenses/Canon/EF50-mm-f-1.4-USM/(camera)/272/(cameraname)/CANON-EOS-50D
on y lit que l'ensemble Canon EF 50mm f/1.4 USM sur Canon EOS 50D perd
0.7 EV. Idem pour un 1.4 Sigma.
Or 0.7 est l'arrondi au dixième d'EV supérieur de 0.63. Autrement dit je pense que c'est le même chiffre que le ΔEV.
Et le technicien de DxO nous dit que ça inclut les pertes de l'objo et du capteur, au centre de l'image.
Tout est cohérent.
Conclusion, seule la courbe du bas est exploitable pour connaitre exactement la tricherie de tel ou tel boitier mesurée par DxO, et il n'y a ni le 5Dmk2 ni le D700 pour le moment...
http://www.dxomark.com/itext/insights_tstop/Tstop3.jpg
Cdlt,
GBo
Citation de: Verso92 le Novembre 26, 2010, 13:11:02
DxO ne décrivant pas ses conditions d'essais, on a du mal à imaginer ce que représentent exactement leur résultats, comme le montrent les questions que tu te poses.
D'autre part, j'ai relu l'article de PM ce midi, et j'ai du mal à saisir le sens exact de certains passages, comme celui-ci (P133) :
"Par exemple, le Canon 85mm f/1.2 monté sur un EOS-1D Mark II, un 1Ds Mark II ou un 5D affiche une perte de 0,3 IL. La valeur photométrique est mesurée à f/1.4 au lieu des f/1.2 théoriques*, une valeur qui doit être très proche de ce que délivre l'argentique. Le capteur ne semble pas provoquer de perte notoire."
D'autre part, je lis sur les tableaux DxO "DeltaEV at f/1.2" = 0,4 IL pour le 5D...
http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues
j'avoue avoir un peu de mal à y retrouver mes petits !
*soit une différence de 0,5 IL...
Déjà, écrire "
La valeur photométrique est mesurée à f/1.4 au lieu des f/1.2 théoriques" est un non-sens.
La bonne déclaration eût été : "
L'ouverture photométrique est mesurée à T/1,4 quand l'ouverture relative est de f/1,2".
En faisant abstraction du capteur, le rapport entre les deux est le facteur de transmission de l'objectif. Sans même parler de l'arrondi "marketing" de l'ouverture relative.
Citation de: Mistral75 le Novembre 26, 2010, 13:41:59
Déjà, écrire "La valeur photométrique est mesurée à f/1.4 au lieu des f/1.2 théoriques" est un non-sens.
La bonne déclaration eût été : "L'ouverture photométrique est mesurée à T/1,4 quand l'ouverture relative est de f/1,2".
En faisant abstraction du capteur, le rapport entre les deux est le facteur de transmission de l'objectif. Sans même parler de l'arrondi "marketing" de l'ouverture relative.
Je suis bien d'accord avec ça : pour moi, ce chiffre T est lié aux pertes de lumières dans l'objectif, et n'a rien à voir avec le capteur. Par contre, il me semble qu'il est aussi utilisé par DxO pour caractériser l'ensemble de la chaine, rendement du capteur compris... cela rend encore plus compliqué la compréhension des tableaux de mesures !
Bonjour,
Citation de: Fanzizou le Novembre 26, 2010, 09:41:19
Est-ce à dire que si on supprime le filtre passe-bas (avec les autres sousis que ça peut créer), on résoud le problème ?
Il faudrait alors tenter une manip avec un S5 normal et un S5 dont on a enlever le filtre passe-bas (puisqu'il parait que certains l'ont fait).
Non, ce n'était qu'une piste de réflexion... Je cherche simplement, parmi les facteurs pouvant avoir une influence sur la quantité de lumière qui parvient jusqu'à l'entrée d'un photosite, quels sont ceux dont l'importance varie avec l'incidence de la lumière.
Pour ce qui concerne le filtre passe-bas, hormis les problèmes de transmittance et de réflexion que je laisse de côté, deux choses varient avec l'incidence :
- la défocalisation des faisceaux,
- la séparation des quatre images.
Ces deux points sont directement dépendants de l'épaisseur du filtre (dans le premier cas) ou des lames constituant le filtre (dans le second cas), donc de l'incidence.
La défocalisation des faisceaux n'influence que la qualité de l'image (forme et taille du point image) : le faisceau de lumière arrivant sur un photosite converge d'autant plus loin que l'épaisseur du filtre est importante. Mais la quantité de lumière n'est pas modifiée.
Le rôle du filtre passe-bas consiste à séparer l'image en quatre images d'égale intensité lumineuse décalées dans l'espace (les centres respectifs des quatre images formant un carré). Pour que le système fonctionne en bon accord avec la matrice de Bayer, le décalage des images doit être égal au pas des photosites (pixel pitch). On peut schématiser en disant que chaque rayon est ainsi dupliqué en quatre rayons éclairant chacun un photosite différent ; les quatre photosites concernés sont contigus et forment un carré. Le déphasage des images est assuré par des lames biréfringentes, l'épaisseur de ces lames déterminant la distance séparant les images.
L'idée était donc de dire : lorsque l'incidence augmente, cette distance augmentant également, les rayons concernés ne sont plus vraiment en phase avec le pas des photosites. Le calcul donne une augmentation de près de 10% du décalage pour 25° d'incidence (10 microns en sortie de filtre pour un pixel pitch de 9 microns). Mais je ne suis pas assez calé pour en tirer la moindre conclusion sur un éventuel effet sur l'intensité lumineuse transmise puis effectivement captée. Et je n'ai rien trouvé qui permette d'aller dans un sens ou dans l'autre.
Amicalement,
Pierre T.
OK PierreT, ce n'était donc qu'une hypothèse suite à réflexion.
Alain, je ne pense pas que tu aies raison.
A mon avis, l'interprétation juste au-dessus (Gbo, Fanzizou...) est la bonne : les pertes indiquées par les deux graphiques à 1,4 et 1,2 cumulent l'écart entre f et T d'une part et la perte de rendement liée aux microlentilles aux grandes ouvertures de l'autre.
C'est en effet corroboré par les différentes mesures lisibles ici et là chez DxO.
Contrairement à ton hypothèse, qui ne vaut que pour les tests de piqué effectués en effet à courte distance avec les grands angulaires en raison même de la taille limitée de la mire (c'est un problème récurrent lorsqu'on cherche à évaluer sérieusement ses propres optiques), la mesure d'éclairement sur le capteur est évidemment effectuée objectif réglé à l'infini et à l'aide d'une source diffuse, car proche et donc très éloignée du plan de netteté. Pour mesurer le T stop, il faut évidemment être à l'infini, condition nécessaire pour que le f stop géométrique ait un sens.
Donc, sous réserve de la correction de définition de Mistral, Gbo a évidemment mis le doigt sur un truc. La perte SUPPLEMENTAIRE lorsqu'on approche de PO se déduit du dernier tableau, celui qui quantifie le boost ISO (allez, soyons sports, le boost de gain électronique). Dit autrement, la perte de rendement supplémentaire induite par chaque capteur par rapport au T, lorsqu'on se rapproche de PO.
Le T, lui, il ne varie pas quelque soit l'ouverture : il est seulement dû aux pertes dans le bloc optique.
Citation de: alain2x le Novembre 26, 2010, 18:28:43
C'est le "évidemment" qui me parait faux.
Et comme c'est l'hypothèse de départ de toute cette affaire est la mesure de DXO, or celle-ci ne se fait que sur leur mire normalisée et étalonnée.
Quel rapport avec la transmission d'un objectif ?
Les objectifs à grande ouverture ont toujours été des champions de vignettage, c'est bien connu, mais certains dans ce fil sautent le pas en prétendant que les constructeurs d'optiques sont des escrocs.
Si c'était le cas, ce n'est pas à coup de DXO qu'on le saurait, et personne ne se pose la question du ridicule de cette affirmation, prenant pour argent comptant une mesure sur mire.
Les mesures de DxO ne sont pas très claires, c'est un fait : on ne sait pas précisément ce qu'ils mesurent, ni comment.
Par contre, je ne pense pas qu'il faille tenir compte du vignetage (sauf pour la perte d'éclairement dans les angles, bien sûr).
En ce qui concerne mes modestes essais, je n'ai fait qu'analyser la partie centrale de l'image (et j'ai opéré en mesure spot, pour plus de sécurité). Il est incontestable que le centre des photos réalisées avec l'objectif déboité (boitier ne connaissant pas l'ouverture, donc) sont légèrement plus sombres que celles réalisées dans des conditions "normales" (objectif emboité), ce qui semble montrer qu'il se passe effectivement quelque chose (augmentation du gain de la chaine d'amplification devant le CAN, très certainement), même si c'est léger.
Il serait intéressant de refaire le même type d'essais avec un f/1.2 50 Ais, par exemple, pour voir si le fossé se creuse, ce qui devrait se produire en toute logique (toujours en n'analysant que le centre de l'image, bien sûr)...
Citation de: alain2x le Novembre 26, 2010, 19:56:10
On peut aussi placer l'objectif sur un tube allonge, là on est certain du résultat ;)
Oui... mais dans ce cas c'est l'ouverture géométrique qui change (f), et c'était déjà valable en argentique, comme tu le sais.
Je suis personnellement très gêné par le mélange des termes effectué par DxO, entre ouverture photométrique T qui prend en compte le rendement du capteur, les mélanges entre sensibilité et gain, etc... tout cela ne facilite pas la lecture de leurs mesures ni leur compréhension.
Citation de: alain2x le Novembre 26, 2010, 20:19:19
Le tout est de ne pas faire de conclusions sur des tests faits en chambre, sur des mires placées à 1m50, et d'en tirer des belles lois bien définitives sur les filouteries des constructeurs.
L'avantage de mon halogène est qu'il délivre une luminosité à peu près constante (je te rappelle que j'ai fait des jeux de quatre mesures pour chaque configuration 1 et A, et que la pipette donnait un point d'écart entre chaque photo d'une même série : on a déjà vu des écart-types plus violents...).
Sinon, en ce qui me concerne, je n'ai aucunement la prétention d'en déduire de quelconques lois, sois rassuré. Juste de confirmer -ou pas- un écart entre deux types de configurations...
"Entre deux averses de neige, ça devrait se trouver".
Pour les mesures sur le ciel gris, attention de ne pas faire une mesure spot sur un corbeau ou un flocon de neige, je pense que pour partir de mesures fiables il faut se mettre en mesure centrée pour ne pas avoir de vignetage qui pourrait influencer la matricielle, et on verra si il y a plus de perte de lumière à faible distance qu'à l'infini...ou pire !
Cependant si l'on regarde des catalogues d'objectifs cinema des plus grandes marques (Angénieux par exemple) on voit bien qu'ils publient le T/ en plus du f/...tout le monde devrait publier çà !
En cinéma, on règle et on équilibre les éclairages à la cellule à main. Et quand le directeur de la photo annonce "5.6" au cadreur, celui-ci affiche T=5.6 sur sa bague de diaph parce que, sauf cas particulier, c'est la seule valeur d'ouverture qui ait un sens pratique (elle permet de raccorder deux scènes prises dans les mêmes conditions d'éclairage, mais avec deux objectifs différents).
En photo, la cellule est derrière l'objectif de prise de vue, et l'ouverture photométrique ne revêt pas du tout la même importance pratique. De nombreux photographes ne savent même pas que cela existe et ne s'en portent pas plus mal. D'une certaine manière, je comprends donc les fabricants qui ne s'embêtent plus à publier ce type de données... Ils donnent l'ouverture géométrique parce que, comme la focale, c'est une caractéristique fondamentale de l'objectif, et pour ce qui est de la photométrie, les personnes avisées savent très bien à quoi s'en tenir, et quelle importance lui donner...
Citation de: PierreT le Novembre 26, 2010, 22:40:13
De nombreux photographes ne savent même pas que cela existe et ne s'en portent pas plus mal. D'une certaine manière, je comprends donc les fabricants qui ne s'embêtent plus à publier ce type de données... Ils donnent l'ouverture géométrique parce que, comme la focale, c'est une caractéristique fondamentale de l'objectif, et pour ce qui est de la photométrie, les personnes avisées savent très bien à quoi s'en tenir, et quelle importance lui donner...
Le bon sens même...
Citation de: PierreT le Novembre 26, 2010, 22:40:13
D'une certaine manière, je comprends donc les fabricants qui ne s'embêtent plus à publier ce type de données... Ils donnent l'ouverture géométrique parce que, comme la focale, c'est une caractéristique fondamentale de l'objectif, et pour ce qui est de la photométrie, les personnes avisées savent très bien à quoi s'en tenir, et quelle importance lui donner...
Surtout nettement plus flatteur que la T. :P
Bon exemple avec l'Angénieux 24-290 couverture cinema 35 mm, compatible avec l'APS diagonale image de 30 mm (monture Nikon sur demande): f/2,5 = T2,8
Le 17-80, plus pratique sur un D7000 (l'objo ne pèse que 5 kg contre 11 pour le superzoom) est f/2 = T2,2
Citation de: alain2x le Novembre 26, 2010, 17:47:30
Continuez, les gars, je me marre de plus en plus, depuis le début de ce fil à dormir debout :)
Vous êtes en train de bâtir une montagne de théories, sans aucun rapport avec la réalité optique.
Continuez, ce fil va faire figure d'anthologie du canular de classe internationale.
Essayez une seconde de réfléchir sur la source de cet article de CI ou de LL : la mesure DXO.
Demandez-vous comment est faite cette mesure, et surtout à quelle distance.
Eventuellement, refaites une mesure à l'infini, et on ne reparle.
Comment comment, voilà qu'on ne pourrait pas tirer de conclusion d'un cas particulier. :D
Restons sérieux, car on n'a pas encore regardé l'élévation de température des photosites qui est bien plus conséquentes à 1.4 qu'à 22.
Moi qui avait proposer de globaliser l'analyse, que fus je niais et prétentieux.
Quand je pense à tout ce qu'il reste à étudier, notamment l'effet électrostatique sur le filtre passe bas qui se fait bombarder à coup de photons et l'effet capacitif du couplage capteur filtre PB.
On en a encore pour 200 pages mini alors qu'à l'autre bout une insignifiante ligne de code corrige cela en 0.42µs ;D
C'est que les ingénieurs de Nikon se sont farcis les fameuses fonctions de transfert.
Mais elles servent à quoi alors ? :P
:'( :'( :'(
;)
Courage, le jopur va bientôt se lever sur un beau ciel gris à 18% ! ;)
Citation de: Verso92 le Novembre 26, 2010, 20:23:21
L'avantage de mon halogène est qu'il délivre une luminosité à peu près constante (je te rappelle que j'ai fait des jeux de quatre mesures pour chaque configuration 1 et A, et que la pipette donnait un point d'écart entre chaque photo d'une même série : on a déjà vu des écart-types plus violents...).
[...]
Exact, il suffit d'avoir une source constante, un halogène sur secteur EDF est suffisant, faut juste éviter les fluo-compactes et autre s.....ies. Pourquoi pas un ciel gris mais c'est moins stable dans le temps à mon humble avis.
De toutes façons le fait de répéter les mesures avec entrelacement comme ceci : 1-A-1-A-1-A... au cours du temps permettra de détecter un souci de fluctuation. Il n'y a pas eu chez Verso.
Je pense dans ces conditions que les moyens du bord sont largement suffisants pour voir si son propre boitier triche ou pas avec le gain (ISO boosté aux plus grandes ouvertures), et l'ordre de grandeur de la tricherie.
Verso a le bonheur d'avoir un D700 dont on a vu qu'il trichait très peu sur les ISO à f/1.4, s'il triche (on n'en est même pas sûr).
J'en appelle donc à candidature pour faire avancer cette filière.Si vous avez un objectif Canon ouvrant à F1.4 ou à F1.2 et un boitier Canon numérique comme le 5Dmk2 ou encore mieux, un APS comme le 50D ou 7D, ce serait parfait.
Idem pour Nikon, un boitier APS bien fourni en pixels si ça existe.
Il s'agit de faire ce test très simple, j'en rappelle la marche à suivre :
http://www.chassimages.com/forum/index.php/topic,104882.msg1913012.html#msg1913012
Donc, s'il vous plait, il faudra :
- quatre images "1" à PO
en mode M avec l'objo normalement emboité
- quatre images "A", toujours à PO et en mode M (même vitesse que précédemment) mais avec l'objo partiellement déboité
- publier les 8 images
La vitesse importe peu pourvu que ce soit la même (la choisir pour éviter le surex ou trop de sous-ex bien sûr).
Le but de la manip est de savoir si son boitier triche ou pas à 1.4 (ou à 1.2 pour les plus fortunés) de façon mesurableJe rajoute une étape ultime qui servira juste à quantifier grosso modo l'écart en IL de façon empirique (et dichotomique) : à la fin de la manip prendre une image sans connexion électrique objo-boitier que l'on appellera A', avec un ISO volontairement boosté de 1/3 d'IL (si la série 1-A-1-A... a été prise à ISO100, il suffira de se mettre à ISO125 pour cette dernière étape A').
Et enfin, une image A'' à ISO 160. Je ne pense pas qu'une A''' à ISO200 sera nécessaire...
L'ordre de grandeur de la tricherie devrait être non seulement mesurable mais aussi parfaitement visible sur les boitiers les plus impactés, puisque si on prend pour argent comptant l'étude faite par DxO*, la tricherie évoquée sur un Canon EOS 7D par exemple compenserait à f/1.4 une perte due au capteur d'environ
1/3 d'IL (partie en rouge sur mon graphique) :
(http://gbotet.perso.sfr.fr/phot10/7D_1.4.gif)
Si DxO a raison sur leur interprétation de leur propre mesures,
ça doit se voir par nos propres moyen par comparaison directe avec les images obtenues sans la tricherie (c'est à dire celles avec l'objo partiellement déboité).
A vos trépieds messieurs/mesdames !
cdlt,
GBo
(*) http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues
Il n'est pas question que je déboîte un 35 AFS 1.4 du D7000...mais je viens de faire le test ciel gris, et une grosse perte de lumière courte distance me semble une fausse piste, même si la correction est moindre à l'infini, mais on est dans la difficulté pour avoir une répétabilité. En gros l'appareil ne corrige pas sur le gris du ciel lorsqu'il n'y a que du ciel dans le champ, et fait une légère correction (il affiche au 1/3 de diaph donc soit il affiche 1/3 de correction...soit rien du tout, si l'on fait entrer un peu de branche noire dans le champ de mesure).
Ensuite je suis passé aux mesures et là j'en perdrai complétement mon latin si je continue cet essai:
1/2000 f 1.4 centre de l'image RVB 150,150,152 (çà c'est pour ceux qui croient à la dominante saumon, private joke)
1/1000 f/2 136,135,140
1/2000 f/2,8 140, 141, 145
Dans tous les cas il y a un léger "point chaud" plus lumineux à f/1,4 au centre et par contre on voit déjà un poil de vignetage dès la zone des tiers.
En mode manuel même écart avec les mêmes vitesses assignées, le centre à f/1,4 est un peu plus lumineux, donc cela laisse supposer "quelque chose"
Ensuite j'ai doublé l'essai avec un 50 1.4 AIS, mais en trichant sur les caractéristiques pour l'empêcher le cas échéant de truffer les ISO...donc j'ai déclaré mon 50 1.4 Ais comme un 55 mm 2.8 et j'ai travaillé en manuel et en auto correction d'expo. Le score: cette fois ci j'ai bien une perte d'un tiers d'IL même si dans certains cas l'appareil ne corrige pas la vitesse...mais alors le gris est plus sombre (c'est le genre de chose qui se corrige en moins d'une seconde en post traitement, mais bon, les chiffres sont les chiffres !)
Il est donc possible qu'il y ait une légère remontée du gain avec l'AFS et rien du tout avec l'AIS...ou alors que le T de l'Ais soit un peu moins glorieux que celui de l'AFS...nouveau verres et nanocrystal oblige !
En tout cas s'il y avait "triche" elle ne devrait pas dépasser 1/4 d'IL à 1/3 d'IL sans doute...je n'ai pas de D60 sous la main pour regarder l'écart de 0,8 IL environ indiqué sur le tableau publié par DxO...ni de Canon 7D pour regarder l'écart de 0,9 IL annoncé ! Mais s'il y a vraiment 0,3 IL d'écart sur un D7000 et 0,9 sur un 7D, c'est inquiétant...
Citation de: JMS le Novembre 27, 2010, 10:22:56
...ni de Canon 7D pour regarder l'écart de 0,9 IL annoncé ! Mais s'il y a vraiment 0,3 IL d'écart sur un D7000 et 0,9 sur un 7D, c'est inquiétant...
JMS, si on parle bien de ce qui se passe à f/1.4, la correction de gain sur un 7D à f/1.4 serait seulement de 0.37 IL selon DxO :
(http://www.dxomark.com/itext/insights_tstop/Tstop3.jpg)
Toujours dans la logique de ce que dit DxO, cette correction par le gain compense la perte due au capteur à f/1.4, pas celles dues à l'ensemble optique+capteur.
La perte due au capteur d'un 7D est donc de l'ordre de 1/3 d'IL à f/1.4.
Quand on sait que c'est l'appareil récent qui serait le plus affecté vis à vis de ce problème de "vol de diaphragme", ça reste très intéressant à savoir mais ça relativise quand même l'ampleur du scandale, en tout cas à f/1.4.
cdlt,
GBo
Il faut quand même se demander si au final un 1.4 n'est pas plus lumineux qu'un 1.2 sur le 7D, avec ces graphs !
En tout cas sur le Nikon possédant le plus petit pixel pitch (D7000) je ne vois pas de perte//tricherie supérieure à 1/3 d'IL...c'est à dire ce que l'on retient en général comme seuil de tolérance "correct" pour n'importe quelle mesure de lumière et une précision qui doit être supérieure au risque d'écart d'ouverture de diaph en rafale quand on est en ouverture moyenne.
En tout état de cause il faut aller plus loin dans les essais pour savoir pourquoi il y a de plus gros écarts sur certains couples objo/boîtier, aux Canonistes de jouer ! ;)
Citation de: JMS le Novembre 27, 2010, 11:22:15
Il faut quand même se demander si au final un 1.4 n'est pas plus lumineux qu'un 1.2 sur le 7D, avec ces graphs !
[...]
Les graphs de DxO suffisent en effet pour répondre à cette excellente question (en supposant les mesures DxO correctement interprétées et reproductibles par d'autres labos / d'autres moyens) :
- Pertes objo+capteur du 1.4 sur 7D : 0.66 IL
Ce chiffre doit se comprendre par rapport à un cas imaginaire d'un objo f/1.4 100% transmissif sur un capteur idéal
- Pertes objo+capteur du 1.2 sur 7D : 0.94 IL
Ce chiffre doit se comprendre par rapport à un cas imaginaire d'un objo f/1.2 100% transmissif sur un capteur idéal
Le 1.2 idéal étant 0.5 IL plus lumineux que le 1.4 idéal, en passant du 1.4 au 1.2 on aura un bilan de :
0.50 + 0.66 - 0.94 =
+0.22 ILEn conclusion sur un 7D, un des pires boitiers en vente de ce point de vue, en passant du 1.4 au 1.2 on va gagner un poil moins que la moitié du gain escompté en lisant les F-stop gravés,
mais un gain quand même, en tout cas au centre de l'image, selon un simple calcul sur les chiffres de DxO.
Par contre je rappelle que le gain en flou (et en étroitesse de PdC) sera entièrement celui attendu* (jusqu'à preuve expérimentale du contraire), et on a des mesures amateur en début de cette filière (sur 3 boitiers quand même) qui permettent de l'espérer.
(*) à supposer qu'il n'y a eu pas de gonflement "marketing" sur le chiffre des ouvertures géométriques gravées
cdlt,
GBo
Citation de: JMS le Novembre 27, 2010, 10:22:56
Il n'est pas question que je déboîte un 35 AFS 1.4 du D7000...
Petit joueur !
;-)
Et la cellule ?
S'il y a bidouille, elle est en premiere ligne
(et son principe n'a pas varie depuis l'epoque argentique - a ma connaissance)
Quelqu'un a teste sa reponse (mode M, toutes conditions identiques)
a grande ouverture
objectif -mode normal/-mode "déboîté"
Citation de: SimCI le Novembre 27, 2010, 13:13:48
Et la cellule ?
S'il y a bidouille, elle est en premiere ligne
(et son principe n'a pas varie depuis l'epoque argentique - a ma connaissance)
La cellule n'a rien à voir là-dedans...
Par principe, elle est linéaire sur la gamme d'utilisation.
Citation de: SimCI le Novembre 27, 2010, 13:13:48
Quelqu'un a teste sa reponse (mode M, toutes conditions identiques)
a grande ouverture
objectif -mode normal/-mode "déboîté"
Le test n'est malheureusement pas possible... en mode "normal" (emboité), le boitier joue avec le gain de la chaine d'amplification du signal, comme montré plus haut (impossible de dissocier le signal utile délivré par la cellule de son interprétation finale, en fin de chaine, affichée par le boitier).
En mode "déboité", il faut disposer d'un boitier vierge de toute programmation, ce qui n'est pas le cas de mon D700 : il y a forcément un paramétrage qui traine (celui d'un f/2 35 dans le cas de mes essais), dont on ne connait pas l'incidence*...
*se reporter à mes essais où j'ai suivi, pour une photo (la "B"), le réglage préconisé par la cellule pour faire la photo (f/1.4~1/40s). Le résultat est aberrant (trop clair), certainement faussé par le biais introduit par la programmation "objectif sans cpu"...
http://www.chassimages.com/forum/index.php/topic,104882.msg1913263.html#msg1913263
Juste pour le plaisir :
D'apres mes lectures
- le RAW est directement issu du capteur
- il n'y a pas d' "amplification" du signal en hardware (f(ISO)) possible
- la valeur "ISO" incluse dans le RAW sert a ajuster la valeur des couleurs au decodage
Je suis preneur pour toute info supplementaire !
Quelqu'un a fait des tests en RAW (+deRawtiseur externe pour eviter les bidouilles constructeur) ?
Citation de: SimCI le Novembre 27, 2010, 13:56:12
Juste pour le plaisir :
D'apres mes lectures
- le RAW est directement issu du capteur
- il n'y a pas d' "amplification" du signal en hardware (f(ISO)) possible
- la valeur "ISO" incluse dans le RAW sert a ajuster la valeur des couleurs au decodage
Je suis preneur pour toute info supplementaire !
Quelqu'un a fait des tests en RAW (+deRawtiseur externe pour eviter les bidouilles constructeur) ?
Je suis justement en train de faire cela.
Citation de: SimCI le Novembre 27, 2010, 13:56:12
Juste pour le plaisir :
D'apres mes lectures
- le RAW est directement issu du capteur
- il n'y a pas d' "amplification" du signal en hardware (f(ISO)) possible
- la valeur "ISO" incluse dans le RAW sert a ajuster la valeur des couleurs au decodage
Je suis preneur pour toute info supplementaire !
Quelqu'un a fait des tests en RAW (+deRawtiseur externe pour eviter les bidouilles constructeur) ?
Pas compris où tu voulais en venir...
La "bidouille" constructeur, en l'occurrence, va forcer le 1/60s, par exemple, là où un appareil sans bidouille aurait exposé au 1/50s (si bidouille gain = 1/3 d'IL). On n'aurait donc pas obtenu le même fichier RAW à la base...
(sinon, dire que le fichier RAW est le reflet exact des informations "capteur" est un raccourci pratique, certes, mais pas vraiment juste...)
Je voudrais voir la partie centrale de deux RAWs
exposes en manuel, pleine ouverture, boitier renseigne/pas renseigne
et s'il y difference, savoir pourquoi (essayer du moins).
Le jpeg traite en local m'interesse moyennement
(et je pense que c'est le cas pour la majorite des lecteurs du fil - mais je peux me tromper..)
Citation de: SimCI le Novembre 27, 2010, 14:38:11
Je voudrais voir la partie centrale de deux RAWs
exposes en manuel, pleine ouverture, boitier renseigne/pas renseigne
et s'il y difference, savoir pourquoi (essayer du moins).
Le jpeg traite en local m'interesse moyennement
(et je pense que c'est le cas pour la majorite des lecteurs du fil - mais je peux me tromper..)
Il n'y a pas de différence significative entre le RAW et le Jpeg*...
(sauf si tu vas chercher les infos dans le RAW
avant traitement)
*ou alors, merci d'indiquer lesquelles précisément et leur influence éventuelle dans la manip...
La manip va être dure à faire avec un S5.
J'ai essayé une manip simple pour déjà cadrer le truc sans rigueur particulière, visée sur un mur blanc éclairé par une tungstène classique.
S5 + AFD f1.4
en spot j'obtiens 1/2000s à 2000iso et f1.4, je suis en mode M bien sur.
le problème, c'est que si je déboite l'objectif pour supprimer le contact électrique, ça déclenche, j'obtiens une image noire....
Par ailleurs, des écarts sont nettement visibles simplement sur l'écran arrière du S5 entre les 5 photos faites successivment objectif normalement monté....
J'ai donc renoncé, et je crois que je vais aller faire de vraies photos de mes enfants ;D
Si j'ai bien compris l'objet de ce fil,
il s'agit de savoir si le boitier
"masque" une perte de sensibilite a grande ouverture
(la perte elle-meme etant un autre probleme).
Le but du jeu est d'eliminer des intervenants dans le processus.
Il est facile et indetectable de booster le niveau (ISO) au passage
capteur->RAW->jpeg dans le boitier.
L'utilisation du RAW evite un etage d'intervention du boitier.
PS : Je n'ai pas d'opinion sur ce probleme.
Citation de: SimCI le Novembre 27, 2010, 15:05:15
Si j'ai bien compris l'objet de ce fil,
il s'agit de savoir si le boitier
"masque" une perte de sensibilite a grande ouverture
(la perte elle-meme etant un autre probleme).
Le but du jeu est d'eliminer des intervenants dans le processus.
Il est facile et indetectable de booster le niveau (ISO) au passage
capteur->RAW->jpeg dans le boitier.
L'utilisation du RAW evite un etage d'intervention du boitier.
PS : Je n'ai pas d'opinion sur ce probleme.
Oui... sauf que l'intervention se situe au tout début du processus, en l'occurrence au niveau scène photographiée --> capteur ou, à la limite, au niveau capteur --> RAW, mais pas après...
(pour rappel, tout se passe, au bout du compte, comme si on avait boosté la sensibilité, même si celle-ci reste constante puisque c'est le gain de la chaine qui intervient)
Citation de: Fanzizou le Novembre 27, 2010, 14:46:01
(...)
Par ailleurs, des écarts sont nettement visibles simplement sur l'écran arrière du S5 entre les 5 photos faites successivment objectif normalement monté....
(...)
Avec un éclairage tungstène c'est normal en courant alternatif : l'intensité du courant varie de 0 à son maximum 100 fois par seconde. Notre œil ne voit pas la variation d'éclairement qui s'ensuit, un appareil réglé sur un temps de pose de 1/2.000e de seconde si.
Bonne remarque Mistral (même si le filament n'a pas eu le temps de faiblir considérablement j'imagine...), c'est une explication possible ???
Citation de: SimCI le Novembre 27, 2010, 15:05:15
Le but du jeu est d'eliminer des intervenants dans le processus.
Oui mais ça n'a pas marché, Verso92 est toujours là ! ;D
Citation de: GBo le Novembre 27, 2010, 15:17:53
Oui mais ça n'a pas marché, Verso92 est toujours là ! ;D
Pas pour longtemps : j'ai des courses à faire !
;-)
Citation de: Mistral75 le Novembre 27, 2010, 15:11:18
Avec un éclairage tungstène c'est normal en courant alternatif : l'intensité du courant varie de 0 à son maximum 100 fois par seconde. Notre œil ne voit pas la variation d'éclairement qui s'ensuit, un appareil réglé sur un temps de pose de 1/2.000e de seconde si.
ok, bien compris.
Mais de toutes les manières, objectif deboité j'obtiens une image noire (ce que je ne m'explique pas d'ailleurs...).
Je me mets a la place du boitier qui voudrait masquer
une perte de sensibilite a grande ouverture:
1) Objectif grande ouverture connecte
Ouverture mecanique max
Mode manuel - vitesse forcee
Je ne peux pas modifier la vitesse (on me fait confiance)
Je ne peux pas modifier l'ouverture (mecanique)
Je ne peux pas modifier les caracteristiques electroniques du capteur
(ou alors c'est une info !)
Je recois donc un RAW direct du capteur (en interne)
Sortie jpeg : je peux traiter le RAW interne avec une valeur ISO superieure sans le dire
Sortie RAW : aucune idee -le RAW comprend la valeur ISO nominale, il faudrait que je
rajoute une valeur d'ISO differente et proprietaire pour mon deRAWtiseur...
Ou alors je modifie le RAW interne apres l'avoir recu (ca demande du temps) et avant de le sortir...
2) Objectif grande ouverture deconnecte
Tout est force: ouverture, vitesse, ISO
Je ne connais pas l'ouverture (grande ou petite) et ne dois donc rien modifier.
Je sors tout en nominal...
C'est parce que le RAW est "directement" issu du capteur sans traitement qu'il est interessant.
SimCI, c'est un boost de gain électronique qui doit être appliqué en douce, donc avant la conversion analogique-numérique, et un boost qui est fonction de l'ouverture lue sur l'objo branché (à partir de f/2 et plus ouvert).
Le test par jpeg boitier est par conséquent tout aussi valable qu'un test RAW, au problème près de l'exploitation précise des mesures because les niveaux des gris sur le canal vert ne sont pas proportionnels au nombre de photons reçus.
Mais l'évaluation empirico-comico-dichotomique que je propose après le test "1" vs "A", à savoir provoquer (en mode déboité) une augmentation du paramètre ISO de +1/3 IL (A'), +2/3 IL (A''), voire +1 IL (A'''), permettra au moins de voir l'ordre de grandeur de la tricherie présente sur l'image "1" (par exemple une tricherie supérieure à 1/3 d'IL mais inférieure à 2/3 d'IL etc...).
Et en tout état de cause, si la tricherie ne se voit pas sur le jpeg boitier (mode emboité) par simple comparaison visuelle avec le jpeg sans tricherie (mode déboité) sur un appareil du genre 7D, c'est qu'il y a comme un souci dans ce qu'on nous raconte.
cdlt,
GBo
Citation de: GBo le Novembre 27, 2010, 08:56:53
[...]
L'ordre de grandeur de la tricherie devrait être non seulement mesurable mais aussi parfaitement visible sur les boitiers les plus impactés, puisque si on prend pour argent comptant l'étude faite par DxO*, la tricherie évoquée sur un Canon EOS 7D par exemple compenserait à f/1.4 une perte due au capteur d'environ 1/3 d'IL (partie en rouge sur mon graphique) :
(http://gbotet.perso.sfr.fr/phot10/7D_1.4.gif)
(*) http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues
Juste un rectificatif suite à un échange épistolaire que j'ai eu avec Patrick Moll (que je remercie au passage) sur alpha-numerique.fr: mon schéma ci-dessus est un peu faux puisque je ne me suis pas rendu compte que la part des pertes à attribuer à l'objectif (en bleu) étaient forcément limitées à 0.25 EV dans le cas f/1.4: la raison en est que la perte objo+capteur du EOS 5D (première génération) qui est le mieux placé des boitiers Canon totalise 0.25 EV selon DxO (toujours avec le même objo 1.4).
Donc même à supposer que le capteur du 5D n'a aucune perte du fait de son gros pitch, les pertes de l'objo 1.4 ne peuvent pas dépasser 0.25 EV (j'arrivais à 0.29 EV pour mon exemple sur 7D, je ne dépassais pas les bornes de beaucoup mais je préfère rectifier).
Il se peut aussi que les pertes dues au capteur du 5D ne soient pas nulles, ce qui fait que l'on a une inconnue dans la séparation exacte entre ce qui est de la faute de Jacques (optique) et ce qui est de la faute de Paul (capteur)...
En outre, il y a eu un petit manque de rigueur de ma part à considérer que les pertes du capteur sont forcément
entièrement compensées par le boost de gain du boitier. Il se peut que le boitier n'en corrige qu'une partie. J'avoue que je ne vois pas bien l'intérêt pour le constructeur de ne corriger que partiellement s'il a pris le parti de corriger, ou alors il aura basé le montant de la correction sur des résultats de mesures légèrement différents de ceux de DxO. Bref, en tout rigueur, séparons pour la suite le montant de la perte capteur et celui de la compensation par gain.
Voici mon bar graph actualisé de ces considérations, toujours basé sur les données DxO :
(http://gbotet.perso.sfr.fr/phot10/7D_1.4B.gif)
Cdlt,
GBo
GBo :
Donc ce qu'on cherche a demontrer c'est que le boitier
1) detecte l'ouverture
2) detecte la focale
3) si grande ouverture et courte focale (simple)
alors boost electronique hardware au niveau du capteur
avant creation du buffer RAW
J'ai bien compris ?
Je me pose la question de l'interet pratique de la manip
qui necessiterait un hardware specifique.
Les constructeurs y gagneraient-ils vraiment quelque chose a long terme ?
Aucune idee.
Citation de: SimCI le Novembre 27, 2010, 21:48:28
GBo :
Donc ce qu'on cherche a demontrer c'est que le boitier
1) detecte l'ouverture
2) detecte la focale
3) si grande ouverture et courte focale (simple)
alors boost electronique hardware au niveau du capteur
avant creation du buffer RAW
J'ai bien compris ?
Je me pose la question de l'interet pratique de la manip
qui necessiterait un hardware specifique.
Les constructeurs y gagneraient-ils vraiment quelque chose a long terme ?
Aucune idee.
Je pense que tu n'as pas du tout compris la manip, ni l'architecture d'un appareil numérique...
En gros, tu as :
Le capteur --> la chaine d'amplification --> le CAN --> la création du fichier RAW --> le traitement (éventuellement la sortie Jpeg).
La chaine d'amplification, par définition, a forcément un gain. On va prendre, par simplification, un gain x1 à la sensibilité nominale (200 ISO pour le D700). Pour 400 ISO, le gain sera de x2, pour 800 ISO, x4, etc.
Le boitier sait qu'il a devant lui un objectif dont l'ouverture est de f/1.4. L'ensemble ayant été caractérisé par les concepteurs, ils savent que le rendement du capteur baisse de 30% (par exemple) avec cette ouverture. Le gain de la chaine est donc ajusté à x1,3 dans ce cas, tout simplement. Pas besoin de hardware supplémentaire : juste un ajustement de la commande du gain, qui existe forcément par principe. Rien de plus simple, en fait.
D'où, je le répète, l'inutilité de considérer les aspects RAW ou Jpeg, qui n'ont absolument rien à voir la dedans : la compensation est effectuée en amont.
Si on déverrouille l'objectif, le boitier ne sait plus qu'il a devant lui une ouverture de f/1.4, et ne fait pas de compensation de gain, qui reste à x1 pour 200 ISO : la photo sera donc sous-exposée dans ce cas de 0,3 IL par rapport à la photo avec objectif "verrouillé" prise avec les mêmes paramètres de PdV...
Citation de: Verso92 le Novembre 28, 2010, 01:28:24
Je pense que tu n'as pas du tout compris la manip, ni l'architecture d'un appareil numérique...
En gros, tu as :
Le capteur --> la chaine d'amplification --> le CAN --> la création du fichier RAW --> le traitement (éventuellement la sortie Jpeg).
La chaine d'amplification, par définition, a forcément un gain. On va prendre, par simplification, un gain x1 à la sensibilité nominale (200 ISO pour le D700). Pour 400 ISO, le gain sera de x2, pour 800 ISO, x4, etc.
Le boitier sait qu'il a devant lui un objectif dont l'ouverture est de f/1.4. L'ensemble ayant été caractérisé par les concepteurs, ils savent que le rendement du capteur baisse de 30% (par exemple) avec cette ouverture. Le gain de la chaine est donc ajusté à x1,3 dans ce cas, tout simplement. Pas besoin de hardware supplémentaire : juste un ajustement de la commande du gain, qui existe forcément par principe. Rien de plus simple, en fait.
D'où, je le répète, l'inutilité de considérer les aspects RAW ou Jpeg, qui n'ont absolument rien à voir la dedans : la compensation est effectuée en amont.
Si on déverrouille l'objectif, le boitier ne sait plus qu'il a devant lui une ouverture de f/1.4, et ne fait pas de compensation de gain, qui reste à x1 pour 200 ISO : la photo sera donc sous-exposée dans ce cas de 0,3 IL par rapport à la photo avec objectif "verrouillé" prise avec les mêmes paramètres de PdV...
J'avais la même vision, mais les considérations de GBo à partir du 5D et de son graphique réactualisé me laissent perplexe avec sa zone non définie. Effectivement, ce max de 0.25IL pour le capteur sur le 5D, mets en l'air nos hypothèses. C'est Alain2X qui va rigoler :-)
M'enfin bon, vu le temps dehors, ça nous occupe ;D
Attendons que Pascal Miele nous remette à jopur son articcle le mois prochain !
Citation de: JMS le Novembre 27, 2010, 08:50:28
Courage, le jopur va bientôt se lever sur un beau ciel gris à 18% ! ;)
Citation de: Fanzizou le Novembre 28, 2010, 09:16:51
Attendons que Pascal Miele nous remette à jopur son articcle le mois prochain !
Le problème récurent, avec les discussions très techniques, c'est qu'il faut bien maitriser le sens de tous les termes. Qu'est ce que ce "jopur", exactement ?
;-)
C'est sur cette amplification "variable" dans la conversion A->N que je bute .
J'en etais reste a un gain fixe, suivi d'un decodage variable f(ISO).
Merci de m'indiquer des liens sur cette partie (technique) !
Citation de: Fanzizou le Novembre 28, 2010, 09:16:51
J'avais la même vision, mais les considérations de GBo à partir du 5D et de son graphique réactualisé me laissent perplexe avec sa zone non définie. Effectivement, ce max de 0.25IL pour le capteur sur le 5D, mets en l'air nos hypothèses. C'est Alain2X qui va rigoler :-)
[...]
Ca ne remet pas en cause tout ce qu'on a dit Fanzizou :
On constate que l'on a mesuré chez DxO :
- la perte en IL (ΔEV) de l'ensemble objo + capteur de pleins de boitiers à une ouverture de 1.4 et à une ouverture de 1.2
- la compensation d'une partie de cette perte, par le boost du gain d'amplification effectué en douce (boost de gain mesuré seulement sur 4 boitiers, dont le 7D)
Et j'avais oublié une info supplémentaire, d'où ma petite mise à jour :
- on a aussi un
maximisant de la perte due à l'objo 1.4 utilisé pour les tests des boitiers Canon, cette perte est au maximum de 0.25 EV, et on ne connait pas la valeur inférieure ou égale exacte, puisque DxO ne fait pas de mesure de transmittance d'objectif seuls, ils ne mesurent que l'ensemble objectif-boitier (et qu'ils appelent quand même Tstop par un abus de langage que l'on peut réprouver, puisque la définition correcte de Tstop ne concerne que l'objectif)
Pour lever cette inconnue,
quelqu'un connait-il le T-stop de l'objectif Canon EF 50mm f/1.4 USM, puisque c'est l'objectif qui semble avoir été utilisé par DxO pour établir tous les chiffres sur Canon qu'ils donnent dans le graphe « ΔEV at f/1.4 function of pixel pitch » dans l'article F-stop blues ?
Et aussi pour le Canon EF 50mm f/1.2L USM tant que vous y êtes SVP ?
Merci
GBo
Citation de: SimCI le Novembre 28, 2010, 10:44:44
C'est sur cette amplification "variable" dans la conversion A->N que je bute .
J'en etais reste a un gain fixe, suivi d'un decodage variable f(ISO).
Merci de m'indiquer des liens sur cette partie (technique) !
Je n'ai pas de lien sous la main à te proposer, malheureusement.
Pour rappel, si on considère que la sensibilité nominale du D700 (pour prendre un exemple) est de 200 ISO, on peut considérer (c'est une simplification) que le gain de la chaine de conversion analogique numérique est de x1. Si on double la sensibilité (400 ISO, donc), le capteur enregistrera des informations deux fois plus faibles, et le gain de la chaine sera porté à x2 pour obtenir, au bout du compte, un ensemble de données équivalent à celui capturé à 200 ISO, mais dégradé à cause, entre autres paramètres, par les caractéristiques de la chaine d'amplification.
Par contre, si on est à 6400 ISO sur le D700 (soit un gain x32) et qu'on double la "sensibilité", on passe à "H1.0" (12500 ISO équivalent). Dans ce cas, le gain de la chaine d'amplification reste à x32 et c'est effectivement un "décodage variable fonction de la valeur ISO" qui est effectué par l'appareil (un ajustement "logiciel", quoi). Mais Nikon n'appelle pas cette position "12500 ISO", mais "H1.0", pour cette raison...
En bref, le type de fonctionnement que tu décris est bien utilisé par les appareils, au bout du compte. Mais uniquement sur les valeurs explicitement décrites par une lettre (H1.0, H2.0, L1.0, etc).
Citation de: GBo le Novembre 28, 2010, 10:48:18
- on a aussi un maximisant de la perte due à l'objo 1.4 utilisé pour les tests des boitiers Canon, cette perte est au maximum de 0.25 EV, et on ne connait pas la valeur inférieure ou égale exacte, puisque DxO ne fait pas de mesure de transmittance d'objectif seuls, ils ne mesurent que l'ensemble objectif-boitier (et qu'ils appelent quand même Tstop par un abus de langage que l'on peut réprouver, puisque la définition correcte de Tstop ne concerne que l'objectif)
Ce mélange de termes techniques et ces abus de langage nuisent malheureusement à la compréhension des données techniques fournies par DxO. C'est vraiment dommage...
Citation de: GBo le Novembre 28, 2010, 10:48:18
Et j'avais oublié une info supplémentaire, d'où ma petite mise à jour :
- on a aussi un maximisant de la perte due à l'objo 1.4 utilisé pour les tests des boitiers Canon, cette perte est au maximum de 0.25 EV, et on ne connait pas la valeur inférieure ou égale exacte, puisque DxO ne fait pas de mesure de transmittance d'objectif seuls, ils ne mesurent que l'ensemble objectif-boitier (et qu'ils appelent quand même Tstop par un abus de langage que l'on peut réprouver, puisque la définition correcte de Tstop ne concerne que l'objectif)
Je ne vois pas trop en quoi la transmittance de l'objectif peut jouer, vu qu'elle est la même quelle que soit l'ouverture.
Citation de: seba le Novembre 28, 2010, 11:18:08
Je ne vois pas trop en quoi la transmittance de l'objectif peut jouer, vu qu'elle est la même quelle que soit l'ouverture.
Juste dans le but de séparer les variables...
Citation de: Verso92 le Novembre 28, 2010, 10:29:58
Ben alors... et ces résultats d'essais, on les voit quand ?
;-)
Un peu de patience, le FX est pas mal occupé le WE, il fait du sport. Et puis ce que j'essaye de faire est assez ambitieux : étant donné que le rendement du capteur semble baisser quand l'angle d'incidence augmente, j'ai entrepris de mesurer cette baisse de rendement relativement au rendement en incidence normale (rendement max en toute logique) pour obtenir un graphe du même type que celui donné par Kodak dans les documentations que j'ai citées précédemment (allez, je remets le lien : les figures 18 & 19 de ce document là (http://wwwcafr.kodak.com/global/plugins/acrobat/en/business/ISS/supportdocs/31Mp_and_39Mp_Full-Frame_CCD_paper.pdf)). Bon pour l'instant mes mesures sont encore assez imprécises, mais on peut voir (voir graphique ci-dessous) que mes mesures sur mon modeste 350d sont malgré tout assez cohérentes avec ce qu'annonce Kodak. Une fois cela fait, j'essayerai de vérifier que cette baisse de rendement suffit à expliquer la problème présent (ou pas). Mais ça va prendre un peu de temps.
Une explication d'un fabricant de capteurs (DALSA).
Ca rejoint tout à fait l'étude de Kodak.
"Fill factor: the fill factor of our sensors is typically 80-90%."
"Better angular response: DALSA sensors provide excellent angular response, a characteristic that is very important when using fast lenses and wide angles. We offer thinner polysilicon layers and fewer structures above the charge-collection region of the pixel to reflect and distort incident light, and with our high fill factor, DALSA sensors generally do not require microlenses. Microlenses help increase effective fill factor in some sensors, but they make the performance of the pixels highly dependent on the angle of incoming light rays. Microlensed pixels do not respond uniformly at larger iris openings (low f-numbers), particularly at the edges of the sensor."
Un volontaire pour tester le
f/0.95 Voigtlander Nokton (~900 USD)
Ca c'est de la grande ouverture !
Citation de: SimCI le Novembre 29, 2010, 00:06:08
Un volontaire pour tester le
f/0.95 Voigtlander Nokton (~900 USD)
Ca c'est de la grande ouverture !
Sur un M9, j'imagine...
(pas sûr que ce soit le plus mal loti de la série, puisque le réseau de micro-lentilles des M8 et M9 a été optimisé pour fonctionner au mieux avec les rayons ayant un angle d'incidence élevé...)
Citation de: SimCI le Novembre 29, 2010, 00:06:08
Un volontaire pour tester le
f/0.95 Voigtlander Nokton (~900 USD)
Ca c'est de la grande ouverture !
Citation de: Verso92 le Novembre 29, 2010, 00:13:57
Sur un M9, j'imagine...
(pas sûr que ce soit le plus mal loti de la série, puisque le réseau de micro-lentilles des M8 et M9 a été optimisé pour fonctionner au mieux avec les rayons ayant un angle d'incidence élevé...)
Le seul Voigtländer Nokton f/0,95 que je connaisse, c'est le 25 mm en monture µ4/3...
http://www.voigtlaender.de/cms/voigtlaender/voigtlaender_cms.nsf/id/pa_mft-objektive.html (allemand)
http://www.voigtlaender.de/cms/voigtlaender/voigtlaender_cms.nsf/id/pa_mft_lenses.html (anglais)
(http://www.voigtlaender.de/cms/voigtlaender/voigtlaender_cms.nsf/gfx/nokton_25mmf0.95_persp_rgb_klein.jpg/$file/nokton_25mmf0.95_persp_rgb_klein.jpg) (http://www.voigtlaender.de/cms/voigtlaender/voigtlaender_cms.nsf/gfx/nokton_25mmf0.95_persp_rgb.jpg/$file/nokton_25mmf0.95_persp_rgb.jpg)
Citation de: Mistral75 le Novembre 29, 2010, 00:38:35
Le seul Voigtländer Nokton f/0,95 que je connaisse, c'est le 25 mm en monture µ4/3...
Mes plus plates excuses : j'avais confondu avec le f/1.1 50 Nokton pour Leica M...
Citation de: seba le Novembre 28, 2010, 11:18:08
Je ne vois pas trop en quoi la transmittance de l'objectif peut jouer, vu qu'elle est la même quelle que soit l'ouverture.
exact
D'ailleurs DxO donne la transmittance des cailloux sur leur site (Dxo mark)
Citation de: seba le Novembre 28, 2010, 11:18:08
Je ne vois pas trop en quoi la transmittance de l'objectif peut jouer, vu qu'elle est la même quelle que soit l'ouverture.
GBo voulait certainement parler de la différence "F" vs "T", qui elle dépend de l'ouverture, il me semble...
Citation de: Verso92 le Novembre 28, 2010, 11:23:14
Juste dans le but de séparer les variables...
Tout à fait, il y a un qui suit ! ;)
Citation de: Powerdoc le Novembre 30, 2010, 17:56:56
[...]
D'ailleurs DxO donne la transmittance des cailloux sur leur site (Dxo mark)
L'onglet Transmittance des tests DxO concerne en fait l'ensemble caillou ET capteur (c'est une mesure faite par le truchement du boitier, c'est expliqué au-dessus par un quote en anglais sur ces tests*) c'est pour çà que pour le même objo, tu auras un résultat différent suivant les boitiers. Je voudrais bien le vrai T-stop du 1.4 Canon pour résoudre les équations pour les capteurs Canon...
(*) je le remets :
"First, we measure the ISO sensitivity of a sensor without optics, then since all sensors we currently measure are linear (or can be linearized with a simple "Dark value" subtraction) we can use the sensor as a photometer with an optics between the sensor and very stable luminous surface which luminance is precisely measured with a calibrated luminance-meter. It is then easy to compute the actual T-Stop
of the lens and sensor combination: one part of the loss comes from then lens itself, another part is due to the sensor inability to capture light from some angles. That measurement is performed at image center, what happens in the field is a different measurement, available on www.dxomark.com as "vignetting""
Source : un expert de chez DxO cité par Dubovoy sur le forum de Luminous Landscape :
http://www.luminous-landscape.com/forum/index.php?topic=47800.msg398290#msg398290
Citation de: GBo le Novembre 30, 2010, 20:02:08
It is then easy to compute the actual T-Stop of the lens and sensor combination:...
Le terme est mal choisi.
L'ouverture T résulte des pertes à la traversée des lentilles de l'objectif et c'est tout.
Pour la même désignation, DxO y intègre l'effet du capteur. Une même désignation qui mélange deux causes différentes.
Citation de: seba le Décembre 01, 2010, 06:47:42
Le terme est mal choisi.
L'ouverture T résulte des pertes à la traversée des lentilles de l'objectif et c'est tout.
Pour la même désignation, DxO y intègre l'effet du capteur. Une même désignation qui mélange deux causes différentes.
Vi vi, c'est ce que j'indiquais dans un post précédent (sur lequel Verso a rebondi):
... (et qu'ils appellent quand même Tstop par un abus de langage que l'on peut réprouver, puisque la définition correcte de Tstop ne concerne que l'objectif)Si on se lisait pour éviter les redites ? ;)
J'ai repensé aux essais que j'ai réalisé l'autre jour : en fait, lorsque l'objectif était déboité, c'est la programmation "objectif sans cpu" active sur le D700 au moment des essais qui a été prise en compte (en l'occurrence, f/2 35mm).
J'ai donc refait une série de photos, mais cette fois en faisant varier la programmation "objectif sans cpu" :
- A1 : f/1.2 50mm,
- A2 : f/1.4 50mm,
- A3 : f/1.8 50mm,
- A4 : f/2.8 55mm.
Toute les photos ont été prises à 200 ISO, f/1.4 et 1/50s, en mode M.
J'ai réalisé quatre photos pour chaque configuration, et j'ai mesuré à la pipette le milieu du "S" de CBS. Cela donne :
- 1 : Emboité
R 183 182 182 182
V 178 177 177 177
B 158 157 157 157
L 160 160 160 160
- A1 : Déboité + programmation f/1.2
R 183 184 183 184
V 178 179 178 179
B 158 159 158 159
L 160 161 160 161
- A2 : Déboité + programmation f/1.4
R 184 183 183 183
V 179 178 178 178
B 159 158 158 158
L 161 160 160 160
- A3 : Déboité + programmation f/1.8
R 177 177 179 178
V 174 174 176 175
B 155 157 157 158
L 156 157 158 158
- A4 : Déboité + programmation f/2.8
R 175 175 176 175
V 173 173 174 173
B 158 158 159 158
L 157 157 158 157
Hors de question, bien sûr, de quantifier les écarts en IL. Mais on voit, quand même, que le boitier booste un peu le gain quand la programmation pour les objectifs lumineux est sélectionnée...
Par contre, sur le D700 au moins, il semblerait que cela ne justifie pas de fouetter le chat...
Je me permets d'intervenir car dans l'article de CI et dans vos échanges, il y a des choses qui me chagrinent :
Peut-être que vous brouiller un peu les choses en ne précisant pas assez de quel capteur vous parlez !
Je pars du constat que la mesure de la lumière se fait toujours à pleine ouverture, donc si un défaut fausse la mesure, c'est avec un diaphragme plus fermé qu'on devrait avoir une sur-exposition, corrigée éventuellement par une atténuation du signal. Donc il y a quelque chose qui ne colle pas.
Dites moi si je me trompe, mais la mesure de la lumière dans un reflex ne se fait pas sur le capteur principal, caché par l'obturateur, mais sur un capteur secondaire ? Si c'est bien le cas, ce capteur secondaire est à l'évidence plus petit, et d'une autre nature dans sa constitution.
Alors, l'explication la plus logique est : le capteur secondaire de mesures de la lumière n'est pas affecté par les rayons lumineux obliques, même à grande ouverture. Ce capteur indique la bonne quantité de lumière pour des diaphragmes fermés. Pour des ouvertures importantes (f1,2 f1,4...), le capteur principale ne reçoit pas assez de lumière par rapport à la mesure du capteur secondaire. Et d'après ce que vous dites les constructeurs n'ont pas choisi dans ce cas de jouer sur la vitesse d'obturation, mais sur une amplification du signale constatée par une monté du bruit.
Les objectifs très lumineux ne conservant alors que l'avantage de la faible profondeur de champ. Au photographe de voir s'il veut mettre le prix pour ce seul avantage.
J'ai tout compris ou j'ai tout faux :D
Citation de: Ibiscus le Décembre 01, 2010, 21:07:01
Je me permets d'intervenir car dans l'article de CI et dans vos échanges, il y a des choses qui me chagrinent :
Peut-être que vous brouiller un peu les choses en ne précisant pas assez de quel capteur vous parlez !
?
La mesure est faite sur le capteur RVB 1005 pixels dans le cas du D700, complètement dissocié du capteur qui enregistre l'image...
Citation de: Ibiscus le Décembre 01, 2010, 21:07:01
Je pars du constat que la mesure de la lumière se fait toujours à pleine ouverture, donc si un défaut fausse la mesure, c'est avec un diaphragme plus fermé qu'on devrait avoir une sur-exposition, corrigée éventuellement par une atténuation du signal. Donc il y a quelque chose qui ne colle pas.
La mesure est effectivement réalisée à PO. En aucun cas, la mesure n'est faussée...
Citation de: Ibiscus le Décembre 01, 2010, 21:07:01
Dites moi si je me trompe, mais la mesure de la lumière dans un reflex ne se fait pas sur le capteur principal, caché par l'obturateur, mais sur un capteur secondaire ? Si c'est bien le cas, ce capteur secondaire est à l'évidence plus petit, et d'une autre nature dans sa constitution.
Rien à voir : la mesure est effectuée sur un capteur spécifique... pourquoi cette question ?
Citation de: Ibiscus le Décembre 01, 2010, 21:07:01
Alors, l'explication la plus logique est : le capteur secondaire de mesures de la lumière n'est pas affecté par les rayons lumineux obliques, même à grande ouverture. Ce capteur indique la bonne quantité de lumière pour des diaphragmes fermés. Pour des ouvertures importantes (f1,2 f1,4...), le capteur principale ne reçoit pas assez de lumière par rapport à la mesure du capteur secondaire. Et d'après ce que vous dites les constructeurs n'ont pas choisi dans ce cas de jouer sur la vitesse d'obturation, mais sur une amplification du signale constatée par une monté du bruit.
La question ne se pose pas en ces termes : le capteur dédié à la mesure de la lumière mesure celle-ci à PO, forcément. Il n'indique strictement rien pour les autres ouvertures : le calculateur du boitier fait le job pour déterminer les bons TdP (règle de trois, à la louche)...
Citation de: Ibiscus le Décembre 01, 2010, 21:07:01
J'ai tout compris ou j'ai tout faux :D
Je pense que tu n'as pas compris comment fonctionne un reflex...
Oups... erreur de manip !
Citation de: Verso92 le Décembre 01, 2010, 21:42:31
La question ne se pose pas en ces termes : le capteur dédié à la mesure de la lumière mesure celle-ci à PO, forcément. Il n'indique strictement rien pour les autres ouvertures : le calculateur du boitier fait le job pour déterminer les bons TdP (règle de trois, à la louche)...
Je pense que tu n'as pas compris comment fonctionne un reflex...
Bin, à la lumière de tes réponses, je pense que si. Par contre j'ai été un peu maladroit en écrivant "Ce capteur indique la bonne quantité de lumière pour des diaphragmes fermés." Évidement, c'est le capteur secondaire
plus les dispositifs associés qui indique le couple diaphragme/vitesse/sensibilité à utiliser. Dispositifs associés qui n'ont pas été tout le temps, comme tu le dis, des
calculateurs, mais dans les 1er reflex des dispositifs plus simples à base de résistances et de transistors très loin des microprocesseurs actuels.
Merci pour l'info pour le capteur de mesure du Nikon D700, je ne savais pas qu'il voyait RVB, mais je comprends pas quand tu parles de "pixels", c'est des photosites pour un capteur.
Voici le genre de phrase qui est ambiguë dans votre discussion :
L'onglet Transmittance des tests DxO concerne en fait l'ensemble caillou ET capteur (c'est une mesure faite par le truchement du boitier,... Je pense qu'il s'agit du capteur principal et pas du capteur secondaire de mesure, mais après l'intervenant parle de "mesure" : le capteur principal ne fait pas de "mesure", et à moins d'être le constructeur, on n'a pas accès direct aux résultats des mesures du capteur secondaire.
Bref, on a du mal à vous suivre, tes explications m'ont conforté dans ce que je comprenais du phénomène. Merci.
Ah, j'oubliai, un avantage d'un objectif très lumineux, en plus de la faible profondeur de champ parfois utile, est aussi la meilleure précision de la mesure en faible lumière.
La cellule mesure la lumière à travers l'objectif, le verre de visée, une petite lentille qui se trouve devant la cellule (qui peut être un mini capteur).
Elle est étalonnée pour tenir compte de tout ça.
En fonction de l'ouverture maxi de l'objectif, il peut y avoir des différences de transmission vers la cellule, mais les fabricants ont fait l'étalonnage en fonction de chaque objectif (l'électronique de l'objectif renseigne le boîtier).
Chez Nikon on peut s'en rendre compte avec un objectif non AF car si on ne renseigne pas ou mal le boîtier on remarque des petites différences d'exposition (qui peuvent quand même aller jusqu'à 1,5 IL environ).
Citation de: Ibiscus le Décembre 01, 2010, 23:54:39
Bin, à la lumière de tes réponses, je pense que si. Par contre j'ai été un peu maladroit en écrivant "Ce capteur indique la bonne quantité de lumière pour des diaphragmes fermés." Évidement, c'est le capteur secondaire plus les dispositifs associés qui indique le couple diaphragme/vitesse/sensibilité à utiliser. Dispositifs associés qui n'ont pas été tout le temps, comme tu le dis, des calculateurs, mais dans les 1er reflex des dispositifs plus simples à base de résistances et de transistors très loin des microprocesseurs actuels.
En fait, le principe des anciens reflex et des nouveaux, en ce qui concerne l'exposition, est rigoureusement identique. Il ne faut pas se prendre la tête avec ça : qu'il s'agisse d'un pont diviseur de résistances ou d'un microprocesseur, cela ne change rien du tout dans le principe. Parler de "capteur secondaire" n'apporte rien, donc, à la discussion, et ne peut qu'embrouiller les choses : parlons de "cellule", tout simplement...
Citation de: Ibiscus le Décembre 01, 2010, 23:54:39
Merci pour l'info pour le capteur de mesure du Nikon D700, je ne savais pas qu'il voyait RVB, mais je comprends pas quand tu parles de "pixels", c'est des photosites pour un capteur.
Oui.
Mais encore une fois, c'est une info sur la technologie employée, qui apporte forcément certains avantages par rapport aux cellules simples d'autrefois (infos couleurs, analyse plus fine des différentes zones). Le principe ne change pas : à savoir mesure à PO + calcul pour l'exposition pour toutes les ouvertures "non PO"...
Citation de: Ibiscus le Décembre 01, 2010, 23:54:39
Voici le genre de phrase qui est ambiguë dans votre discussion : L'onglet Transmittance des tests DxO concerne en fait l'ensemble caillou ET capteur (c'est une mesure faite par le truchement du boitier,... Je pense qu'il s'agit du capteur principal et pas du capteur secondaire de mesure, mais après l'intervenant parle de "mesure" : le capteur principal ne fait pas de "mesure", et à moins d'être le constructeur, on n'a pas accès direct aux résultats des mesures du capteur secondaire.
Les mesures DxO concernent effectivement toute la chaine, à savoir transmittance de l'objectif + rendement du capteur (l'imageur, puisque l'autre, c'est la "cellule"...). Pour moi, il n'y a pas d'ambiguïté, sauf quand DxO emploie le terme "T", qui désigne habituellement l'ouverture photométrique de l'objectif seul...
Citation de: Ibiscus le Décembre 01, 2010, 23:54:39
Bref, on a du mal à vous suivre, tes explications m'ont conforté dans ce que je comprenais du phénomène. Merci.
Est-ce plus clair maintenant ?
Citation de: Ibiscus le Décembre 01, 2010, 23:54:39
Ah, j'oubliai, un avantage d'un objectif très lumineux, en plus de la faible profondeur de champ parfois utile, est aussi la meilleure précision de la mesure en faible lumière.
La précision du système de mesure (i.e. la sensibilité de la cellule) n'a rien à voir avoir l'ouverture max de l'objectif qui est monté sur le boitier...
Citation de: Ibiscus le Décembre 01, 2010, 21:07:01
[...]Pour des ouvertures importantes (f1,2 f1,4...), le capteur principale ne reçoit pas assez de lumière par rapport à la mesure du capteur secondaire. Et d'après ce que vous dites les constructeurs n'ont pas choisi dans ce cas de jouer sur la vitesse d'obturation, mais sur une amplification du signale constatée par une monté du bruit.
Cette partie me parait bien comprise. Et on en appelle ici à mesurer cette amplification par un moyen plus direct, c'est ce qu'à fait Verso (que je remercie pour son dernier test qui confirme un petit qqchose !!!), mais il faudrait que les Canoniers s'y mettent car ils sont davantage concernés (plus de photosites par mm² en moyenne, donc plus de perte d'après DxO...).
Citation de: Ibiscus le Décembre 01, 2010, 21:07:01Les objectifs très lumineux ne conservant alors que l'avantage de la faible profondeur de champ. Au photographe de voir s'il veut mettre le prix pour ce seul avantage.
[...]
J'ai calculé dans ce post :
http://www.chassimages.com/forum/index.php/topic,104882.msg1919099.html#msg1919099
que même pour les pires cas comme le Canon EOS 7D, d'après les chiffres DxO (qui ont servi pourtant à tous les articles dénonçant le "complot"),
il y avait encore un gain en lumière de passer de l'objectif 1.4 à 1.2 de la marque, un gain presque égal à la moitié du gain escompté au vu de la différence de F-stop. Dire qu'il n'y a pas de gain est faux.
Pour le flou, les mesures des cercles de flou effectués par les forumeurs jusqu'ici semblent indiquer qu'il n'y a pas de souci, et pour la pdc il en sera logiquement* de même mais c'est à confirmer par des méthodes plus directes (pas facile...)
cdlt,
GBo
(*) http://www.chassimages.com/forum/index.php/topic,104882.msg1912370.html#msg1912370
Citation de: Verso92 le Décembre 02, 2010, 07:27:58
La précision du système de mesure (i.e. la sensibilité de la cellule) n'a rien à voir avoir l'ouverture max de l'objectif qui est monté sur le boitier...
Comment ça ? La cellule est pourtant plus éclairée quand l'objectif est plus ouvert.
Braves gens,
Vous essayez de mesurer l'impact de l'obliquité des rayons à raison de l'ouverture de l'optique (à tirage constant) en vous focalisant (...) sur la dimension de la lentille du capteur.
Si vous regardez un puit, la question de savoir si la lumière arrivera au fond met en jeu le diamètre de l'ouverture et surtout la profondeur du puit.
La profondeur me semble avoir un impact bien plus important.
Peut-être un minoltiste avec capteur backlite et non backlite de 14M de pix pourrait faire avancer le schmilblik.
Chérie dis moi de combien ton puit et profond, et tu auras peut-être un bokeh.
Le roman de la Rose version photim.
J'ai fait quelques mesures dont voici les premiers résultats sur mon 350D (les mesures sont réalisées directement sur les RAWs, sans objectifs). En fait il s'agit pour moi d'une part de mesurer l'évolution du rendement en fonction de l'angle d'incidence, puis de vérifier si cette évolution peut à elle seule expliquer les résultats présentés par DxOmark. Car pour l'instant, on discute de manière très qualitative, mais rien de vraiment quantitatif n'est fait, chose qui pourrait pourtant infirmer certaines hypothèses.
Donc tout d'abord un graphe représentant le rendement du capteur en fonction de l'angle d'incidence relativement à une incidence normale. La courbe verte, c'est parce que les mesures sont faites sur le canal vert, la courbe noire est une interpolation par un polynôme pair de degré 6 (j'ai supposé que la courbe était symétrique, ce qui me semble logique). J'ai superposé cette courbe à celles présentés par Kodak pour ses capteurs avec microlentilles (fig.19 du doc précédent), et elle est cohérente (elle se trouve entre les deux courbes).
Pour une ouverture (géométrique) de 2,8, les incidences varient entre -10° et +10°, pour, 1,4 entre -20° et +20°, et pour 1,0 entre -30° et +30°. Ceci pour dire qu'une incidence de 45° comme je suis à peu près parvenu à reproduire (bof moyen quand même) ne va pas se rencontrer en réalité dans la très grande majorité des cas, et qu'en pratique les utilisateurs utilisent rarement des optiques générant une incidence supérieure à 20°. On peut voir que malgré cette diminution du rendement avec l'angle d'incidence, une optique plus lumineuse (plus ouverte géométriquement) sera effectivement plus lumineuse.
Quelques petites indications quand à la perte théorique que cela engendre à des ouvertures courantes (en supposant que le rendement est le même dans toutes les directions):
- 1,0 (pas très courant comme ouverture, mais ayant existé chez Canon) : -0,84 Ev
- 1,2 : -0,56 Ev
- 1,4 : -0,41 Ev
- 1,8 : -0,24 Ev
- 2,8 et au delà : inférieur à 0,1 Ev.
Pour comparaison, le Tessar f/3.5 de Carl Zeiss (pas de traitement anti reflet) d'avant les traitements anti-reflet qui a équipé les Rolleiflex entre autre a une transmission de 66% environ soit -0,7Ev. Et il y a eu pire comme optique.
On peut vérifier que mes mesures sont cohérentes avec celles présentées par DxOmark. Pour cela j'ai regardé les mesures de deux optiques montées sur le 350D et le 5D premier du nom. Pourquoi le 5D ? Parce qu'il est celui dans la gamme Canon qui obtient les meilleurs scores à ce fameux T. On peut supposer que les pertes dues à l'angle d'incidence sont négligeables pour des ouvertures pas trop grandes. Comme optiques, j'ai regardé les 50mm f/1.4 de Canon et Sigma.
Pour le Canon, (en mesurant en pixel sur les graphes des DxOmark afin d'avoir une précision plus grande que celle indiquée numériquement au passage de la sourie) DxOmark mesure une perte de -0,30Ev environ sur 5d et -0,67Ev environ sur 350d. Pour le Sigma, 0,36Ev environ sur 5D, 0,73Ev environ sur 350D. Dans les deux cas, on retrouve les 0,4Ev que j'avais prédit par mes calculs.
Il semblerait donc que cette baisse du rendement avec l'angle d'incidence explique le phénomène mis en évidence par DxOmark, même s'il faut avouer que tout le monde semblait s'être accordé sur cela. Mais mes petits calculs permettent également de quantifier cette perte, et on voit qu'en dehors des ouvertures extrêmes, cette perte est inférieure, voir négligeable (à partir de f/2 environ) par rapport aux autres pertes (et entre autre celle de l'optique).
Mais j'ai d'autres petits calculs amusants à faire pour voir les influences que cela pourrait avoir sur les autres aspects (et notamment la profondeur de champs).
Intéressant !
Citation de: FX-Bucher le Décembre 02, 2010, 11:43:14
J'ai fait quelques mesures dont voici les premiers résultats sur mon 350D (les mesures sont réalisées directement sur les RAWs, sans objectifs). En fait il s'agit pour moi d'une part de mesurer l'évolution du rendement en fonction de l'angle d'incidence, puis de vérifier si cette évolution peut à elle seule expliquer les résultats présentés par DxOmark. Car pour l'instant, on discute de manière très qualitative, mais rien de vraiment quantitatif n'est fait, chose qui pourrait pourtant infirmer certaines hypothèses.
On a discuté de
la théorie (je devrais dire plus rigoureusement d'
une théorie) de façon qualitative, en ce qui concerne la quantification, des efforts ont été faits du coté expérimental, et doivent continuer. Les deux doivent s'accorder.
Pourrais-tu nous donner des détails sur la façon dont tu éclaires le capteur à divers angles, il faut de la lumière collimatée non ?
Citation de: FX-Bucher le Décembre 02, 2010, 11:43:14
Mais j'ai d'autres petits calculs amusants à faire pour voir les influences que cela pourrait avoir sur les autres aspects (et notamment la profondeur de champs).
Cool !
Citation de: seba le Décembre 02, 2010, 10:36:16
Comment ça ? La cellule est pourtant plus éclairée quand l'objectif est plus ouvert.
On parlait de "précision", non ?
Ah oui.
En fait ça permettra de mesurer des sujets en plus faible éclairement.
Citation de: Verso92 le Décembre 01, 2010, 20:16:39
J'ai repensé aux essais que j'ai réalisé l'autre jour : en fait, lorsque l'objectif était déboité, c'est la programmation "objectif sans cpu" active sur le D700 au moment des essais qui a été prise en compte (en l'occurrence, f/2 35mm).
J'ai donc refait une série de photos, mais cette fois en faisant varier la programmation "objectif sans cpu" :
- A1 : f/1.2 50mm,
- A2 : f/1.4 50mm,
- A3 : f/1.8 50mm,
- A4 : f/2.8 55mm.
Toute les photos ont été prises à 200 ISO, f/1.4 et 1/50s, en mode M.
J'ai réalisé quatre photos pour chaque configuration, et j'ai mesuré à la pipette le milieu du "S" de CBS. Cela donne :
- 1 : Emboité
R 183 182 182 182
V 178 177 177 177
B 158 157 157 157
L 160 160 160 160
- A1 : Déboité + programmation f/1.2
R 183 184 183 184
V 178 179 178 179
B 158 159 158 159
L 160 161 160 161
- A2 : Déboité + programmation f/1.4
R 184 183 183 183
V 179 178 178 178
B 159 158 158 158
L 161 160 160 160
- A3 : Déboité + programmation f/1.8
R 177 177 179 178
V 174 174 176 175
B 155 157 157 158
L 156 157 158 158
- A4 : Déboité + programmation f/2.8
R 175 175 176 175
V 173 173 174 173
B 158 158 159 158
L 157 157 158 157
Hors de question, bien sûr, de quantifier les écarts en IL. Mais on voit, quand même, que le boitier booste un peu le gain quand la programmation pour les objectifs lumineux est sélectionnée...
Par contre, sur le D700 au moins, il semblerait que cela ne justifie pas de fouetter le chat...
Merci pour ce test très instructif.
Citation de: GBo le Décembre 02, 2010, 12:43:30
Intéressant !On a discuté de la théorie (je devrais dire plus rigoureusement d'une théorie) de façon qualitative, en ce qui concerne la quantification, des efforts ont été faits du coté expérimental, et doivent continuer. Les deux doivent s'accorder.
Pourrais-tu nous donner des détails sur la façon dont tu éclaires le capteur à divers angles, il faut de la lumière collimatée non ?
J'utilise une source lumineuse quasi ponctuelle située au foyer d'un objectif de chambre ce qui me permet théoriquement d'obtenir une source lumineuse effectivement collimatée. Dans les faits j'ai mesuré un cône lumineux d'angle inférieur à 1°, ce qui me semble bien suffisant pour la précision de mes mesures. Et j'ai monté mon boitier sans objectif sur un corps arrière de chambre. L'objo est sur le corps avant, le boitier sur le corps arrière. Cela me permet d'avoir un "banc" de mesure simple d'utilisation, car les mouvements du boitier (et notamment la rotation) sont très simples et précis.
Je vois, merci pour ces précisions FX-Bucher !
Citation de: Verso92 le Décembre 01, 2010, 20:16:39
J'ai repensé aux essais que j'ai réalisé l'autre jour : en fait, lorsque l'objectif était déboité, c'est la programmation "objectif sans cpu" active sur le D700 au moment des essais qui a été prise en compte (en l'occurrence, f/2 35mm).
J'ai donc refait une série de photos, mais cette fois en faisant varier la programmation "objectif sans cpu" :
- A1 : f/1.2 50mm,
- A2 : f/1.4 50mm,
- A3 : f/1.8 50mm,
- A4 : f/2.8 55mm.
..
Qu'est-ce que tu nous raconte là?
Ils vignettent vachement tes objectifs, les coins sont tous, tout noirs ;) :D
Citation de: kochka le Décembre 06, 2010, 21:35:09
Qu'est-ce que tu nous raconte là?
Ils vignettent vachement tes objectifs, les coins sont tous, tout noirs ;) :D
Tu as oublié tes premières émotions, kochka ?
(tu sais, ces galettes noires de trente centimètres de diamètre qu'on époussetait soigneusement avant d'y déposer le diamant... ;-)