Résolution du capteur et piqué des objectifs

Démarré par MMouse, Février 13, 2019, 14:50:16

« précédent - suivant »

MMouse

Bonjour,

Simple curiosité:

J'ai longtemps lu et cru que moins un capteur est pixelisé, moins il est exigeant par rapport aux optiques.
Exemple parlant et connu, le Sony A7SII plein format 12mpix donnerait de bons résultats avec des objectifs moins bons voire médiocres sur le capteur plein format 42mpix du A7RII. C'est la logique que j'avais intégrée et je n'avais pas encore eu l'occasion de la mettre à l'épreuve.

Hier, j'ai utilisé deux objectifs différents alternativement sur deux appareils: un Olympus E-M1 micro 4/3 16mpix de 2013 et un Panasonic GF1 micro 4/3 12mpix de 2009.
A 100 isos et différentes ouvertures, en RAW et en traitant les fichiers pareils, le piqué est toujours meilleur sur le E-M1. C'est particulièrement visible sur les bords et avec l'optique la plus "faible" du lot, le 14mm Panasonic. Autant il n'est pas mauvais du tout sur l'E-M1, autant il est assez moyen sur le GF1.

Est-ce la qualité du capteur ? Ou peut-être la mise au point qui est plus précise sur l'E-M1 ?
Observation pas très utile, j'en conviens, mais l'explication théorique m'intéresse.

Merci  :)


egtegt²

Déjà, réduire un objectif au seul piqué est à mon avis un peu réducteur. Mais même au niveau du piqué, beaucoup d'acheteurs du Nikon D850 ont dit que certains de leurs objectifs étaient meilleurs sur ce dernier que sur le D810 par exemple.

La raison serait à chercher entre autres du côté de l'angle avec lequel les rayons touchent le capteur. Le D850 est semble-t-il moins gêné par les rayons obliques que ses prédécesseurs, à priori parce que c'est un capteur BSI avec donc les photosites plus proches de la surface du capteur, les anciens modèles ayant leurs photosites au fond d'un "puit" plus profond.

La pellicule argentique était totalement (ou presque) insensible à cet angle, c'est pourquoi les fabricants ne prenaient pas en compte ce paramètre. Avec l'arrivée du numérique,  ils ont commencé à en tenir compte dans la conception des nouveaux objectifs. Ca explique pourquoi certaines objectifs récents sont bien meilleurs que leurs prédécesseurs.

MMouse

D'accord pour le piqué.
Le rendu des couleurs diffère un peu aussi mais là ça devient compliqué de comparer objectivement.

Possible en effet que le capteur soit mieux optimisé sur les appareils plus récents.

chelmimage

Si la résolution de l'objectif est supérieure à celle nécessaire pour "alimenter" correctement 16 Mpix, elle alimentera aussi correctement 12 Mpix . Mais à l'observation le piqué de 16 Mpix sera plus défini que celui de 12 Mpix.
C'est seulement si la résolution de l'objectif était insuffisante pour 16 Mpix qu'il pourrait y avoir un doute  à lever.

FredEspagne

Ronan Loaëc disait dans les colonnes de CI qu'un objectif était toujours un petit peu meilleur au niveau piqué sur un capteur plus pixellisé et le démontrait avec différents exemples. Mais c'est sûr que less objectifs haut de gamme chez les différents constructeurs sont prévus pour exploiter à fond des capteurs de 50 MPx en FF.
35 ans de film et labo argentique , 21 de numérique

Jean-Claude

Citation de: FredEspagne le Février 13, 2019, 17:45:47
Ronan Loaëc disait dans les colonnes de CI qu'un objectif était toujours un petit peu meilleur au niveau piqué sur un capteur plus pixellisé et le démontrait avec différents exemples. Mais c'est sûr que less objectifs haut de gamme chez les différents constructeurs sont prévus pour exploiter à fond des capteurs de 50 MPx en FF.
Ce n'est ni plus ni moins mathématiquement que la loi de mise en série de fonctions de tranfers.

En pratique :Un objectif + un boitier seront toujours moins bons que le même objectif seul, même si le boitier a des performances supérieures à l'objectif. Cette perte est un peu moins forte sur un boitier plus performant.

Après si le boitier a des performances énormément supérieures à l'objectif, arrive un moment ou la perte devient négligeale et invisible.

Nikojorj

Citation de: MMouse le Février 13, 2019, 14:50:16
Observation pas très utile, j'en conviens, mais l'explication théorique m'intéresse.
Si tu raisonnes avec des flous qui s'additionnent, l'un du à l'objo et l'autre au capteur, tu obtiens un résultat assez proche de ce que tu as observé, et ce qu'en dit Ronan.
Ah ben c'est ce aussi ce qu'en dit Jean-Claude d'ailleurs! ;)

astrophoto

ça dépend peut-être si on compare les images à 100% écran, ou à taille d'affichage (ou de tirage) équivalente, vous ne croyez pas ?  ;)
Thierry Legault
astrophoto.fr

dioptre

Citation de: MMouse le Février 13, 2019, 14:50:16
Bonjour,

Simple curiosité:

J'ai longtemps lu et cru que moins un capteur est pixelisé, moins il est exigeant par rapport aux optiques.
Exemple parlant et connu, le Sony A7SII plein format 12mpix donnerait de bons résultats avec des objectifs moins bons voire médiocres sur le capteur plein format 42mpix du A7RII. C'est la logique que j'avais intégrée et je n'avais pas encore eu l'occasion de la mettre à l'épreuve.

Hier, j'ai utilisé deux objectifs différents alternativement sur deux appareils: un Olympus E-M1 micro 4/3 16mpix de 2013 et un Panasonic GF1 micro 4/3 12mpix de 2009.
A 100 isos et différentes ouvertures, en RAW et en traitant les fichiers pareils, le piqué est toujours meilleur sur le E-M1. C'est particulièrement visible sur les bords et avec l'optique la plus "faible" du lot, le 14mm Panasonic. Autant il n'est pas mauvais du tout sur l'E-M1, autant il est assez moyen sur le GF1.

Est-ce la qualité du capteur ? Ou peut-être la mise au point qui est plus précise sur l'E-M1 ?
Observation pas très utile, j'en conviens, mais l'explication théorique m'intéresse.

Merci  :)

Si ça peut aider :
https://wordpress.lensrentals.com/blog/2015/06/canon-5ds-and-5ds-r-initial-resolution-tests/

MMouse

Merci à vous. Effectivement l'image parait plus précise sur un capteur bien pixelisé.

Nikojorj


pichta84

Citation de: MMouse le Février 13, 2019, 14:50:16
Bonjour,

Simple curiosité:

J'ai longtemps lu et cru que moins un capteur est pixelisé, moins il est exigeant par rapport aux optiques.
(...)
Observation pas très utile, j'en conviens, mais l'explication théorique m'intéresse.

Merci  :)
Ton raisonnement est juste et les observations aussi.
L'explication théorique est un peu compliquée avec les des pixels parce que des phénomènes d'interférences, d'artefacts, et d'échantillonnages interviennent à plusieurs niveaux.
En argentique on était pas gêné par ces problèmes. Un film à grain ultrafin permettait de voir "en direct" la qualité de l'objectif employé. Encore que, par exemple, je me suis fait avoir (erreur de jeunesse) avec un agrandisseur dont l'objectif était de moindre résolution que celui utilisé à la prise de vue.

Même en analogique donc, les choses ne sont pas simples : la projection d'une mire sur un film ne donnera jamais une image parfaite, à cause de la nature des photons. Ils diffractent et interfèrent avec eux même, sans qu'il y ait besoin de lentilles pour brouiller l'image... Au bas de cette page ( https://photo2bee.jimdo.com/technique/profondeur-de-champ-1/ ) au § "comment ça se passe physiquement" il y a des éléments d'explication, bien que le problème de départ ne soit pas le même.

C'est exactement ça, plus la définition du capteur est élevée plus il est possible de discerner des détails fins. En théorie c'est vrai, mais en pratique, il y a des limites dues à la nature physique des photons.

egtegt²

Tout ce que vous dites est vrai si on part du principe qu'un capteur plus pixellisé est identique à la seule différence qu'il a plus de photosites. Mais il faut aussi compter avec les capteurs BSI pour lesquels le photosite est plus proche de la surface du capteur, ce qui fait qu'il capte mieux les rayons obliques, contrairement aux capteurs non BSI qui sont de façon schématique au fond d'un puit et qui captent mal les rayons obliques.

pichta84

Citation de: egtegt² le Février 14, 2019, 15:12:42
il faut aussi compter avec les capteurs BSI pour lesquels le photosite est plus proche de la surface du capteur, ce qui fait qu'il capte mieux les rayons obliques, contrairement aux capteurs non BSI qui sont de façon schématique au fond d'un puit et qui captent mal les rayons obliques.

Cela a une influence sur le vignettage (éventuellement sur le contraste) pas vraiment sur le piqué.
Les objectifs télécentriques remédient à ces problèmes.

Verso92

Citation de: pichta84 le Février 16, 2019, 22:43:43
Cela a une influence sur le vignettage (éventuellement sur le contraste) pas vraiment sur le piqué.

Ah ?

Jean-Claude

Ah le contraste n'aurait rien à voir avec le piqué ?

Le piqué c'est bien le microcontraste, grosso modo un test MTF mesure la perte de contraste entre le blanc et le noir des reseaux de mires de différentes finesses.

Somedays

#16
Citation de: MMouse le Février 13, 2019, 14:50:16
Hier, j'ai utilisé deux objectifs différents alternativement sur deux appareils: un Olympus E-M1 micro 4/3 16mpix de 2013 et un Panasonic GF1 micro 4/3 12mpix de 2009.
A 100 isos et différentes ouvertures, en RAW et en traitant les fichiers pareils, le piqué est toujours meilleur sur le E-M1. C'est particulièrement visible sur les bords et avec l'optique la plus "faible" du lot, le 14mm Panasonic. Autant il n'est pas mauvais du tout sur l'E-M1, autant il est assez moyen sur le GF1.

Est-ce la qualité du capteur ? Ou peut-être la mise au point qui est plus précise sur l'E-M1 ?

 
Je ne pense pas que la densité de pixels soit le paramètre prépondérant.
4 ans séparent les deux modèles, ce qui est déjà considérable.
Le capteur Panasonic GF1 de 2009 est un NMOS, une technologie électronique moins sophistiquée que le CMOS de l'Olympus E-M1.
 
Je ne suis pas certain que l'Olympus E-M1 soit un BSI comme le suggère egtegt² dans son premier post, en revanche il est certain qu'Olympus a supprimé le filtre anti-aliasing sur ce modèle, ce qui n'était pas le cas du GF1. Ce qui permet un gain de piqué sur le E-M1.

Sur les images ci-dessous, extraites d'un site web disparu (lien https://web.archive.org/web/20180928234055/http://www.sensorgen.info/)
on peut voir que le Q.E ( = quantum efficiency = rapport entre le nombre de charges électroniques collectées par le capteur et le nombre total de photons reçus ) est meilleur sur le E-M1 que sur le GF1.
 
La dynamique (DR) est également meilleure sur le E-M1. Ce n'est pas spécialement une question de définition du capteur: par exemple le Sony A7s à 12MPx surclasse aisément le Canon 5DII à 18MPx.
   
     


   
   
 

   


FredEspagne

On remarque aussi que les constructeurs prennent de sérieuses libertés au niveau des ISOs réels par rapport à ceux indiqués par l'appareil.
35 ans de film et labo argentique , 21 de numérique

rsp

Citation de: pichta84 le Février 14, 2019, 12:19:55
...
Même en analogique donc, les choses ne sont pas simples : la projection d'une mire sur un film ne donnera jamais une image parfaite, à cause de la nature des photons. Ils diffractent et interfèrent avec eux même, sans qu'il y ait besoin de lentilles
Tu es sûr de ça ?

jenga

Dans le cas cité, ce sont les bords des traits de la mire qui provoquent la diffraction, leur image est donc floutée.

Somedays

#20
Citation de: Somedays le Février 19, 2019, 22:15:17
Je ne suis pas certain que l'Olympus E-M1 soit un BSI comme le suggère egtegt² dans son premier post

 
Autant pour moi, egtegt² parlait du D850 et non du E-M1. Il n'y a apparemment pas de boîtiers µ4/3 en BSI à part le récent GH5s.
Les capteurs BSI sont plus coûteux à réaliser que les FSI équivalents et se justifient surtout pour les capteurs à forte densité de pixels, ils sont donc avant tout dévolus à des smartphones et des compacts à petits capteurs. Si j'en crois la page Wikipedia consacrée au BSI Sony Exmor R, les seuls boîtiers BSI à "grands" capteurs sont:

- en µ4/3, le Panasonic GH5s
- en APS-C, le Fuji X-T3  (26 MPx)
- en FF: Sony α7III, Nikon Z6, Nikon D850, Nikon Z7, Sony α7RII, Sony RX1R II, Sony α99II, Sony α7RIII.

Les 4 derniers cités datent de 2015, les autres sont sortis en 2018.
En APS-C BSI, il y a eu aussi le Samsung NX1 en 2014 avec une définition record de 28MPx, alors que les autres boîtiers APS-C hormis le récent X-T3 ne dépassent plus les 24MPx depuis des années.

Somedays

#21
Citation de: FredEspagne le Février 20, 2019, 06:37:35
On remarque aussi que les constructeurs prennent de sérieuses libertés au niveau des ISOs réels par rapport à ceux indiqués par l'appareil.

Oui, tu as raison de le souligner, c'est particulièrement édifiant dans cette comparaison du EM1 et du GF1.
Par exemple à 1600 ISO nominal, le EM1 est en fait un 967 ISO et le GF1 est un 2316 ISO.
La comparaison est donc faussée de 1.3 EV en défaveur du GF1 !
   
   
 
 
 
 
 

C'est surtout pour choisir entre 2 modèles que le problème se pose mais un client lambda ne peut guère s'en rendre compte par lui-même. C'est là que les testeurs spécialisés devraient signaler ces biais avant de faire des commentaires tels que: "à 1600ISO, le EM1 résiste bien mieux au bruit que le GF1."
   
   

   
Ceci dit, le EM1 est meilleur dans la montée en ISO que le GF1, mais nettement moins que ce que l'utilisateur peut constater en choisissant par exemple une position dite "1600ISO" sur chacun des deux boîtiers.
 
 
 
 

MMouse

La vache !
Merci pour ces explications, c'est assez édifiant.

Nikojorj

Citation de: Somedays le Février 20, 2019, 09:57:58
Oui, tu as raison de le souligner, c'est particulièrement édifiant dans cette comparaison du EM1 et du GF1.
DxOMark fut très décrié, disons qu'ils pourraient rappeler un peu plus qu'ils ne mesurent que quelques aspects du comportement des capteurs ou objectifs (et heureusement pour les fanboys Canon qui pleuraient il y a 10 ans qu'ils ne mesuraient pas le banding! :P ) mais sur ce coup là ce sont les seuls à avoir une définition rationnelle et cohérente des ISO (plutôt que celle de la norme ISO12232/REI qui stipule en gros que les gars du marketing se mettent autour d'une table et essayent chacun de se faire une ligne de coke la plus longue possible et on ajoute en cm les longueurs sniffées mesurées). ::)
On peut leur en rendre hommage, voire même espérer que leur méthode basée sur la saturation du raw, le seul paramètre physique qui puisse servir de référence fixe et univoque à l'exposition en raw, soit un peu plus utilisée chez les constructeurs.

rsp

Citation de: jenga le Février 20, 2019, 08:02:09
Dans le cas cité, ce sont les bords des traits de la mire qui provoquent la diffraction, leur image est donc floutée.
Rien à voir avec une interaction entre photons, donc.

jenga

Citation de: rsp le Février 20, 2019, 13:18:29
Rien à voir avec une interaction entre photons, donc.
Les phénomènes physiques liés à la lumière se décrivent, selon le cas, par une approche "particule" (les photons) ou par une approche ondulatoire.

L'approche "photon", qui représente la lumière par des "grains" séparés, rend bien compte des interactions de la lumière avec la matière; on explique ainsi les raies des spectres lumineux, l'accumulation de charges électriques dans nos capteurs sous l'effet de la lumière incidente, etc.

L'approche ondulatoire rend bien compte en particulier de la diffraction: chaque portion de l'objet diffractant (par exemple les bords des traits d'une mire) se comporte comme un émetteur d'onde, et ce sont les interférences entre toutes ces ondes qui produisent dans le plan image des figures avec des pics et des creux d'intensité.

Les ondes provenant de deux points de l'objet diffractant arrivent "en phase" à un point du plan image quand elles parcourent la même distance pour atteindre ce point, ou plus généralement quand la différence entre les deux trajets est un multiple de la longueur d'onde: le sommet d'une onde survient en même temps qu'un sommet précédent de l'autre onde, donc elles s'ajoutent et on obtient un pic d'intensité.
Au contraire, si la différence de distance entre les deux trajets pour atteindre un certain point du plan image est égale à une demi-longueur d'onde (ou plus généralement à un nombre impair de demi-longueurs), le max d'une onde arrive en même temps que le min de l'autre et les deux s'annulent: on obtient un zéro d'intensité en ce point du plan image.
Il faut bien sûr considérer tous les points du bord de l'objet diffractant, pas seulement deux comme je viens de le faire, mais le principe est le même.

Donc, le phénomène de diffraction est décrit par la théorie ondulatoire de la lumière et pas par la théorie corpusculaire, mais je ne dirais pas que ça n'a rien à voir car les deux décrivent des manifestations différentes du même objet.

Echo

Citation de: MMouse le Février 13, 2019, 14:50:16
Bonjour,

Simple curiosité:

J'ai longtemps lu et cru que moins un capteur est pixelisé, moins il est exigeant par rapport aux optiques.
Exemple parlant et connu, le Sony A7SII plein format 12mpix donnerait de bons résultats avec des objectifs moins bons voire médiocres sur le capteur plein format 42mpix du A7RII. C'est la logique que j'avais intégrée et je n'avais pas encore eu l'occasion de la mettre à l'épreuve.

Hier, j'ai utilisé deux objectifs différents alternativement sur deux appareils: un Olympus E-M1 micro 4/3 16mpix de 2013 et un Panasonic GF1 micro 4/3 12mpix de 2009.
A 100 isos et différentes ouvertures, en RAW et en traitant les fichiers pareils, le piqué est toujours meilleur sur le E-M1. C'est particulièrement visible sur les bords et avec l'optique la plus "faible" du lot, le 14mm Panasonic. Autant il n'est pas mauvais du tout sur l'E-M1, autant il est assez moyen sur le GF1.

Est-ce la qualité du capteur ? Ou peut-être la mise au point qui est plus précise sur l'E-M1 ?
Observation pas très utile, j'en conviens, mais l'explication théorique m'intéresse.

Merci  :)

Faut ,un capteur qui n'est pas assez pixelisé peut très bien ne pas accepter de très bonnes optiques. elles seront médiocres avec 12 Mpx et excellentes avec 20 Mpx.

pichta84


Même en analogique donc, les choses ne sont pas simples : la projection d'une mire sur un film ne donnera jamais une image parfaite, à cause de la nature des photons. Ils diffractent et interfèrent avec eux même, sans qu'il y ait besoin de lentilles
Citation de: rsp le Février 20, 2019, 07:14:17
Tu es sûr de ça ?

C'est un des point de la mécanique quantique qui a posé beaucoup de problèmes aux physiciens. On peut présenter les choses autrement, mais une expérience le prouve effectivement.

rsp

Citation de: pichta84 le Février 20, 2019, 14:51:33
Même en analogique donc, les choses ne sont pas simples : la projection d'une mire sur un film ne donnera jamais une image parfaite, à cause de la nature des photons. Ils diffractent et interfèrent avec eux même, sans qu'il y ait besoin de lentilles
C'est un des point de la mécanique quantique qui a posé beaucoup de problèmes aux physiciens. On peut présenter les choses autrement, mais une expérience le prouve effectivement.
Deux flux de lumière qui se croisent ne se perturbent pas. Je suis curieux de savoir de quelle expérience il s'agit.

Nikojorj

Citation de: Echo le Février 20, 2019, 14:10:44
Faut ,un capteur qui n'est pas assez pixelisé peut très bien ne pas accepter de très bonnes optiques. elles seront médiocres avec 12 Mpx et excellentes avec 20 Mpx.
Là, il va falloir argumenter un peu plus voire donner des exemples!
Je suis tenté de penser que ce que tu dis là est impossible à format égal, il faudrait que la qualité d'image diminue quand on rééchantillonne l'image de 20 à 12MPx, ça gratte un peu.

rsp

Citation de: rsp le Février 20, 2019, 15:12:36
Deux flux de lumière qui se croisent ne se perturbent pas. Je suis curieux de savoir de quelle expérience il s'agit.
J'ai trouvé un article sur le sujet. Rien à voir avec le notre. Ils ont lié des photons après les avoir fait interagir avec un matériau particulier.
Désolé, c'est du hors sujet...

Somedays

#31
Pour montrer que la taille des capteurs n'explique pas tout, voilà une illustration de l'évolution qualitative de la technologie Exmor de Sony (l'un des meilleurs concepteurs de capteurs, sinon le meilleur).
Les générations 1 à 4 sont "Front-illuminated" (toujours exploité), les générations 5 (Exmor R) et 6 (Exmor RS) sont "Back-illuminated" (généralisé sur les smartphones et les compacts, mais de plus en plus présent sur des boîtiers FF).
   
 

 

Somedays

...Et un tableau sur les boîtiers photo équipés en capteurs Exmor/Exmor R/Exmor RS.
Données à faire évoluer.
   
 

               
               
           
Avec aussi les données de Sony sur les gammes actuelles de capteurs:
https://www.sony-semicon.co.jp/products_en/IS/sensor2/products/index.html

pichta84

Citation de: rsp le Février 20, 2019, 07:14:17
Tu es sûr de ça ?
Absolument certain, c'est une des curiosité de la mécanique quantique.

pichta84

Citation de: Jean-Claude le Février 17, 2019, 20:49:49
Ah le contraste n'aurait rien à voir avec le piqué ?

Le piqué c'est bien le microcontraste, grosso modo un test MTF mesure la perte de contraste entre le blanc et le noir des reseaux de mires de différentes finesses.

Oui le piqué est en relation avec la contraste, mais ça va avoir de l'influence sur l'homogénéité plutôt que sur la piqué au central par exemple.
Ok, merci d'avoir relevé l'approximation.

zuiko

Citation de: rsp le Février 20, 2019, 15:12:36
Deux flux de lumière qui se croisent ne se perturbent pas. Je suis curieux de savoir de quelle expérience il s'agit.
Pour mettre en évidence le caractère ondulatoire de la lumière, il y a par exemple l'expérience de Young :
https://fr.wikipedia.org/wiki/Fentes_de_Young
Deux petits trous éclairés par une seule source et on regarde à la sortie de belles franges d'interférences lumineuses.
J'ai eu çà à calculer pour mon BAC C de 1970 et çà ma donné un 18 en physique, c'est pour çà que je m'en souviens  ;)