Quelques reflexions sur la techno Sony.

Démarré par dideos, Janvier 11, 2011, 11:27:46

« précédent - suivant »

dideos

Hello,
On ne peut pas faire le CDS apres l'ADC, pour une raison tres simple : le CDS opere ses soustractions sur des paliers de signaux qui ont une durée plus petite que la période d'un pixel.
Pour faire cela avec la techno conventionnelle, il faudrait que la fréquence d'échantillonnage de l'ADC soit plusieurs dizaines de fois plus grande. C'est irréaliste et en contradiction avec le pb du bruit vs bande passante, d'ou la nécéssité de mettre des convertisseurs colonne.
- Admiral Benson !       - Really ? It's my name too

astrophoto

#201
Citation de: SeRaC le Octobre 29, 2012, 12:09:52
Il y a un tas de domaines que l'on peut encore améliorer ! Le point qui me semble le plus prometteur est le silicium noir (j'en ai déjà parlé sur le forum). En utilisant des lasers impulsionnels à haute intensité pour balayer la surface du silicium, on créé plein d'aspérités de tailles différentes qui ressemblent fortement aux traitements nanocristal et à son pendant chez Canon. Ce faisant, le silicium absorbe bien plus de photons et a une apparence noire à l'œil nu. Les premières applications seront dans le photovoltaïque, mais quand ça sera appliqué aux capteurs photo ça fera mal ! Le rendement quantique devrait exploser littéralement.

Sony fait aujourd'hui des capteurs de rendement quantique (pourcentage de photons arrivant sur la surface du capteur et convertis en électrons) supérieur à 50% sur toute l'étendue du spectre visible (400 à 650 nm), avec pour certains des pics à plus de 70%. Voir les mesures ci-dessous pour des capteurs monochromes CCD et CMOS. Christian Buil avait mesuré des pics de rendement dans le vert sur des Canon 40D/50D/5DII à 35-40%, compte tenu de la présence de la matrice de Bayer ça fait un rendement monochrome dans les 50% probablement.

Le rendement ne pouvant être supérieur à 100% que dans le monde des financiers et non dans celui des physiciens, on gagnera un petit facteur 2 (1 IL), pas plus. Pour rappel, le rendement d'un film argentique n'est que de quelques %.

On peut essayer de jouer sur cette foutue matrice de Bayer qui bouffe énormément de lumière : il faut bien voir que pour de la lumière blanche arrivant sur un photosite recouvert d'un filtre rouge, tout ce qui est bleu et vert est perdu (et idem pour les autres couleurs). On perd donc un facteur 3 en moyenne, et même plus (4 ?) car les filtres sont eux-mêmes absorbants dans leur propre couleur. La techno Foveon était extrêmement séduisante sur le papier mais elle n'a pas été convaincante en pratique.

Après, il ne reste plus qu'à jouer sur le bruit de lecture, là aussi les progrès ont été énormes et ça devient de plus en plus dur de gratter sur des bruits de lecture qui sont aujourd'hui au-dessous de 3 électrons !

Au final, on va buter sur deux murs physiques : d'un côté le rendement quantique qui ne peut être supérieur à 100% (on ne peut pas récolter plus de photons qu'il n'en arrive) et de l'autre le bruit photonique : la lumière est bruitée (les photons arrivent de manière désordonnée, comme de gouttes de pluie) et ce bruit on le voit déjà très bien aujourd'hui dans les images faites en faible lumière à haut iso sur les appareils à très faible bruit de lecture. C'est ce qui fait que la montée en iso ne peut être infinie. Au global il y encore de quoi gratter mais on n'est pas si loin des limites, en fait.

:)

Thierry Legault
astrophoto.fr

Lyr

Citation de: astrophoto le Octobre 29, 2012, 16:02:37
On peut essayer de jouer sur cette foutue matrice de Bayer qui bouffe énormément de lumière : il faut bien voir que pour de la lumière blanche arrivant sur un photosite recouvert d'un filtre rouge, tout ce qui est bleu et vert est perdu (et idem pour les autres couleurs). On perd donc un facteur 3 en moyenne, et même plus (4 ?) car les filtres sont eux-mêmes absorbants dans leur propre couleur. La techno Foveon était extrêmement séduisante sur le papier mais elle n'a pas été convaincante en pratique.

Pas entièrement d'accord avec cette affirmation.

Oui, un photosite d'une capteur à matrice de Bayer ne reçoit qu'une fraction de l'information.
Mais ensuite, au dématriçage, il se fait ajouter l'information de bleu et l'information de rouge, provenant de sites voisins (qui eux aussi n'ont donc reçu qu'une fraction de l'information).
Donc au final, un pixel sera constitué des 30% issus du vert, 30% issus du bleu et 30% issus du rouge, avec un rendement effectif final de 90% (en prenant des valeurs arbitraires comme exemples).

Le prix de ce rendement énorme?

La recomposition agit comme un passe-bas. Mais avec le gain en pixels, son effet est repoussé vers de très hautes fréquences. De plus, les algorithmes tiennent en compte des structures alentour pour ne pas aller interpoler sur un photosite qui serait, à priori, d'un sujet différent.

Tout cela exploite bien sûr des observations usuelles du domaine de l'image, qui est la redondance des informations à courte portée (qui sous-tend la compression jpg, par exemple).

Après, cela ne fonctionnera pas pour tous les cas, genre de l'astro quand un sujet n'éclaire qu'un seul et unique photosite, mais là on arrive à des extrémités du système.

Après tout, les marques qui ont fait des versions sans Bayer (Phase One Achromatic), tout le monde s'attendait à un énorme gain de définition (pas de "lisage de Bayer") ainsi qu'un énorme gain de sensibilité (pas de perte de lumière à chaque photosite à cause des filtres), et au final, le gain était bien moindre qu'attendu, car l'exploitation de la structure de Bayer est faite "au mieux", même s'il y a toujours place à l'amélioration.
http://www.luminous-landscape.com/reviews/cameras/achromatic.shtml

fred134

Citation de: dideos le Octobre 29, 2012, 14:13:54
Hello,
On ne peut pas faire le CDS apres l'ADC, pour une raison tres simple : le CDS opere ses soustractions sur des paliers de signaux qui ont une durée plus petite que la période d'un pixel.
Pour faire cela avec la techno conventionnelle, il faudrait que la fréquence d'échantillonnage de l'ADC soit plusieurs dizaines de fois plus grande. C'est irréaliste et en contradiction avec le pb du bruit vs bande passante, d'ou la nécéssité de mettre des convertisseurs colonne.
Je te remercie pour ta réponse, mais je ne suis pas sûr de comprendre "des paliers de signaux qui ont une durée plus petite que la période d'un pixel". Pourrais-tu expliciter ?
Je comprends bien qu'il faut convertir deux valeurs au lieu d'une dans le même cycle, c'est ce que tu veux dire ? Convertir ces deux valeurs et les transmettre est donc bien pire que compter vers le bas puis vers le haut comme chez Sony ?

(Je me plaçais bien dans l'hypothèse des ADC colonne)

Couscousdelight

Citation de: SeRaC le Octobre 29, 2012, 12:09:52
Il y a un tas de domaines que l'on peut encore améliorer ! Le point qui me semble le plus prometteur est le silicium noir(...)

Il y aurait aussi les polymères photodétecteurs qui promettent à peu près les mêmes perfs que le black silicon :
http://image-sensors-world.blogspot.fr/2010/07/polymer-photodetectors-as-black-silicon.html
Ils avancent une dynamique de 130Db  ::)

fred134

Citation de: Lyr le Octobre 29, 2012, 16:22:41
Oui, un photosite d'une capteur à matrice de Bayer ne reçoit qu'une fraction de l'information.
Mais ensuite, au dématriçage, il se fait ajouter l'information de bleu et l'information de rouge, provenant de sites voisins (qui eux aussi n'ont donc reçu qu'une fraction de l'information).
Donc au final, un pixel sera constitué des 30% issus du vert, 30% issus du bleu et 30% issus du rouge, avec un rendement effectif final de 90% (en prenant des valeurs arbitraires comme exemples).
Sauf que chaque couleur n'occupe qu'une fraction de la surface du capteur. La lumière rouge qui arrive sur un pixel vert est bien perdue.

astrophoto

Citation de: Lyr le Octobre 29, 2012, 16:22:41
Oui, un photosite d'une capteur à matrice de Bayer ne reçoit qu'une fraction de l'information.
Mais ensuite, au dématriçage, il se fait ajouter l'information de bleu et l'information de rouge, provenant de sites voisins (qui eux aussi n'ont donc reçu qu'une fraction de l'information).
Donc au final, un pixel sera constitué des 30% issus du vert, 30% issus du bleu et 30% issus du rouge, avec un rendement effectif final de 90% (en prenant des valeurs arbitraires comme exemples).

Petite histoire : tu vas dans ton restaurant préféré et tu prends le menu à 30 euros qui comporte une douzaine d'huitres, une entrecôte de 300g et 3 boules de glace. On te sert 4 huitres. une entrecôte de 100g et une seule boule de glace. A la fin du repas, on te présente une addition de 30 euros. Normal te dit le restaurateur, tu as eu 100% (1/3 + 1/3 + 1/3) d'un repas complet. Tu marches dans sa combine ?   ;D

Dit autrement : (30+30+30) divisé par (100+100+100) ça ne fait toujours que 30%, pas 90%.

Quel que soit le bout par lequel on prend les choses, sur 100 photons de toutes couleurs arrivant sur une matrice de Bayer traditionnelle, plus de 70 en moyenne sont éliminés rien que par la matrice. Ca influe directement sur le rapport signal sur bruit en le dégradant de manière significative. Et toutes les tambouilles du monde au dématriçage n'y changeront rien  ;)
Thierry Legault
astrophoto.fr

dideos

Citation de: fred134 le Octobre 29, 2012, 16:35:07
Je te remercie pour ta réponse, mais je ne suis pas sûr de comprendre "des paliers de signaux qui ont une durée plus petite que la période d'un pixel". Pourrais-tu expliciter ?
Je comprends bien qu'il faut convertir deux valeurs au lieu d'une dans le même cycle, c'est ce que tu veux dire ? Convertir ces deux valeurs et les transmettre est donc bien pire que compter vers le bas puis vers le haut comme chez Sony ?

(Je me plaçais bien dans l'hypothèse des ADC colonne)
Il y a deux cas de figure.
Dans le cas Canon ou il n'y a qu'une (ou jusqu'a 4) sorties il faut un ADC rapide , de type flash. C'est lourd, cher, ca consomme un max.. on ne peut pas en mettre un par colonne.
Si on garde le principe d'une seule (ou 4) sortie il faut penser aussi a l'amplification. Un gain x2, un bit de plus. Si on veut un gain de 256 pour faire 25k6 ISO, il faut 8 bits de plus + 1 bit pour la couleur, + 1 bit de marge pour le traitement. On va dépasser les 20 bits la.... avec un convertisseur flash, je le sens pas bien du tout :).
De plus , dans le domaine temporel il faut a mon avis beaucoup plus que le double de résolution, il faut pouvoir jouer sur la phase des pulses d'échantillonnage.
La solution Sony (d'origine IBM) est la plus astucieuse. Les convertisseurs a rampe sont plus lents mais plus précis, ils font tout en meme temps. Le gain est fait simplement en jouant sur la pente de la rampe.
Donc, en résumé :
- de 1 a 4 sorties , convertisseur flash obligatoire
- si un convertisseur par colonne, convertisseur a rampe.
Je parle pour des capteurs type appareil photo ou video, pour des capteurs plus petits ca peut se passer autrement.
- Admiral Benson !       - Really ? It's my name too

Lyr

Citation de: fred134 le Octobre 29, 2012, 16:48:57
Sauf que chaque couleur n'occupe qu'une fraction de la surface du capteur. La lumière rouge qui arrive sur un pixel vert est bien perdue.

Et aussi pour Astrophoto: en effet, la lumière sur un photosite est perdue, mais l'information, de part la redondance à courte portée, est suffisamment conservée que pour maintenir une finesse d'image énorme par rapport à ce qu'on imaginerait comme pertes avec un tel système "barbare". De nouveau, voir la comparaison Phase One Achromatic ou non.

dideos

Citation de: astrophoto le Octobre 29, 2012, 17:30:28
Petite histoire : tu vas dans ton restaurant préféré et tu prends le menu à 30 euros qui comporte une douzaine d'huitres, une entrecôte de 300g et 3 boules de glace. On te sert 4 huitres. une entrecôte de 100g et une seule boule de glace. A la fin du repas, on te présente une addition de 30 euros. Normal te dit le restaurateur, tu as eu 100% (1/3 + 1/3 + 1/3) d'un repas complet. Tu marches dans sa combine ?   ;D

Dit autrement : (30+30+30) divisé par (100+100+100) ça ne fait toujours que 30%, pas 90%.

Quel que soit le bout par lequel on prend les choses, sur 100 photons de toutes couleurs arrivant sur une matrice de Bayer traditionnelle, plus de 70 en moyenne sont éliminés rien que par la matrice. Ca influe directement sur le rapport signal sur bruit en le dégradant de manière significative. Et toutes les tambouilles du monde au dématriçage n'y changeront rien  ;)

Et en plus t'as le filtre IR qui te prend les 5% de TVA (a moins que ca soit 12) !!!
- Admiral Benson !       - Really ? It's my name too

astrophoto

Citation de: Lyr le Octobre 29, 2012, 17:48:47
Et aussi pour Astrophoto: en effet, la lumière sur un photosite est perdue, mais l'information, de part la redondance à courte portée, est suffisamment conservée que pour maintenir une finesse d'image énorme par rapport à ce qu'on imaginerait comme pertes avec un tel système "barbare". De nouveau, voir la comparaison Phase One Achromatic ou non.

On ne parle pas d'information mais de rapport signal/bruit (bon d'accord les deux peuvent être liés mais quand même). Rien ne peut compenser une perte de signal (photons), c'est bien pour ça que les constructeurs cherchent par tous les moyens à améliorer le rendement quantique (par exemple par amélioration de la couverture des microlentilles). Et on ne peut pas considérer qu'il est à la fois profitable de récupérer plus de signal grâce à de meilleurs microlentilles et pas gênant d'en perdre à cause de la matrice de Bayer !   ;)

Quant à la comparaison de Luminous Landscape, pour utiliser les deux types de capteurs (monochrome et couleur), elle me laisse sceptique.
Thierry Legault
astrophoto.fr

vianet

On ne peut pas récolter plus de photons qu'il n'en arrive, astrophoto,  mais avec le silicium noire, on peut jouer sur un effet photomultiplicateur. Le problème est que c'est délicat à gérer sur des capteurs qui ne soient pas liliputiens. C'est pour celà qu'effectivement on note une certaine stagnation.

Pour le moment du moins. ;)
Déclenchite en rafale!

vianet

Pour les autres, notamment les nanopolymères, leur fabrication au stade industriel (notamment le coating mais pas seulement) n'est pas du tout au point sur le plan technique. Et les coûts de fabrication seraient énormes.

Pour l'instant, on travaille avec les anciennes technos et les industriels restent morts devant les relances qui leurs sont faites en ce sens, et même à la présentation de petits génies en qui ils devraient accorder sinon une certaine confiance, au moins un certain crédit. ::) ;D

Du coup, si progrès il y a, je le vois encore très graduel et très prudent pour les prochaines années. Mais j'espère evidemment me tromper.
A +
Déclenchite en rafale!

ddi

Citation de: VOLAPUK le Octobre 28, 2012, 22:23:42
J'ai pris en mais le nouveau 16 50 2,8 au sony store pour les nex. Sans présager de ses qualités optiques, c'est juste une cata à utiliser... ???

[HS]
Sauf erreur de ma part ... cet objectif n'existe tout simplement  pas pour les nex.comment diable as-tu pu le prendre en main ?  ???
[fin du HS]

astrophoto

Citation de: vianet le Octobre 29, 2012, 21:10:44
On ne peut pas récolter plus de photons qu'il n'en arrive, astrophoto,  mais avec le silicium noire, on peut jouer sur un effet photomultiplicateur.

Tu veux parler d'EMCCD ? Quel est le rapport avec le silicium noir ? Il y a un effet inhérent au silicium ?
Thierry Legault
astrophoto.fr

VOLAPUK

Citation de: ddi le Octobre 29, 2012, 22:33:19
[HS]
Sauf erreur de ma part ... cet objectif n'existe tout simplement  pas pour les nex.comment diable as-tu pu le prendre en main ?  ???
[fin du HS]

16 50 f/3,5-5,6

Lyr

Citation de: astrophoto le Octobre 29, 2012, 17:54:36
On ne parle pas d'information mais de rapport signal/bruit (bon d'accord les deux peuvent être liés mais quand même). Rien ne peut compenser une perte de signal (photons), c'est bien pour ça que les constructeurs cherchent par tous les moyens à améliorer le rendement quantique (par exemple par amélioration de la couverture des microlentilles). Et on ne peut pas considérer qu'il est à la fois profitable de récupérer plus de signal grâce à de meilleurs microlentilles et pas gênant d'en perdre à cause de la matrice de Bayer !   ;)

Quant à la comparaison de Luminous Landscape, pour utiliser les deux types de capteurs (monochrome et couleur), elle me laisse sceptique.


Ok, le signal bruit. Mais à moins de faire du monochrome, il te faut récupérer quelque part uniquement le signal vert. Et le signal rouge. Et le signal bleu.

Donc là, c'est au filtre de laisser passer 100% du bleu (et 0% des deux autres), c'est la déviation par rapport à ce 100% qui gouverne le rapport signal/bruit.
Chaque photosite aura donc son SNR par rapport à cette norme.
Et la partie "rouge" d'un photosite vert étant calculée par rapport aux adjacents, le SNR du canal rouge d'un photosite vert sera égal au SNR des environs (et l'effet "passe bas" de la reconstitution du Bayer doit filtrer une partie du bruit, en fait).

De nouveau, on en perd, 2/3 sur chaque photosite au minimum, mais l'information perdue étant récupérée par la redondance à courte portée, ce n'est plus "perdu".

Aux artefacts et besoins de filtre passe-bas anti-aliasing près, mais ça c'est un autre point que le rendement lumineux.

fred134

Citation de: dideos le Octobre 29, 2012, 17:48:00
Il y a deux cas de figure.
Dans le cas Canon ou il n'y a qu'une (ou jusqu'a 4) sorties il faut un ADC rapide , de type flash. C'est lourd, cher, ca consomme un max.. on ne peut pas en mettre un par colonne.
Si on garde le principe d'une seule (ou 4) sortie il faut penser aussi a l'amplification. Un gain x2, un bit de plus. Si on veut un gain de 256 pour faire 25k6 ISO, il faut 8 bits de plus + 1 bit pour la couleur, + 1 bit de marge pour le traitement. On va dépasser les 20 bits la.... avec un convertisseur flash, je le sens pas bien du tout :).
De plus , dans le domaine temporel il faut a mon avis beaucoup plus que le double de résolution, il faut pouvoir jouer sur la phase des pulses d'échantillonnage.
La solution Sony (d'origine IBM) est la plus astucieuse. Les convertisseurs a rampe sont plus lents mais plus précis, ils font tout en meme temps. Le gain est fait simplement en jouant sur la pente de la rampe.
Donc, en résumé :
- de 1 a 4 sorties , convertisseur flash obligatoire
- si un convertisseur par colonne, convertisseur a rampe.
Je parle pour des capteurs type appareil photo ou video, pour des capteurs plus petits ca peut se passer autrement.
Je te remercie.
Ce que je me demande, c'est si pour un convertisseur colonne, on ne peut pas convertir successivement l'offset et le signal (+offset), transmettre les deux, et faire le CDS en aval, en dehors du capteur. Ma question est peut-être idiote (désolé, je ne suis pas spécialiste), mais elle est motivée par ta phrase sur les brevets concernant le CDS numérique. (brevet IBM, j'ai effectivement vu ça sur Google...)

Autre question, puisqu'on est dans les "évolutions techno" : une évolution potentielle serait la lecture de plusieurs cycles de charge d'un pixel au cours de l'exposition, afin d'étendre la dynamique par le haut. Cette technologie est-elle encore très lointaine ?

ddi

Citation de: VOLAPUK le Octobre 30, 2012, 00:03:20
16 50 f/3,5-5,6
on attendra un test "sérieux" pour s'en faire une idée plus précise ...  ;)

astrophoto

Citation de: Lyr le Octobre 30, 2012, 00:11:50
Ok, le signal bruit. Mais à moins de faire du monochrome, il te faut récupérer quelque part uniquement le signal vert. Et le signal rouge. Et le signal bleu.

Donc là, c'est au filtre de laisser passer 100% du bleu (et 0% des deux autres), c'est la déviation par rapport à ce 100% qui gouverne le rapport signal/bruit.
Chaque photosite aura donc son SNR par rapport à cette norme.
Et la partie "rouge" d'un photosite vert étant calculée par rapport aux adjacents, le SNR du canal rouge d'un photosite vert sera égal au SNR des environs (et l'effet "passe bas" de la reconstitution du Bayer doit filtrer une partie du bruit, en fait).

De nouveau, on en perd, 2/3 sur chaque photosite au minimum, mais l'information perdue étant récupérée par la redondance à courte portée, ce n'est plus "perdu".

Aux artefacts et besoins de filtre passe-bas anti-aliasing près, mais ça c'est un autre point que le rendement lumineux.

Imagine la situation suivante. Tu as deux capteurs, A et B. Le capteur A est classique, à matrice de Bayer. Le B est identique à A (même nombre et la même taille de photosite) mais sans les filtres de Bayer. Par un artifice quelconque, il sait différencier les photons rouges, verts et bleus (un genre de Foveon qui aurait tenu toutes ses promesses, en quelque sorte   :)). Pour développer le fichier raw de B, tu peux évidemment le faire directement, sans interpolations. Mais tu peux aussi faire la manip suivante : tu plaques dessus une matrice de Bayer virtuelle (motif précis à définir, soit identique à celui de A soit autre) et tu fais des regroupements du contenu des photosites adjacents par couleur. Par exemple, les infos rouges de 4 photosites en carré sont sommées. Un genre de binning finalement. On revient donc à la situation d'un fichier raw issu d'un capteur à matrice de Bayer, type capteur A. Que tu peux développer comme tu le fais avec un raw de A. Si je suis ton raisonnement, la perte est quasi négligeable car logée dans les très hautes fréquences, et de toute façon il y a pléthore de pixels. Sauf que...ton image finale de B a trois fois plus de signal (en moyenne) que celle de A, et donc un rapport signal sur bruit significativement plus élevé. Dit autrement : tu peux poser trois fois plus court avec B qu'avec A pour une qualité d'image équivalente.

Encore une fois, imaginer que perdre un facteur trois sur la quantité de lumière reçue globalement par le capteur (il faut raisonner en global plutôt qu'en local) c'est quasiment sans effet perceptible, alors que les constructeurs s'évertuent à gagner quelques pourcents avec des microlentilles placées comme ceci ou des transistors placés comme cela, pour moi ça tient de la pensée magique (ou de la pensée marketing, ce qui revient au même ;)). Ca se paye forcément quelque part, "there is no free lunch" comme disent les anglo-saxons   :D
Thierry Legault
astrophoto.fr

geo444

Citation de: astrophoto le Octobre 30, 2012, 08:09:55
... un CMos sans Filtre de Bayer... qui saurait différencier les photons Rouges, Verts et Bleus...
= un genre de Foveon qui aurait tenu toutes ses promesses, en quelque sorte...
c'est certain que le si le FauxVeon se transformait en VraiVeon... ce serait Super !   ;)

... mais pour l'instant, fabriqué par Sigma, il Sépare Très Mal les Couleurs

Noter que c'est Sony qui dépose le + de Brevets la dessus...

.

dideos

Citation de: fred134 le Octobre 30, 2012, 00:34:05
Je te remercie.
Ce que je me demande, c'est si pour un convertisseur colonne, on ne peut pas convertir successivement l'offset et le signal (+offset), transmettre les deux, et faire le CDS en aval, en dehors du capteur. Ma question est peut-être idiote (désolé, je ne suis pas spécialiste), mais elle est motivée par ta phrase sur les brevets concernant le CDS numérique. (brevet IBM, j'ai effectivement vu ça sur Google...)

Autre question, puisqu'on est dans les "évolutions techno" : une évolution potentielle serait la lecture de plusieurs cycles de charge d'un pixel au cours de l'exposition, afin d'étendre la dynamique par le haut. Cette technologie est-elle encore très lointaine ?
Tu veux dire, plutot que de faire la conversion et le CDS en une passe avec un compteur/decompteur, faire une premiere pour le NN, stocker le resultat dans un buffer, RAZ le compteur, une deuxieme pour le signal video, stocker le resultat, puis faire la soustraction apres dans le digic. Oui, on peut ca reviendrait au meme. Ca serait juste un peu moins rapide.
Pour la deuxieme il y a plusieurs approches. Capteur lineaire vs capteur log
Un petit article interessant
www.mesures.com/archives/828-vision-capteur-HDR.pdf
- Admiral Benson !       - Really ? It's my name too

pauldenice

Parmi les innovations Sony parfois reprises par d'autres marques, on doit en signaler deux qui ont considérablement amélioré la quelité des images, en particulier sur les Compacts et le bridges:

Les capteurs rétroéclairés qui permettent d'obtenir sur compacts et bridges des images d'une qualité s'approchant, dans certaines conditions de celles de reflex bas et moyenne gamme.
http://www.presence-pc.com/actualite/capteur-BSI-Sony-29870/

L'autre innovation a été l'invention du zoom numérique , dit zoom intelligent permettant de garder une qualité d'image plus qu'acceptable même en utilisant le zoom numérique.
A ma connaissance ces deux technologies ne sont pas utilisées sur des boitiers reflex APSC ou plein format.
Question:
A quand donc des reflex équipés de capteurs rétroéclairés et de zoom intelligents?

J'ai cru un moment que c'était le cas avec mon Sony Alpha 65, mais c'était seulement que le recadrage sur une image de 24 millions de pixels donne encore une image très bonne.
Il s'agit bien de recadrage et non de zoom intelligent car la tailles des image passe de 6000x4000 à 3000 x 2000

Alors qu'avec le zoom intelligent la taille des images reste la même qu'au zoom optique (en tout cas avec mon Canon SX 40 HS: 4000x 3000 en zoom optique et encore 4000x 3000 en ajoutant le zoom optique 2X ou même 4X

Imaginez ce que ça donnerait sur un reflex équipé d'un capteur APSC ?
Il est possible que les grandes marques veuillent garder ces améliorations pour une prochaine génération d'appareils reflex.

Paul
Sony Alpha65+16-105mm+10-24mm

dideos

#223
Pour l'approche capteur linéaire avec expo a géométrie variable au voisinage de la saturation, AVT fait des caméras de ce type .
Voir ce doc pages 154-158
www.alliedvisiontec.com/.../Guppy/Guppy_TechMan_V7.1.0_en.pdf
Si le lien direct ne marche pas, faire support/tech manuals/guppy techman V7.1.0.
Le doc est interessant en gl, il décrit plein de trucs de principe (dematricage, hdr, binning, ...)
- Admiral Benson !       - Really ? It's my name too

Lyr

Citation de: astrophoto le Octobre 30, 2012, 08:09:55
Imagine la situation suivante. Tu as deux capteurs, A et B. Le capteur A est classique, à matrice de Bayer. Le B est identique à A (même nombre et la même taille de photosite) mais sans les filtres de Bayer. Par un artifice quelconque, il sait différencier les photons rouges, verts et bleus (un genre de Foveon qui aurait tenu toutes ses promesses, en quelque sorte   :)). Pour développer le fichier raw de B, tu peux évidemment le faire directement, sans interpolations. Mais tu peux aussi faire la manip suivante : tu plaques dessus une matrice de Bayer virtuelle (motif précis à définir, soit identique à celui de A soit autre) et tu fais des regroupements du contenu des photosites adjacents par couleur. Par exemple, les infos rouges de 4 photosites en carré sont sommées. Un genre de binning finalement. On revient donc à la situation d'un fichier raw issu d'un capteur à matrice de Bayer, type capteur A. Que tu peux développer comme tu le fais avec un raw de A. Si je suis ton raisonnement, la perte est quasi négligeable car logée dans les très hautes fréquences, et de toute façon il y a pléthore de pixels. Sauf que...ton image finale de B a trois fois plus de signal (en moyenne) que celle de A, et donc un rapport signal sur bruit significativement plus élevé. Dit autrement : tu peux poser trois fois plus court avec B qu'avec A pour une qualité d'image équivalente.

Encore une fois, imaginer que perdre un facteur trois sur la quantité de lumière reçue globalement par le capteur (il faut raisonner en global plutôt qu'en local) c'est quasiment sans effet perceptible, alors que les constructeurs s'évertuent à gagner quelques pourcents avec des microlentilles placées comme ceci ou des transistors placés comme cela, pour moi ça tient de la pensée magique (ou de la pensée marketing, ce qui revient au même ;)). Ca se paye forcément quelque part, "there is no free lunch" comme disent les anglo-saxons   :D


En effet, partir d'un fovéon idéal pour le "transformer" en Bayer signifie effacer une série d'infos, et les reconstruire, par endroits, par des infos alentours, donc une sorte de binning (mais plus évolué que fenêtre glissante, il est directionnel selon la pente de l'information alentour, il tient compte des formes pour ne pas binner sur des zones non relevantes).

Mais oui, il y a de la lumière perdue localement, mais globalement, elle est "reconstruite" par interpolation (et sur chaque pixel, tu n'interpoles que les 2/3 des infos, donc tu gardes toujours du détail original), donc il n'y a pas de perte de lumière, vu que la valeur de rouge assignée à un photosite vert est plus ou moins celle qu'on aurait eue sans le filtre vert (de nouveau, hypothèse de redondance à courte portée, ou notion du fait que cela fonctionne très très bien avec les basses fréquences, pas avec les fréquences hautes, proches du pas du réseau).

De nouveau, oui, il y a des pertes, mais pas en "sensibilité", vu que l'information reconstruite vient bien d'un SNR le plus élevé possible quand les filtres sont bien faits, mais plutôt en hautes fréquences, et encore, les algorithmes de dématriçages ont fait des progrès par rapport aux premiers papiers de Bayer.

Si ce n'était pas le cas, l'écart entre le Fovéon et le Bayer serait plus grand que celui constaté, de même que l'écart entre le capteur Bayer et son équivalent monochrome (Leica a fait pareil récemment, d'ailleurs, Phase One n'est pas le seul à vendre un même capteur avec et sans filtres de Bayer).