Question sur photocites et capteur.

Démarré par Daniel APC, Mai 05, 2015, 22:36:19

« précédent - suivant »

Daniel APC

Les photocites du capteur "voient" en N&B, on filtre donc via une matrice de Bayer pour les rendre sensibles au RVB. Le dématriçage permet d'extrapoler les valeurs RVB manquantes pour obtenir une image couleur qui aura un nombre de pixels a peu près identiques au nombre de photocites du capteur. OK pour tout çà... La question est la suivante: Y a t-il, une impossibilité théorique ou technique à récupérer directement les valeurs RVB ou VRBV après le filtrage correspondant, par groupe de 3 ou 4 photosites pour créer un seul pixel sans interpolation quitte à diviser la définition par 3 ou 4 ?

seba

Photosite avec un "s".
Après dématriçage, le nombre de pixels est égal au nombre de photosites utiles (il y a un peu plus de photosites aux bords du capteur, je ne sais plus pour quelle raison).
On pourrait bien sûr prendre des groupes de 3 ou 4  photosites pour faire un pixel sans dématriçage mais alors la définition serait divisée par 3 ou 4.
C'est un peu ce qui se passe avec les capteurs Fovéon où les photosites ne sont pas juxtaposés mais superposés (3 photosites pour 1 pixel).

Daniel APC

désolé pour le c, ça risque de me poursuivre toute ma vie... Un gros coup de fatigue, j'aurais du me relire. Bon le but de cette question était de mieux comprendre la genèse du ccd. En effet le premier ccd commercialisé était en noir et blanc (100x100 px), ce qui est logique, donc pour moi la logique suivante la plus rudimentaire, c'était d'effectivement filtrer les photoSites en rvb et de créer un pixel à minima avec les 3 composantes RVB. Donc de construire une image couleur sans interpolation qui divise effectivement la résolution d'un CCD N&B par 3. (Je pense qu'à l'époque le principal était d'accéder à la couleur) Hors je n'ai pas de trace historique de cette démarche et à priori l'interpolation avec la matrice de Bayer semble avoir été la première solution éprouvée pour la couleur.
Interpolation qui nécessite des moyens de calculs qui je suppose étaient réduits à l'époque... Donc c'est un peu la recherche du chainon manquant selon moi et je voulais savoir si quelque part ma question était légitime ou si un élément lié aux possibilités techniques m'avait complétement échappé... (Ce qui est très vraisemblable)

seba

Je ne sais pas du tout.
Comment ça se passe pour la vidéo numérique ?
Et en vidéo analogique ?
Et pour la photo électronique analogique ?

Daniel APC

Ce qui m'étonne c'est qu'historiquement (J'ai cherché pas d'autres infos sur le net) on passe directement du ccd N&B au ccd Interpolé avec matrice de Bayer ce qui me parait être un saut technique énorme. D'un autre coté vu mes lacunes techniques il était peut-être évident d'évoluer aussi rapidement en ce sens... et je pose la question à qui c'est qui sait, si jamais il est encore en vie et sur le forum... Voilà c'est une question sans prétentions et si il n'y a pas de réponse, je m'en accommoderai, je reconnais qu'il peut y avoir des questions plus essentielles... In fine c'est plus une question de logique, et ce que je teste c'est la pertinence de ma logique ou de mes maigres ressources techniques.

Nikojorj

Citation de: Daniel APC le Mai 06, 2015, 10:44:17
Ce qui m'étonne c'est qu'historiquement (J'ai cherché pas d'autres infos sur le net) on passe directement du ccd N&B au ccd Interpolé avec matrice de Bayer ce qui me parait être un saut technique énorme.
Plusieurs raisons à vue de nez :
- d'une part on était quand même un peu juste en résolution alors on n'allait pas la diviser par deux,
- il y a surtout l'intuition géniale de Bryce Bayer, qu'on a moins besoin de résolution en couleur qu'en luminance, et c'est ça qui fait l'efficacité de ce type de capteur.

jaric

Pour la video, la plupart des caméras étaient tri-CCD, la séparation des couleurs se faisait donc en amont de manière optique (avec prismes + filtres).

seba

Citation de: jaric le Mai 06, 2015, 11:05:00
Pour la video, la plupart des caméras étaient tri-CCD, la séparation des couleurs se faisait donc en amont de manière optique (avec prismes + filtres).

Le caméras sont mono-CCD maintenant ? Au moins les appareils photo qui filment.

jaric

La plupart oui; il y en a encore qui utilisent 3 capteurs (per ex. JVC), mais maintenant ce sont des CMOS.

Daniel APC

Citation de: Nikojorj le Mai 06, 2015, 10:59:31
Plusieurs raisons à vue de nez :
- d'une part on était quand même un peu juste en résolution alors on n'allait pas la diviser par deux,
- il y a surtout l'intuition géniale de Bryce Bayer, qu'on a moins besoin de résolution en couleur qu'en luminance, et c'est ça qui fait l'efficacité de ce type de capteur.
+1
J'ai poursuivi mes recherches sur les sites de langue anglaise, pour trouver çà concernant justement la découverte de Bryce Bayer:
http://www.imaging-resource.com/news/2012/11/20/bryce-bayer-who-created-bayer-filter-for-digital-cameras-has-died

The three color filters in Bayer's array are needed to create color from the greyscale image information that's captured by the imaging chip. Prior to Bayer's invention, three separate sensors attached to a beam splitter were required to capture a color image but that set-up was too large and expensive to find mass appeal.

"D'où il ressort qu'effectivement avant l'invention de Bayer, une solution à 3 capteurs avec prisme séparateur existait mais abandonnée car trop chère et encombrante pour un marché de masse en photo."

Cette solution avait été employée en tout premier lieu pour les caméras tri ccd,  et c'est partant de cet existant que la recherche pour la photo a été orientée. On était donc déjà dans la course au pixel ( A juste titre puisque la définition très moyenne de l'époque nécessitait un triple capteur) et donc effectivement la réduction par 3 de la définition n'était pas envisageable. La découverte de Brice Bayer a permis de s'affranchir de l'étape intermédiaire de 3 photosites pour un pixel couleur,  en permettant directement d'exploiter un ccd monochrome. A ce titre effectivement sa contribution à la photo numérique a tout simplement été essentielle. (Donc hommage à titre posthume)

Je pense qu'on peut dire que le sujet est clos, merci de votre participation.

tkosak

Une petite précision toutefois : il me semble que la matrice de Bayer c'est 4 photosites pour un pixel (deux verts pour un rouge et un bleu).

Daniel APC

Tout à fait, c'est pour ça que dans ma première question je parlais de RVB et VRBV et d'une division de la résolution par 3 ou 4 selon. On doit à Bryce Bayer entre autres cette idée novatrice d'avoir intégré dans sa mosaïque une composante supplémentaire de Vert, pour se rapprocher le plus de la vision humaine, plus sensible dans ce spectre. En cela il se sert également des travaux de Alda Bedford qui avait développé dans les années 50 les bases du sous-échantillonnage de la chrominance pour la télévision.

gerarto

Citation de: tkosak le Mai 06, 2015, 14:10:28
Une petite précision toutefois : il me semble que la matrice de Bayer c'est 4 photosites pour un pixel (deux verts pour un rouge et un bleu).

Nan...

Définitivement :
1 Photosite sur le capteur = 1 pixel image

Daniel APC

Effectivement, la matrice de Bayer est une grille répétitive VRVB qui sert à l'interpolation des valeur RVB manquantes en s'appuyant sur la valeur retournée par un photosite, mais en analysant également la répartition spectrale des photosites adjacents ce qui permet de simuler et attribuer une information trichrome à chaque photosite. Donc suite à l'interpolation 1 photosite = 1 pixel.

Daniel APC

Je répondais dans le fil de ma question, si on avais pas mis en place le process d'interpolation et prenant en compte la variable supplémentaire de vert il aurait fallu 4 photosites pour 1 pixel. Dans l'état de l'art, 1 photocite = 1 pixel (Sauf peut-être pour le Foevon).


vob

Il y a eu au moins un appareil 3 CCD , le minolta RD175 et effectivement il était très encombrant (paradoxalement pas forcement plus encombrant que certains concurents de la même époque, la présence d'un groupe optique pour pouvoir utiliser les optiques 24x36 sur des petits capteurs n'y probablement pas étranger ) mais là encore il y interpolation pour les couleurs car il utilisait 2 ccd pour le vert et 1 unique ccd pour le rouge et le bleu.

Pour s'abstenir d'interpoler avec une matrice de bayer et pour des sujets statiques, il y la solution utilisée par Pentax sur son nouveau K3II et probablement sur son futur 24x36 d'exposer chaque point image quatre fois par déplacements successifs du capteur d'un pas de un pixel. A rapprocher de la solution déja utilisée par Olympus pour augmenter à la fois la résolution spaciale et en chromie.
Ritax et Pencoh(pleins)

Daniel APC


Théo Courant

Citation de: vob le Mai 06, 2015, 20:39:24
Pour s'abstenir d'interpoler avec une matrice de bayer et pour des sujets statiques, il y la solution utilisée par Pentax sur son nouveau K3II et probablement sur son futur 24x36 d'exposer chaque point image quatre fois par déplacements successifs du capteur d'un pas de un pixel. A rapprocher de la solution déja utilisée par Olympus pour augmenter à la fois la résolution spaciale et en chromie.

Le capteur ne se déplace pas avec son filtre ?
Il me semble qu'il y a eu un dos pro dont le filtre se déplaçait 3 fois d'un pixel. Ce qui excluait aussi les photos instantanées.
Il y a eu aussi des systèmes avec tourelle de filtres devant l'objectif et il me semble 2 expositions sur le vert.

vob

Le capteur se déplace avec son filtre.
Si le filtre restait en place avec le capteur qui se déplace derrière cela ne servirait à rien, chaque point de l'image projetée sur le capteur aurait toujours la même couleur quelquesoit le photosite positionné derrière le filtre.
Ritax et Pencoh(pleins)

Verso92


pichta84

Hasselblad a sorti aussi un moyen format (capteur 50 millons de pixels) qui se déplace d'un photosite 4 fois pour supprimer l'interpolation et fournir un fichier de 50 millions de pixels en 3 couleurs.
Pour  bien enfoncer le clou, ils ont aussi proposé sur ce même appareil, des déplacement sur 6 ou 8 pixels ou 1/2 pixels pour atteindre des résolutions de 200 millions de pixels, mais là avec calcul d'interpolation.

Toutes les explications sur leur site : hasselblad.com/ (enfin presque le PDF n'existe plus)
ou ici : http://www.lemondedelaphoto.com/Hasselblad-H5D-200c-MS-six-images,9885.html

fred134

Pour la question de départ, si on regroupait simplement 4 photosites pour faire un pixel (sans interpolation plus évoluée), il y aurait un décalage spatial entre les différentes couleurs. Cela produirait certainement quelques artefacts.
Ce n'est pas l'inconvénient principal, mais je le mentionne quand même...