Finalement la correspondance photosite et pixel n'est pas morte?

Démarré par jlthirot, Février 02, 2010, 18:12:32

« précédent - suivant »

jlthirot

Bonjour,
Voilà quelques jours que j'ai une discussion avec un verso92 qui me soutient que 1 photosite = 1 pixel.
Je croyais dans ma tête que cette question était réglée est accepté comme étant un grand n'importe quoi marketing.
Mais voici que Verso92 et d'autres me mettent le doute.
Est-ce que cette correspondance à une réalité scientifique technique industrielle ?
Si oui à quoi correspond cette correspondance et quelle est sa définition ?
Comment justifie t'on cette correspondance ? Sachant que les pixels fournis ne sont pas de la même qualité d'un capteur à l'autre.
A l'extrème un dos numérique de type scanner a très peu de photosites mais utilise le déplacement pour compenser cette faiblesse.

cagire

Je ne sais pas à quelle discussion tu fais allusion mais 1 photosite ne correspond pas à 1 pixel.
Le photosite capte la lumière, le pixel est l'élément de l'image numérique.
Avec un capteur à matrice de Bayer il faut 4 photosites (2 dédiés au vert, 1 au bleu et un au rouge) pour constituer 1 pixel.

A ma connaissance...

Verso92

Citation de: cagire le Février 02, 2010, 18:36:52
Je ne sais pas à quelle discussion tu fais allusion mais 1 photosite ne correspond pas à 1 pixel.

La discussion est ici :
http://www.chassimages.com/forum/index.php/topic,72788.msg1259529.html#msg1259529

J'ai essayé de persuader jlthirot qu'un pixel image d'un capteur "bayer" était fabriqué à partir d'un photosite, qui enregistre la couleur pour laquelle il est filtré, et que les deux autres couleurs sont interpolées à partir des valeurs enregistrées par les photosites voisins filtrés dans les couleurs correspondantes.

D'autre part, j'ai essayé de le convaincre qu'un pixel sur une photo issue d'un capteur Foveon est fabriqué à partir de trois photosites (un par couleur primaire), et que donc les 4.7 MPixels d'un Foveon correspondent à 3 x 4,7 millions de photosites.

Les Sigma ne délivrent donc pas des images de 14 MPixels, mais de 4,7 MPixels, alors qu'un D700, par exemple, délivre des images de 12 MPixels, même s'il procède à une interpolation sur les couleurs...

Mais j'ai beau reformuler de différentes façons, j'ai du mal à me faire comprendre...

dioptre

Prenons un appareil numérique donné pour 8 mégapixels. Cela signifie qu'il y a 8 méga photosites. Sur ces 8 méga photosites il y en a  2 millions pour le rouge, 4 millions pour les deux verts et 2 millions pour le bleu. Puisque Bayer c'est 1 R + 2 V + 1 B.
En imaginant des lumières rigoureusement monochromatiques. Pour une lumière bleue par exemple il y aurait une définition de 2 megapixels. En fait il n'y a pas dans la nature de lumière monochromatique et l'apn bidouille et interpole sur les photosites adjacents.

C'est comme cela que je vois les choses, mais... ?

Nikojorj

#4
Citation de: jlthirot le Février 02, 2010, 18:12:32
Est-ce que cette correspondance à une réalité scientifique technique industrielle ?
A peu de choses près, oui (en sus de toute la littérature spécialisée sur le sujet, on en trouve un peu citée dans cette page qui date déjà un peu -pareil que le débat- par exemple).
Tiens, pas mal d'infos chez les astronomes aussi on dirait.

Le principe d'avoir moins de résolution en chrominance qu'en luminance est d'ailleurs d'autant plus acceptable que :
- d'une part les sujets demandant une forte résolution sur un contraste rouge/bleu ne sont pas légion,
- et d'autre part notre oeil fonctionne assez exactement comme ça, et les films couleurs ont aussi fonctionné un bon peu comme ça d'ailleurs.

En gros, le fait est que ça marche, au filtre AA près (qui bouffe un poil de résolution mais évite les pbs de reconstruction genre moiré).

Verso92

Citation de: cocagne le Février 02, 2010, 22:15:31
Très bien d'avoir déplacé ce sujet en dehors du forum argentique qu'il ne polluait pas mais qu'il faisait dévier
Ceci étant dit la logique du fovéon est d'une nature telle que je comprend que tous ceux qui sont entré en numérique avec la bénédiction des canitax aient du mal à admettre que au fond un capteur à plat décompose la lumière au prorata des photosites dont il dispose et bien sur de leur affectation dans le spectre couleur et que seule une bonne opération de com. a laissé croire que les Sigma et leur fovéon ne disposaient que du nombre de pixels correspondant aux photosites se trouvant sur un niveau.

Maintenant je remarque que ceux qui restent sur leur faim avec le numérique et regardent à nouveau vers l' argentique, avec perplexité dans mon cas il est vrai, s'intéressent beaucoup aux autres architectures de capteurs que celles que nous proposent les maitres du marché et de la parole.

Sur un autre fil il était question de dynamique et tous oubliaient le pourtant brave Fuji S5 ne citant que les deux grands noms, il  a d'ailleurs fallu leur rappeler les vraies performances dans ce domaine de l'argentique.

A le monothéisme ...

J'ai du mal à comprendre ton raisonnement...

J'ai failli acheter un Sigma DP2 (Foveon, donc) en voyant les tirages exposés au salon sur le stand Sigma. Ce n'est sans doute que partie remise, d'ailleurs.

Maintenant que l'argument du monothéisme est tombé, je ne vois pas pourquoi le fait de reconnaitre la supériorité du rendu de couleur d'une technologie (à la sensibilité nominale du capteur, hein...) conduirait obligatoirement à travestir les données techniques de cette même technologie...

Tout le monde (ou presque) connait ici les différences de technologie entre les "bayer", Foveon ou autre Super CCD. Pourquoi diable vouloir raconter des histoires au nom d'une bataille idéologique ?
Plutôt que de diverger dans tous les sens, il suffit de jeter un œil à l'excellent article dont jlthirot a donné le lien dans l'autre fil. Tout y est :
http://www.futura-sciences.com/fr/doc/t/technologie/d/la-photo-numerique-du-capteur-a-limage_773/c3/221/p6/


Verso92

Citation de: jlthirot le Février 02, 2010, 23:44:19
Enfin un peu de soutien.

Mouais... en fait, plutôt que de lire et d'essayer de comprendre l'excellent article, pourtant très clair et argumenté, que tu nous a mis en lien dans l'autre fil, tu préfères venir lancer un débat qui n'en est pas un.

Ce coup-ci, je renonce définitivement. Je ne comprends vraiment pas où tu veux en venir. Ou plutôt, j'ai peur de trop bien comprendre...

olivier_aubel

Citation de: cagire le Février 02, 2010, 18:36:52
Avec un capteur à matrice de Bayer il faut 4 photosites (2 dédiés au vert, 1 au bleu et un au rouge) pour constituer 1 pixel.

Non, en fait c'est pas du tout ça  ;) (pour un capteur à matrice de bayer)
Mais comme il y a probablement autant d'algo que de fabricant et de programmes de dématriçage (embarqué ou pas), on va rester dans les généralités...
La part luminance d'un pixel est calculée d'après les photosites voisins.
La part chrominance est calculée autrement...
Pour faire la correspondance entre un photosite et un pixel , il y a bien plus que 4 photosites qui sont pris en compte.
On trouve de la doc et des etudes d'universitaires sur le net ...
Ici, un peu de doc : http://scien.stanford.edu/class/psych221/projects/99/tingchen/main.htm

Remarque au passage : il y a generalement moins de pixel dans l'image que de "photosites physiques" ; l'info sur les bords étant incompléte (pas de photosites voisins d'un coté ou d'un autre ...).

cagire

De toute façon je ne suis pas un spécialiste. Je me suis contenté d'aller fanfouiner sur le NET comme sur sur ce site :
http://fr.wikipedia.org/wiki/Capteur_photographique

Vous noterez au passage la définition de full frame. :)

Verso92

Citation de: olivier_aubel le Février 03, 2010, 17:33:00
Non, en fait c'est pas du tout ça  ;) (pour un capteur à matrice de bayer)
Mais comme il y a probablement autant d'algo que de fabricant et de programmes de dématriçage (embarqué ou pas), on va rester dans les généralités...

Je n'osais pas trop contredire cagire, mais il me semblait bien que la définition qu'il proposait était un peu simplifiée...

cagire

Citation de: Verso92 le Février 03, 2010, 20:52:26
Je n'osais pas trop contredire cagire, mais il me semblait bien que la définition qu'il proposait était un peu simplifiée...
Faut pas hésiter à contredire ou à péciser ! Je n'ai aucune compétence en la matière, pour ne pas dire aucune (je me suis contenté, comme dit, à répéter la page weeb précitée). La contradiction peut faire avancer le schmilblic.

Verso tu es une personne très délicate et de bonnes manières ! ;-)

vitchito

Pour moi le pixel est un interpretation du (des) photosites voisins du capteur.
Interprétation, car c'est un algorithme qui le fait, en fonction de choix définis par les développeurs sur logiciel de traitement.

Verso92

Citation de: vitchito le Février 05, 2010, 23:57:00
Pour moi le pixel est un interpretation du (des) photosites voisins du capteur.
Interprétation, car c'est un algorithme qui le fait, en fonction de choix définis par les développeurs sur logiciel de traitement.

Sur les capteurs "Bayer", oui. Pas pour le Foveon...

jmaa

Citation de: Verso92 le Février 06, 2010, 09:51:25
Sur les capteurs "Bayer", oui. Pas pour le Foveon...

   Sauf erreur de ma part , les pixels issus de photosite de capteur foveopn sont aussi "interpolés" ou corrélés car il y a a interference entre les couches de photosites , d'ou parfois les couleurs "funky" sur les photos issus de Foveon car le dématriçage est compliqué.
   

Verso92

Citation de: jmaa le Février 06, 2010, 10:21:07
   Sauf erreur de ma part , les pixels issus de photosite de capteur foveopn sont aussi "interpolés" ou corrélés car il y a a interference entre les couches de photosites , d'ou parfois les couleurs "funky" sur les photos issus de Foveon car le dématriçage est compliqué.  

C'est possible, jmaa : je ne connais pas suffisamment la technologie Foveon pour être affirmatif (bien que le terme "dématriçage" pour le Foveon me semble particulièrement inadapté...).