Oui mais justement ils sont décalés, si les 4 photosites étaient superposés (cas du capteur Sigma), on n'aurait effectivement qu'une seule information par photosite, c'est à dire la luminance en ce point pour chaque canal, avec d'ailleurs deux valeurs identiques pour le vert.
Mais le fait qu'ils soient décalés permet de déduire d'autres informations.
Non, c'est strictement équivalent. Si l'échantillonnage est correct au sens de Shannon, l'image échantillonnée contient
toute l'information de l'image réelle formée sur le capteur.
On peut donc reconstruire l'image de départ avec un interpolateur correct, c'est-à-dire retrouver tous ses points. En particulier, on retrouve tous ses points sur une grille décalée par rapport à la grille d'échantillonnage.
La connaissance des échantillons sur une grille est donc strictement équivalente à la connaissance des échantillons sur une autre (heureusement, car sinon la matrice de Bayer ne permettrait pas de reconstituer des pixels corrects).
Voir par exemple ce document:
https://perso.limsi.fr/vezien/pdf_cours_ima_jmv.pdfSon chapitre 1.4 expose de façon simple mais à peu près exacte les principes de l'échantillonnage et de la reconstruction d'image à partir des échantillons.
Si j'ai du bruit, le fait que deux pixels séparés par un troisième soient rouges ne veut strictement rien dire sur la couleur du pixel intermédiaire. Si je photographie une scène réelle, la plupart du temps le pixel intermédiaire sera d'une couleur proche de ce rouge, ce qui signifie que si j'ai une variation importante de la luminance sur le photosite intermédiaire, je peux me permettre de l'interpréter comme une variation de luminance en restant dans les mêmes tons.
Si je comprends bien, tu te places dans un cas où l'image ne contient pas de variations rapides de couleur, ce qui permet de déduire certaines caractéristiques d'un pixel par continuité d'une composante (chrominance, par exemple) ?
Cette dépendance réduit encore le nombre de pixels indépendants dans l'image, par définition.
Et ce n'est pas une hypothèse réaliste. En regardant autour de moi, je vois à cet instant même un coin de bâtiment rouge/ocre sur fond de ciel bleu. Un carnet de couleur bleue sur fond de bureau couleur chêne. Un stylo vert sur ce même fond. Etc.
Autant de variations très rapides de chrominance, aussi rapides que les variations de luminance.
Alors que si je suis dans la pure interpolation comme l'a fait Seba dans sa seconde photo, je ne peux que faire la moyenne entre deux pixels adjacents.
Certainement pas.
L'interpolateur idéal reconstruit chaque point à partir de tous les points de l'image. Mais il nécessite trop de calculs.
On se limite donc en pratique à des interpolateurs travaillant sur des voisinages de 3x3, 5x5, etc.
Mais travailler sur un voisinage de 2 par interpolation linéaire est vraiment mauvais, et heureusement on peut faire autrement.
C'est justement ce qui provoque le moiré et c'est la limite du système : si tu as une ligne d'un pixel de large, comme elle n'est captée que par un photosite et pas par plusieurs, l'appareil est incapable de déterminer sa couleur exacte. Si elle est seule, le dématriceur s'en sort en la comparant aux pixels adjacents, mais si on a plusieurs lignes adjacentes, le dématriceur n'est plus capable de savoir ce qui appartient à chaque ligne et il interprète ça avec des couleurs aléatoires.
Oui, l'ajout d'hypothèses simplistes pour essayer de reconstituer plus d'information que le capteur n'en fournit ne fonctionne pas dès que le signal est un peu complexe.
Soit l'image ne contient pas de fréquences élevées, et tout va bien (mais l'hypothèse ne sert pas à grand chose).
Soit elle en contient et le résultat est faux...
De façon flagrante sur les motifs répétitifs (moirés...), mais aussi sur les structures isolées avec des halos, des dédoublements, des traits qui font par miracle la largeur exacte d'un photosite, etc.
Et ne me fais pas dire ce que je n'ai pas dit, il n'y a aucune IA dans ce que j'ai écrit, juste des algorithmes de traitement du signal tout ce qu'il y a de plus banal. J'en utilisais déjà il y a 30 ans pendant mes études alors que le terme IA apparaissait à peine.
Tu parlais d'ajouter de l'information à l'image échantillonnée pour reconstruire quelque chose de réaliste. Je dis simplement que cela fait penser immédiatement à l'IA, qui permettra (ou permet déjà dans les smartphones?) d'aller vers cet objectif.
Dans les cas discutés ci-dessus, relevant effectivement du traitement de signal banal, on ajoute implicitement des hypothèses simples comme la corrélation entre les photosites de "couleurs" différentes; cela conduit à des artefacts de type moirés, halos, etc. dès que le signal ne vérifie pas ces hypothèses. C'est trop simpliste.