Résultat sans surprise, puisque ce capteur a 230 photosite par mm et qu'il faut 2x2 photosites (en matrice de Bayer) pour composer un pixel trichrome.
C'est beaucoup plus complexe.
il y a de nombreuses méthodes différentes et pour calculer la couleur d'un pixel, en général il est tenu compte d'un nombre assez élevé de photosites autour du pixel en question (pas seulement 4 photosites).
Remarque intéressante et importante. En fait, ce sont deux aspects différents:
- l'interpolation de chaque composante couleur; cette interpolation nécessite de prendre en compte un certain nombre de points pour chaque point reconstitué; j'y reviens plus bas
- la constitution des pixels trichromes RVB à partir de composantes séparées R V B
L'ordre n'a pas d'importance tant qu'il s'agit d'opérations linéaires: soit interpoler chaque composante couleur puis constituer les pixels RVB, soit constituer les pixels puis interpoler.
C'est pourquoi j'ai mentionné uniquement la deuxième opération, suffisante pour comprendre le problème en termes de quantité d'information.
Comme on a au départ (pour un capteur 36 M sites) 9 millions d'informations "rouges" (par exemple), on ne pourra jamais, quoi qu'on fasse, constituer plus de 9 millions de pixels RVB indépendants.Cela n'empêche pas d'interpoler à 36 Mpixels RVB, ou davantage via n'importe quel logiciel de traitement ou de visualisation (rien n'empêche de redimensionner à 800% par exemple), mais jamais on n'aura davantage d'information que celle contenue dans 9 M pixels RVB.
L'interpolation est l'opération clé du dématriçage. On cherche à obtenir un pixel RVB en chaque point de la grille des photosites. Or, la composante rouge, par exemple, est présente uniquement dans une sous-grille 4 fois moins dense.
Il faut donc calculer la valeur "rouge" sur les trois quarts des points de la grille, à partir des valeurs connues (un quart de la grille): c'est l'opération d'interpolation.
Sans entrer dans les détails de traitement du signal (faciles à trouver, je te donnerai des pointeurs si tu veux), l'interpolateur idéal est un filtre passe-bas à pente très raide, de réponse 1 entre 0 et la fréquence de Shannon, de réponse 0 au-delà; sa phase caractérise l'emplacement auquel on cherche à reconstituer la valeur.
Cet interpolateur idéal permet, en particulier, de reconstituer
exactement l'image "analogique" présentée au capteur, si et seulement si la condition de Shannon a été respectée (dans le cas contraire l'information est définitivement détruite).
Problème: ce filtre idéal (de pente très raide) nécessite trop de calculs.
Chaque point interpolé est la somme pondérée de tous les points de l'image de base, avec des coefficient en sinus cardinal sin(x) / x, où x caractérise la position du point interpolé.
Pour un capteur 36 M, cette interpolation nécessite 9 millions d'opérations pour chacun des points à calculer. Comme il faut calculer 3x27 millions de points, cela fait environ 700 000 milliards d'opérations, ce qui est trop pour nos ordinateurs.
Les interpolateurs travaillent donc sur un nombre de points beaucoup plus réduit autour du point à reconstituer, par exemple 8. La conséquence est bien sûr une perte de précision de l'image interpolée.
En pratique, puisque l'interpolation est un filtrage, on en profite pour effectuer un réhaussement des transitions pour que l'image soit plus plaisante, et tout autre filtrage jugé adéquat par le concepteur du dématriceur. D'où les différences entre dématriceurs que tu as illustrées plus haut.
En conclusion: - un capteur de 36 M sites, ayant 9 millions de sites rouges ne peut pas délivrer plus de 9 millions d'informations "rouges" véritables, quels que soient les traitements effectués
- comme on veut délivrer 36 millions de pixels RVB, on a besoin de 36 millions de valeurs "rouges" (et autant de vertes et de bleues; il faut donc interpoler entre les informations véritables, ce qui se fait en prenant en compte un nombre de points résultant d'un compromis vitesse/précision, mais n'ajoute évidemment aucune information