Des rumeurs!

Démarré par Sebmansoros, Février 26, 2020, 13:26:29

« précédent - suivant »

Alain Clément

Citation de: Tonton-Bruno le Mars 02, 2020, 12:07:13
Moi c'est le contraire.
Cela fait plus de dix ans maintenant que je constate que non seulement je ne m'améliore pas, mais que je régresse.
Je suis moins attentif à ce qui m'entoure, moins motivé, moins curieux, plus distrait et plus négligent quand je photographie, moins précis dans mes gestes.
Pour le moment l'excellence du matériel compense la médiocrité de son utilisateur, mais je sens bien que ça ne va pas durer !

ha ouai quand meme .... :o :o :o

jenga

Citation de: Verso92 le Mars 02, 2020, 12:33:24
Comme promis, la version couleur (visualisation 300%), non escamotée, donc :

(et on voit toujours les motifs de 1 pixel de large, bien sûr)
Oui, on voit des traits qui se dédoublent, qui se tripliquent puis se resserrent, caractéristiques d'une acquisition sous-échantillonnée. Cette image n'est en aucun cas la reproduction de l'image qui était formée par l'optique sur le capteur.

On peut détecter sans aucun problème une structure aussi petite qu'on veut, il suffit qu'elle ait suffisamment d'énergie pour envoyer quelques photons sur un photosite. Sa taille ne compte pas, seule sont énergie importe.

Pour reproduire, c'est-à-dire obtenir une image identique à l'image formée sur le capteur, il faut respecter les conditions de Shannon; ce n'est pas le cas de cette image.

jenga

Citation de: jenga le Mars 02, 2020, 12:04:39
J'imagine qu'avec la même "logique" le D850 a 45 Mpx selon toi, soit 230 pixels par mm.

Peux-tu alors m'expliquer pourquoi il ne reproduit pas correctement un motif ayant seulement 90 paires de lignes par mm?


https://www.dpreview.com/reviews/nikon-d850/8 ):

.
.
Citation de: Verso92 le Mars 02, 2020, 12:36:05
Tu n'as donc pas entendu parler de la matrice de Bayer ?

Ce que tu vois là, c'est le "repliement" de l'interpolation en chrominance. Et, comme déjà évoqué, rien à voir avec une matrice de 2x2...

S'il y a repliement, comme tu l'écris, c'est par définition parce que l'acquisition n'a pas respecté le critère de Shannon.

Cette mire, de 90 traits par mm, est acquise correctement si le capteur possède plus de 2x90 = 180 pixels par mm.

Cela prouve que le capteur (D850, 230 photosites par mm) a moins de 180 pixels par mm.

Résultat sans surprise, puisque ce capteur a 230 photosite par mm et qu'il faut 2x2 photosites (en matrice de Bayer) pour composer un pixel trichrome.

jenga

Citation de: JMS le Mars 02, 2020, 13:39:24
Le D850 a zéro pixel au millimètre, car le pixel est une unité d'image informatique. En revanche il a bien 230 photosites au millimètre linéaire, soit une Ropt (résolution optique) de 115 paires de lignes au mm, dont les informations du luminance après dématriçage fourniront 45 millions de pixels dans le fichier. Or le moiré se produit si le pouvoir séparateur de l'objectif est trop élévé pour le capteur, rien ne permet d'affirmer que l'objectif utilisé sur un sujet à haut contraste (du noir et du blanc epicétou du mire style USAF) n'a pas un pouvoir séparateur supérieur à 115 paires de lignes au mm, en argentique sur film Technical Pan certains arrivaient au maxi du film, soit 160 paires de lignes quand un film diapo en contraste moyen calait autour de 50 paires de lignes. Quand du moiré se produit, certains logiciels arrivent à le contourner, d'autres non.
Le pixel n'est pas une unité informatique, c'est l'élément de base de toute image échantillonnée.
Il est défini par trois informations indépendantes, que l'on peut exprimer dans différents systèmes de coordonnées RVB, LCH, YUV, etc., de façon complètement équivalente.

Un photosite n'apporte qu'une information, ce n'est pas un pixel. Il n'a en particulier pas d'information de luminance puisque la luminance est la somme pondérée des trois informations de couleur.

Par exemple, un photosite "bleu" illuminé à 18% peut très bien correspondre à une couleur bleue sombre (luminance faible) ou à un jaune très clair et quasi-saturé (luminance très élevée).
La connaissance d'un photosite ne donne donc ni luminance ni chrominance de la couleur locale.

Il faut donc plusieurs photosites pour composer un pixel, ce qui signifie qu'il y a moins de pixels que de photosites.

C'est pour cette raison que la mire ci-dessus (90 pdl/mm) n'est pas reproduite correctement par un capteur qui possède 230 photosites /mm. Elle serait reproduite correctement si c'était 230 pixels/mm.

jenga

Citation de: jenga le Mars 02, 2020, 12:11:08
L'interpolation n'est pas basique, je n'ai jamais dit ça. En revanche, aucune interpolation ne permet de retrouver une information perdue à cause du sous-échantillonnage. C'est pour cela que les photosites ne sont pas des pixels et que des artefacts surviennent lorsque l'image comporte des structures plus fines que 2x2 photosites.

Citation de: seba le Mars 02, 2020, 13:17:47
Pourquoi alors avec certaines méthodes on a des artefacts et avec d'autres non, pour une même image ?
Il y a des artefacts dans toutes les images de la planche que tu montres. Les interpolateurs qui tentent de conserver la couleur au delà des fréquences de Nyquist produisent des artefacts colorés très visibles, les autres ont plutôt des artefacts d'intensité, que l'on voit bien en suivant les traits verticaux.

Dans tous les cas, l'image interpolée n'est pas fidèle à la réalité.

seba

Citation de: jenga le Mars 03, 2020, 08:48:40
Il y a des artefacts dans toutes les images de la planche que tu montres. Les interpolateurs qui tentent de conserver la couleur au delà des fréquences de Nyquist produisent des artefacts colorés très visibles, les autres ont plutôt des artefacts d'intensité, que l'on voit bien en suivant les traits verticaux.

Dans tous les cas, l'image interpolée n'est pas fidèle à la réalité.

Ca me donne une idée.
Je ferai des comparaisons avec des images sous- et sur-échantillonnées.

jeandemi

En fait, si je comprends bien, un capteur qui a 36 millions de photosites (Bayer) produit une image de 9 mégapixels savamment interpolée à 36.

Quand je regarde à 100% une image produite par mon Df, je vois des artefacts de de dématriçage, tandis qu'une issue de mon M246 n'en montre pas, même à 200% (c'est de la pixelisation qui apparaît)
On a même l'impression de voir (découvrir) plus de détails à 200%

Il faudrait, pour comparer, prendre une photo en trichromie avec un Monochrom, et la comparer à une image issue d'un capteur Bayer ayant 4x le nombre de photosites

Verso92

Citation de: jenga le Mars 03, 2020, 08:42:05
Oui, on voit des traits qui se dédoublent, qui se tripliquent puis se resserrent, caractéristiques d'une acquisition sous-échantillonnée. Cette image n'est en aucun cas la reproduction de l'image qui était formée par l'optique sur le capteur.

On peut détecter sans aucun problème une structure aussi petite qu'on veut, il suffit qu'elle ait suffisamment d'énergie pour envoyer quelques photons sur un photosite. Sa taille ne compte pas, seule sont énergie importe.

Pour reproduire, c'est-à-dire obtenir une image identique à l'image formée sur le capteur, il faut respecter les conditions de Shannon; ce n'est pas le cas de cette image.

C'est amusant, la mauvaise foi.

Mébon, chacun voit l'image et peut donc se faire sa propre opinion (c'est le but du propos).


Pour rappel, la "largeur" du pixel est donnée par l'illustration du post #164 (image de gauche, non dématricée), qu'il suffit de comparer avec la largeur du motif sur l'image dématricée (visualisation à 300% dans tous les cas).

Verso92

#183
Citation de: jenga le Mars 03, 2020, 08:45:07
S'il y a repliement, comme tu l'écris, c'est par définition parce que l'acquisition n'a pas respecté le critère de Shannon.

Non.


Tu confonds tout : la matrice de Bayer a un motif de 2x2 photosites, c'est exact. Mais les algorithmes de dématriçage ne travaillent pas sur 2x2 pixels (beaucoup plus, en fait : ce qui fait que le moiré (de chrominance) se produira bien avant le critère de Shannon en cas de motif répétitif).

Ça fait plusieurs fois qu'on l'explique, avec des illustrations à la clé. Mais il n'y a pas plus sourd que celui qui ne veut pas entendre...

Citation de: jenga le Mars 03, 2020, 08:45:07
Résultat sans surprise, puisque ce capteur a 230 photosite par mm et qu'il faut 2x2 photosites (en matrice de Bayer) pour composer un pixel trichrome.

Non, non et non !!!

seba

Citation de: jenga le Mars 03, 2020, 08:45:07
Résultat sans surprise, puisque ce capteur a 230 photosite par mm et qu'il faut 2x2 photosites (en matrice de Bayer) pour composer un pixel trichrome.

C'est beaucoup plus complexe.
il y a de nombreuses méthodes différentes et pour calculer la couleur d'un pixel, en général il est tenu compte d'un nombre assez élevé de photosites autour du pixel en question (pas seulement 4 photosites).

Verso92

Citation de: jeandemi le Mars 03, 2020, 09:54:59
En fait, si je comprends bien, un capteur qui a 36 millions de photosites (Bayer) produit une image de 9 mégapixels savamment interpolée à 36.

Oui : et la marmotte elle emballe le capteur dans le papier alu...  ;-)

jdm


Quelle évolution, avant on avait le crop syndical, maintenant on a le crop 1000% !

L'étape d'après c'est le braille ou peut-être le chien pour jenga !   8) ;D
dX-Man

Verso92

Citation de: jdm le Mars 03, 2020, 11:24:27
Quelle évolution, avant on avait le crop syndical, maintenant on a le crop 1000% !

L'étape d'après c'est le braille ou peut-être le chien pour jenga !   8) ;D

;-)

vernhet

Citation de: Tonton-Bruno le Mars 02, 2020, 12:07:13
Moi c'est le contraire.
Cela fait plus de dix ans maintenant que je constate que non seulement je ne m'améliore pas, mais que je régresse.
Je suis moins attentif à ce qui m'entoure, moins motivé, moins curieux, plus distrait et plus négligent quand je photographie, moins précis dans mes gestes.
Pour le moment l'excellence du matériel compense la médiocrité de son utilisateur, mais je sens bien que ça ne va pas durer !
+1
et en plus, je deviens de plus en plus rebuté par la lecture des mode d'emploi des nouveaux matos, ce qui arrange pas mes affaires! ;D

jdm

Citation de: JMS le Mars 03, 2020, 12:03:11
...

Ce beau débat a le mérite de nous rajeunir de 20 ans ...


A ce propos, il y en a un qui t'attend avec une brique !  :)  https://www.chassimages.com/forum/index.php/topic,305231.0.html
dX-Man

Verso92

Citation de: JMS le Mars 03, 2020, 12:03:11
Et il y a mieux : avec cette théorie de motifs pour faire un pixel, un Fuji Xtrans qui décode par groupe de 36 photosites n'aurait plus une définition de 26 Mpxl, mais seulement de 26/36 = 0,7 million de pixel, de quoi faire un tirage de 24 x 36...millimètres...autour de 240 dpi !!!

C'est vrai, je n'avais pas pensé à cette matrice X-Trans de 6x6... 0,7 MPixels, ça commence à faire léger, en effet !

;-)

kochka

Sony avait tenté la matrice avec deux verts différents, mais n'a pas persévéré.
Technophile Père Siffleur

jenga

Citation de: Verso92 le Mars 03, 2020, 10:09:47
C'est amusant, la mauvaise foi.
Oui, il en faut beaucoup pour ne pas voir les artefacts sur les traits verticaux de ton image,

jenga

Citation de: Verso92 le Mars 03, 2020, 10:16:11
Tu confonds tout : la matrice de Bayer a un motif de 2x2 photosites, c'est exact. Mais les algorithmes de dématriçage ne travaillent pas sur 2x2 pixels (beaucoup plus, en fait : ce qui fait que le moiré (de chrominance) se produira bien avant le critère de Shannon en cas de motif répétitif).
Hum.
Tu confonds:

  • l'opération d'échantillonnage séparé des composantes RVB, avec la perte irréversible d'information en cas de sous-échantillonnage
  • l'interpolation (dématriçage), nécessaire pour fournir le nombre de pixels RVB voulu; opération qui utilise un nombre plus ou moins grand de voisins, selon le compromis vitesse/précision choisi, mais ne pourra jamais ajouter d'information. Encore moins, évidemment, reconstituer correctement ce qui a été sous-échantillonné
  • les systèmes de coordonnées (RVB vs YUV, par exemple) entre lesquels on passe par des transformations réversibles et n'ont donc rien à voir avec les questions de quantité d'information

Dès qu'une composante couleur R ou V ou B est sous-échantillonnée, tout ce qui est calculé à partir d'elle (pixels RVB ou pixels luminance/chrominance) est irréversiblement faux. Que le motif soit répétitif ou pas.


jenga

Citation de: JMS le Mars 03, 2020, 12:03:11
Et il y a mieux : avec cette théorie de motifs pour faire un pixel, un Fuji Xtrans qui décode par groupe de 36 photosites n'aurait plus une définition de 26 Mpxl, mais seulement de 26/36 = 0,7 million
(...)
...au début du siècle certains prétendaient avec le même aplomb

Dommage que tu choisisses de te gausser et d'attaquer ad personam.

Tu confonds deux notions différentes:

  • la définition du pixel, constituant de toute image numérique, par 3 informations indépendantes R et V et B (ou YUV, ou n'importe quel autre système de 3 coordonnées, peu importe).
  • l'interpolation, qui détermine la valeur des composantes manquantes pour sortir une image au nombre de pixels voulus; par exemple la valeur de V et la valeur de B aux emplacements des photosites "rouges"
Le nombre de points pris en compte dans l'interpolation est un compromis entre la performance et la précision de l'image finale. Mais l'interpolation n'ajoute aucune information, elle ne fait que la reproduire. Qu'elle soit faite sur 8 ou 36 points ou davantage ou moins dégrade plus ou moins la précision, mais en aucun cas l'interpolation n'ajoutera de l'information.

Il ne peut donc pas y avoir plus de pixels RVB indépendants que de photosites "rouges" par exemple, soit 9M de pixels RVB pour un capteur de 36M.site.

On peut interpoler à 36 Mpixels (jpeg boitier ou dématriçage usuel), ou davantage en redimensionnant ou visualisant l'image à 400% ou X%, il n'y a toujours pas plus d'information que 9M pixels RVB.

jenga

Citation de: jeandemi le Mars 03, 2020, 09:54:59
En fait, si je comprends bien, un capteur qui a 36 millions de photosites (Bayer) produit une image de 9 mégapixels savamment interpolée à 36.

Exactement.
Sans préjuger de l'ordre effectif des opérations, il faut :
-interpoler chaque composante R, V, B pour passer de la grille 2x2 à la grille 1x1
-composer les pixels finaux RVB avec ces composantes interpolées

Le "savamment" est le choix du constructeur (ou du concepteur d'un logiciel tiers, ou de l'amateur intéressé par le sujet, ou du chercheur utilisant le capteur pour des besoins autres que la photo usuelle, etc.).
L'interpolateur optimal du point de vue du traitement du signal nécessite trop de calculs pour être utilisé en photo usuelle, il y a donc des compromis à faire entre la performance et la qualité d'image.

jenga

Citation de: jenga le Mars 03, 2020, 08:45:07
Résultat sans surprise, puisque ce capteur a 230 photosite par mm et qu'il faut 2x2 photosites (en matrice de Bayer) pour composer un pixel trichrome.

Citation de: seba le Mars 03, 2020, 11:12:46
C'est beaucoup plus complexe.
il y a de nombreuses méthodes différentes et pour calculer la couleur d'un pixel, en général il est tenu compte d'un nombre assez élevé de photosites autour du pixel en question (pas seulement 4 photosites).

Remarque intéressante et importante. En fait, ce sont deux aspects différents:

  • l'interpolation de chaque composante couleur; cette interpolation nécessite de prendre en compte un certain nombre de points pour chaque point reconstitué; j'y reviens plus bas
  • la constitution des pixels trichromes RVB à partir de composantes séparées R V B
L'ordre n'a pas d'importance tant qu'il s'agit d'opérations linéaires: soit interpoler chaque composante couleur puis constituer les pixels RVB, soit constituer les pixels puis interpoler.

C'est pourquoi j'ai mentionné uniquement la deuxième opération, suffisante pour comprendre le problème en termes de quantité d'information. Comme on a au départ (pour un capteur 36 M sites) 9 millions d'informations "rouges" (par exemple), on ne pourra jamais, quoi qu'on fasse, constituer plus de 9 millions de pixels RVB indépendants.

Cela n'empêche pas d'interpoler à 36 Mpixels RVB, ou davantage via n'importe quel logiciel de traitement ou de visualisation (rien n'empêche de redimensionner à 800% par exemple), mais jamais on n'aura davantage d'information que celle contenue dans 9 M pixels RVB.

L'interpolation est l'opération clé du dématriçage. On cherche à obtenir un pixel RVB en chaque point de la grille des photosites. Or, la composante rouge, par exemple, est présente uniquement dans une sous-grille 4 fois moins dense.
Il faut donc calculer la valeur "rouge" sur les trois quarts des points de la grille, à partir des valeurs connues (un quart de la grille): c'est l'opération d'interpolation.

Sans entrer dans les détails de traitement du signal (faciles à trouver, je te donnerai des pointeurs si tu veux), l'interpolateur idéal est un filtre passe-bas à pente très raide, de réponse 1 entre 0 et la fréquence de Shannon, de réponse 0 au-delà; sa phase caractérise l'emplacement auquel on cherche à reconstituer la valeur.

Cet interpolateur idéal permet, en particulier, de reconstituer exactement l'image "analogique" présentée au capteur, si et seulement si la condition de Shannon a été respectée (dans le cas contraire l'information est définitivement détruite).

Problème: ce filtre idéal (de pente très raide) nécessite trop de calculs.
Chaque point interpolé est la somme pondérée de tous les points de l'image de base, avec des coefficient en sinus cardinal sin(x) / x, où x caractérise la position du point interpolé.
Pour un capteur 36 M, cette interpolation nécessite 9 millions d'opérations pour chacun des points à calculer. Comme il faut calculer 3x27 millions de points, cela fait environ 700 000 milliards d'opérations, ce qui est trop pour nos ordinateurs.

Les interpolateurs travaillent donc sur un nombre de points beaucoup plus réduit autour du point à reconstituer, par exemple 8. La conséquence est bien sûr une perte de précision de l'image interpolée.

En pratique, puisque l'interpolation est un filtrage, on en profite pour effectuer un réhaussement des transitions pour que l'image soit plus plaisante, et tout autre filtrage jugé adéquat par le concepteur du dématriceur. D'où les différences entre dématriceurs que tu as illustrées plus haut.

En conclusion:

  • un capteur de 36 M sites, ayant 9 millions de sites rouges ne peut pas délivrer plus de 9 millions d'informations "rouges" véritables, quels que soient les traitements effectués
  • comme on veut délivrer 36 millions de pixels RVB, on a besoin de 36 millions de valeurs "rouges" (et autant de vertes et de bleues; il faut donc interpoler entre les informations véritables, ce qui se fait en prenant en compte un nombre de points résultant d'un compromis vitesse/précision, mais n'ajoute évidemment aucune information


Verso92

#197
Citation de: jeandemi le Mars 03, 2020, 09:54:59
En fait, si je comprends bien, un capteur qui a 36 millions de photosites (Bayer) produit une image de 9 mégapixels savamment interpolée à 36.
Citation de: jenga le Mars 04, 2020, 10:21:30
Exactement.

Le comique de répétition est un genre...



Ce n'est pourtant pas compliqué de comprendre que l'œil est très sensible à la luminance, et peu à la chrominance. C'est d'ailleurs ce qui est exploité dans les algorithmes Jpeg (sous-échantillonnage de la chrominance).

https://fr.wikipedia.org/wiki/JPEG


Pour résumer, un APN de 36 MPixels a bien une définition de 36 MPixels. Et on peut tout à fait distinguer des détails qui font 1 pixel de large (cf post #208).

En ce qui concerne les artefacts, on les a aussi sur le Foveon (qui n'a pas d'interpolation en chrominance), comme illustré ci-dessous (crop 1 600% de DP2m, 15 MPixels) :

jaric

#198
Citation de: jenga le Mars 04, 2020, 10:21:30
Exactement.

Tu es fatigant !
Si tu refuses d'écouter les autres intervenants, examine au moins comment fonctionne l'algorithme de dématriçage du filtre de Bayer. Tu finiras par comprendre que s'il est vrai que le calcul de chaque pixel utilise un voisinage de 4 photosites, le processus est effectué de manière glissante pour chacun d'entre eux (et non pas par groupe), ce qui permet au final d'obtenir autant de pixels calculés que de photosites !

seba

Citation de: jenga le Mars 04, 2020, 10:20:50
Il ne peut donc pas y avoir plus de pixels RVB indépendants que de photosites "rouges" par exemple, soit 9M de pixels RVB pour un capteur de 36M.site.

On peut interpoler à 36 Mpixels (jpeg boitier ou dématriçage usuel), ou davantage en redimensionnant ou visualisant l'image à 400% ou X%, il n'y a toujours pas plus d'information que 9M pixels RVB.

De haut en bas :
Image dématricée de 230x150 photosites qui deviennent 230x150 pixels
Image de 115x75 pixels (toujours à partir de 230x150 photosites)
Image interpolée de 230x150 pixels à partir de la deuxième

Il y a quand même une sacrée différence entre la première et la troisième.