Des rumeurs!

Démarré par Sebmansoros, Février 26, 2020, 13:26:29

« précédent - suivant »

jenga

Citation de: egtegt² le Mars 06, 2020, 11:16:31
Jenga, tu te trompes au moins sur un point : sur 4 photosites, il y en a deux verts, donc même en supposant ta démonstration juste, on a au moins deux valeurs de luminance pertinentes pour le vert. Donc au pire on est un peu mieux qu'un quart de la définition.
(Merci pour ton intervention)

Oui, une matrice de Bayer a une résolution double dans le vert. En revanche, cela ne donne pas davantage d'information de luminance. Comme indiqué ci-avant, il faut connaître les trois composantes RVB pour déterminer la luminance. Ce sont donc les composantes échantillonnées selon la grille la moins dense (R et B) qui limitent.

Citation de: egtegt² le Mars 06, 2020, 11:16:31
Sinon bien évidemment que c'est interpolé et que mathématiquement, on recrée une information qui est potentiellement fausse.
Non, les valeurs interpolées sont exactes (si l'acquisition a respecté le critère de fréquence, bien sûr).

En revanche, elles ne créent pas d'information. Elles ne font que traduire l'information acquise par le capteur.

Citation de: egtegt² le Mars 06, 2020, 11:16:31
Mais il se trouve que ça n'est pas du bruit qu'on photographie mais la réalité et ça permet d'avoir des algorithmes qui permettent de reconstruire quelque chose de réaliste. Il y a quelques rares cas où ces algorithmes se plantent, par exemple des étoiles qui disparaissent sur un photo astronomique parce qu'elles sont interprétées comme des artefacts, ou quand on a du moiré, mais dans la majeure partie des cas, ils fonctionnent bien.
Très intéressant. Je suis d'accord avec le principe mentionné au début de ce paragraphe: en faisant des hypothèses sur l'image, on ajoute de l'information (pertinente ou non pour l'image considérée).

On pense immédiatement à l'IA, qui permettra de reconstituer des images "réalistes" à partir de prises de vue insuffisantes.

Dans la seconde partie, cependant, tu mentionnes des cas de filtrage classique. Connais-tu des exemples d'IA ou de techniques autres que le traitement de signal classique appliquées aux APN?
Je ne connais rien à la téléphonie, mais j'imagine que les smartphones ont déjà exploré cette voie.

Citation de: egtegt² le Mars 06, 2020, 11:16:31
Donc même si on ne peut pas écrire qu'un capteur 36 Mpix fait vraiment 36 Mpix, il est aussi faux d'écrire qu'il n'en fait que 9. Et le dématriçage reste largement supérieur à une simple interpolation parce qu'il peut tenir compte du fait que les 4 photorécepteurs sont décalés et utiliser cette information pour affiner les calculs.

Les informations R, V et B sont acquises sur des grilles décalées. Il est indispensable de les interpoler pour les ramener sur une même grille, sinon il est impossible de constituer des pixels corrects.
Les sites ainsi décalés par interpolation ont exactement la même quantité d'information que les sites d'origine. Ni plus, ni moins.

jenga

Citation de: JMS le Mars 06, 2020, 12:12:53
Et moi j'écris sans trembler qu'un capteur 36 Mpxl  comporte 36 millions de photosites donnant 36 millions de valeur de luminance précise, et au final interprétées par le logiciel...
Comme indiqué ci-avant, la luminance est égale à une combinaison des informations R V B, par exemple en YUV (c'est similaire quoique plus compliqué dans d'autres modèles comme LCH):

Luminance = 0.299 R + 0.587 V + 0.114 B

Si tu connais la valeur d'un photosite, par exemple tel photosite Bleu est à 10%, tu ne connais absolument pas la luminance de l'image réelle en ce point. Elle peut aussi bien valoir 1% que 90%.

Donc, 36 M sites ne sont pas 36 M infos de luminance de l'image.

Rami

Citation de: jenga le Mars 06, 2020, 14:18:35
Un capteur de 45 M sites peut donc fournir 45 M pixels interpolés, mais pas 45 M pixels indépendants.

Cela dépend ce qu'on sous-entend par indépendants
Nikonairien (ou presque)

jenga

Citation de: Rami le Mars 06, 2020, 14:22:39
Cela dépend ce qu'on sous-entend par indépendants
Très juste.
-> que l'on ne peut pas calculer les uns à partir des autres.

Rami

Je pense que si on veut inverser l'interpolation, on aura besoin des 45M  photosites de base.
Donc, pour moi, les 45M pixels restent indépendants.
Nikonairien (ou presque)

egtegt²

Citation de: jenga le Mars 06, 2020, 14:19:23
[...]
Les informations R, V et B sont acquises sur des grilles décalées. Il est indispensable de les interpoler pour les ramener sur une même grille, sinon il est impossible de constituer des pixels corrects.
Les sites ainsi décalés par interpolation ont exactement la même quantité d'information que les sites d'origine. Ni plus, ni moins.
Oui mais justement ils sont décalés, si les 4 photosites étaient superposés (cas du capteur Sigma), on n'aurait effectivement qu'une seule information par photosite, c'est à dire la luminance en ce point pour chaque canal, avec d'ailleurs deux valeurs identiques pour le vert.
Mais le fait qu'ils soient décalés permet de déduire d'autres informations.
Si je photographie un bruit parfaitement aléatoire, je ne peux rien déduire, mais si je photographie un objet, j'ai des continuités sur la scène tant en luminance qu'en chrominance et ces continuités permettent d'avoir une interpolation bien plus juste.

Si j'ai du bruit, le fait que deux pixels séparés par un troisième soient rouges ne veut strictement rien dire sur la couleur du pixel intermédiaire. Si je photographie une scène réelle, la plupart du temps le pixel intermédiaire sera d'une couleur proche de ce rouge, ce qui signifie que si j'ai une variation importante de la luminance sur le photosite intermédiaire, je peux me permettre de l'interpréter comme une variation de luminance en restant dans les mêmes tons. Alors que si je suis dans la pure interpolation comme l'a fait Seba dans sa seconde photo, je ne peux que faire la moyenne entre deux pixels adjacents.

Dans l'exemple que montre Verso, tu as un trait noir sur fond clair, le dématriceur a considéré que ce trait était plus sombre que ce qui l'entoure. Sur un seul pixel c'est impossible mais en regardant les pixels adjacents, il a obligatoirement vu que d'autres pixels adjacents avaient la même luminance mais dans d'autres couleurs en fonction de la position sur la matrice de bayer, ce qui lui a permis de le considérer comme un trait d'une couleur continue et pas comme des pixels de couleurs variables. Ce qui aurait été impossible en photographiant du bruit.

C'est justement ce qui provoque le moiré et c'est la limite du système : si tu as une ligne d'un pixel de large, comme elle n'est captée que par un photosite et pas par plusieurs, l'appareil est incapable de déterminer sa couleur exacte. Si elle est seule, le dématriceur s'en sort en la comparant aux pixels adjacents, mais si on a plusieurs lignes adjacentes, le dématriceur n'est plus capable de savoir ce qui appartient à chaque ligne et il interprète ça avec des couleurs aléatoires.

Et ne me fais pas dire ce que je n'ai pas dit, il n'y a aucune IA dans ce que j'ai écrit, juste des algorithmes de traitement du signal tout ce qu'il y a de plus banal. J'en utilisais déjà il y a 30 ans pendant mes études alors que le terme IA apparaissait à peine.

restoc

Citation de: egtegt² le Mars 06, 2020, 11:16:31
Donc même si on ne peut pas écrire qu'un capteur 36 Mpix fait vraiment 36 Mpix, il est aussi faux d'écrire qu'il n'en fait que 9. Et le dématriçage reste largement supérieur à une simple interpolation parce qu'il peut tenir compte du fait que les 4 photorécepteurs sont décalés et utiliser cette information pour affiner les calculs.

Tout à fait.
Le pb vient du fait que l'on croit que le dématriçage = une interpolation. C'est bp plus complexe que çà : les meilleurs dématriceurs analysent d'abord les directions ( des détails, des lignes, des dégradés pour faire simple) et vont interpoler ( ou seulement pondérer les canaux rvb quand c'est possible en absence de directions)  selon un arbre de décision devenu trés complexe complexe pour les meilleurs dématriceurs.

Ici la thèse déjà ancienne de Harold Phelippeau mais qui illustre avec des images  toute la différence entre une panoplie de dématriçeurs plus ou moins sophistiqués  et des interpolations simples  en terme visuel ( donc numérique au passage).

http://tel.archives-ouvertes.fr/docs/00/49/92/52/PDF/2009PEST1002_0_0.pdf

Et çà date de 2010. Depuis un DXO et même ACR ont encore bien progressé et on peut dire dans 99% des cas 1 pixel de fichier raw= 1 pixel (photosite) en terme de résolution. Les moirés avec la texture de l'image n'ont pas de rapport direct évidemment.
Les constructeurs ne sont donc pas devant le tribunal  en vendant 36 Mp pour 36 Mp. C'est une autre façon de vérifier  ;) ;D

Verso92

#257
Citation de: jenga le Mars 06, 2020, 14:18:35
(merci pour cette discussion)
en fait: pour éviter l'aliasing tout court.

Le capteur acquiert des informations R, V et B.

La luminance et les 2 informations de chrominance sont chacune calculées à partir des 3 composantes R, V et B; par exemple, en YUV:
Y = 0.299 R + 0.587 V + 0.114 B
U= -0.147 R - 0.289 V + 0.436 B
V= 0.615 R - 0.515 V - 0.1 B

Donc, si une seule des composantes R ou V ou B est fausse, par aliasing, les trois composantes (luminance Y et chrominance U et V) sont fausses.
Non, elle est indispensable également pour calculer la luminance.

Comme indiqué ci-avant, pour calculer la luminance en un point, il faut connaître R et V et B en ce point.
Or la matrice de Bayer fournit des informations R, V et B à des emplacements différents.

Il serait complètement faux de combiner directement 3 sites R V B pour calculer une luminance (ou une chrominance): sur les transitions, le résultat serait catastrophique.

Il est donc indispensable d'interpoler pour disposer des valeurs calculées de R V et B aux mêmes endroits.
Ensuite, on peut calculer YUV, LCH, etc. tant qu'on veut.
Un capteur de 45 M sites donne 45 millions d'informations. Chacune de ces informations est un et un seul nombre. Par exemple, le niveau de Bleu en ce point.

Un pixel est défini par 3 nombres (bleu, vert, rouge), pas par un seul. 45 M pixels représentent donc  3x45 millions d'informations.

Il ne peut définitivement pas y avoir équivalence entre les deux.
On ne peut pas passer de 45 millions d'informations à 3x45 millions: les 2x45 M nombres ajoutés par interpolation ne sont pas des informations nouvelles, ce ne sont que la réécriture dans une base différente des 45 initiales.

Un capteur de 45 M sites peut donc fournir 45 M pixels interpolés, mais pas 45 M pixels indépendants.

On rappellera à toutes fins utiles que l'œil est beaucoup plus sensible à la luminance qu'à la chrominance...

JPEG est capable de coder les couleurs sous n'importe quel format, toutefois les meilleurs taux de compression sont obtenus avec des codages de couleur de type luminance/chrominance car l'œil humain est assez sensible à la luminance (la luminosité) mais peu à la chrominance (la teinte) d'une image. Afin de pouvoir exploiter cette propriété, l'algorithme convertit l'image d'origine depuis son modèle colorimétrique initial (en général RVB) vers le modèle de type chrominance/luminance YCbCr. Dans ce modèle, Y est l'information de luminance, et Cb et Cr sont deux informations de chrominance, respectivement le bleu moins Y et le rouge moins Y.

Pour exploiter cette faible sensibilité de l'œil humain à la chrominance, on peut procéder à un sous-échantillonnage de ses signaux.

https://fr.wikipedia.org/wiki/JPEG


Citation de: restoc le Mars 06, 2020, 15:14:17
Ici la thèse déjà ancienne de Harold Phelippeau mais qui illustre avec des images  toute la différence entre une panoplie de dématriçeurs plus ou moins sophistiqués  et des interpolations simples  en terme visuel ( donc numérique au passage).

http://tel.archives-ouvertes.fr/docs/00/49/92/52/PDF/2009PEST1002_0_0.pdf

Oui, voir post #230.

Citation de: restoc le Mars 06, 2020, 15:14:17
Et çà date de 2010. Depuis un DXO et même ACR ont encore bien progressé et on peut dire dans 99% des cas 1 pixel de fichier raw= 1 pixel (photosite) en terme de résolution. Les moirés avec la texture de l'image n'ont pas de rapport direct évidemment.
Les constructeurs ne sont donc pas devant le tribunal  en vendant 36 Mp pour 36 Mp. C'est une autre façon de vérifier  ;) ;D

Oui.

D'ailleurs, j'ai posté plusieurs exemples le montrant sans ambiguïté.


Après, pour avoir une bonne idée de ce qu'on perd avec un Bayer, il suffit de comparer avec un Foveon de définition équivalente, par exemple. Ronan Loaëc, avec qui j'en avais longuement discuté à l'époque, estimait la différence à ~30%.

seba

Citation de: jenga le Mars 06, 2020, 14:16:04
Si je comprends bien, le fichier jpg que tu montres est un crop à 200% de la première image et de la troisième (fichier de 460 pixels pour des images de 230), et donc un crop à 400% de la deuxième.

L'image de départ (la première) contient des structures dont la taille est inférieure à 2 pixels (de l'image, pas du crop), les cils et le cheveu isolé par exemple. Il n'est donc pas possible de réduire sa taille sans perdre définitivement d'information.

Quelle que soit la précision de l'interpolateur utilisé pour recréer les pixels de l'image 3, celle-ci ne peut pas contenir l'information perdue lors du passage de 1 à 2. C'est pourquoi l'image 3 a moins de détail que la 1.

Je ne comprends pas ces histoires de crops.
C'était pour montrer ce qu'on obtient de 230x150 photosites après dématriçage (qui est beaucoup mieux que 115x75 pixels) et que à partir de 115x75 pixels, si on fait une interpolation bicubique, les 230x150 pixels résultants n'arrivent pas à la qualité des 230x150 photosites dématricés.

Lautla

Citation de: JMS le Mars 02, 2020, 13:41:37
Sinon je confirme que grâce aux derniers traitements de correction des grands angles il est possible de prouver que la terre est plate...quand je photographiais un horizon sur la mer dans les années 60 avec mon 24 mm, l'objectif me prouvait la rotondité de la terre. Maintenant avec mon dernier zoom 14-24, je vois bien qu'elle est plate...les faits sont tétus  ;D ;D ;D

Excellent, autrement dit la technologie au service de la platitude  :D  ;D

jenga

Citation de: JMS le Mars 02, 2020, 13:41:37
Sinon je confirme que grâce aux derniers traitements de correction des grands angles il est possible de prouver que la terre est plate...quand je photographiais un horizon sur la mer dans les années 60 avec mon 24 mm, l'objectif me prouvait la rotondité de la terre. Maintenant avec mon dernier zoom 14-24, je vois bien qu'elle est plate...les faits sont tétus  ;D ;D ;D
Si tu prends la photo allongé sur la plage, peut-être.
Si tu la prends depuis le haut d'une falaise et que ton zoom te montre un horizon droit, une révision s'impose.
Et si tu vois apparaître la coque d'un bateau en approche au même instant que le mât, c'est qu'il photographie à travers l'eau en lumière rasante, ce qui démontre l'utilisation de verres ayant des indices de réfraction très spéciaux  ;)

jenga

Citation de: seba le Mars 06, 2020, 17:06:12
Je ne comprends pas ces histoires de crops.
C'était pour montrer ce qu'on obtient de 230x150 photosites après dématriçage (qui est beaucoup mieux que 115x75 pixels) et que à partir de 115x75 pixels, si on fait une interpolation bicubique, les 230x150 pixels résultants n'arrivent pas à la qualité des 230x150 photosites dématricés.
L'image initiale de 230x150 contient des structures de fréquences élevées, de l'ordre de 2 pixels dans l'image de 230 pixels, même s'ils paraissent -forcément- plus larges dans le crop 200% (largeur 460) que tu as posté.

Tu réduis cette image d'un facteur 2, à 115x75, puis à partir de là, tu essaies de retrouver l'image initiale, y compris ces structures de 2 pixels. Il est donc essentiel que cette réduction préserve les fréquences élevées.

Or, tu l'effectues avec l'interpolateur "au plus proche", qui a une réponse nulle à la fréquence de Nyquist (correspondant à des structures de largeur 2 pixels), ce qui fait définitivement perdre l'information à cette fréquence), alors que la réponse devrait valoir 1 à cette fréquence pour préserver l'information contenue dans l'image de départ.
De plus, cet interpolateur introduit du repliement de spectre, ce qui dégrade encore l'image.

Le procédé de réduction de l'image de 230 pixels la dégrade donc de façon irréversible, ce qui empêche toute restitution ultérieure. Cela ne prouve pas du tout que l'image de 230 pixels ne contient pas d'information redondante.

jenga

Citation de: Rami le Mars 06, 2020, 14:25:57
Je pense que si on veut inverser l'interpolation, on aura besoin des 45M  photosites de base.
Donc, pour moi, les 45M pixels restent indépendants.
Comment serait-il possible de générer 45x3 informations indépendantes (qu'on ne peut pas calculer les unes à partir des autres) en disposant seulement de 45 informations au départ?

Si je connais les positions de deux coins opposés d'un rectangle dans le plan, j'ai 4 informations indépendantes, les positions en x et y des deux coins. Il est impossible de déduire l'une de ces informations des autres.

A partir de là, je peux calculer les positions des deux autres coins, ce qui fournit 4 coordonnées.

J'ai alors 8 nombres au total, mais ce ne sont pas des informations indépendantes, puisque les uns se déduisent des autres.

A partir de 45M informations, on ne peut pas constituer 3x45M informations indépendantes.

seba

Citation de: jenga le Mars 09, 2020, 09:58:49
Le procédé de réduction de l'image de 230 pixels la dégrade donc de façon irréversible, ce qui empêche toute restitution ultérieure. Cela ne prouve pas du tout que l'image de 230 pixels ne contient pas d'information redondante.

Dans mon esprit, ça correspondait à un pixel à partir de 4 photosites.

jenga

Citation de: egtegt² le Mars 06, 2020, 15:08:30
Oui mais justement ils sont décalés, si les 4 photosites étaient superposés (cas du capteur Sigma), on n'aurait effectivement qu'une seule information par photosite, c'est à dire la luminance en ce point pour chaque canal, avec d'ailleurs deux valeurs identiques pour le vert.
Mais le fait qu'ils soient décalés permet de déduire d'autres informations.
Non, c'est strictement équivalent. Si l'échantillonnage est correct au sens de Shannon, l'image échantillonnée contient toute l'information de l'image réelle formée sur le capteur.
On peut donc reconstruire l'image de départ avec un interpolateur correct, c'est-à-dire retrouver tous ses points. En particulier, on retrouve tous ses points sur une grille décalée par rapport à la grille d'échantillonnage.
La connaissance des échantillons sur une grille est donc strictement équivalente à la connaissance des échantillons sur une autre (heureusement, car sinon la matrice de Bayer ne permettrait pas de reconstituer des pixels corrects).

Voir par exemple ce document:
https://perso.limsi.fr/vezien/pdf_cours_ima_jmv.pdf
Son chapitre 1.4 expose de façon simple mais à peu près exacte les principes de l'échantillonnage et de la reconstruction d'image à partir des échantillons.

Citation de: egtegt² le Mars 06, 2020, 15:08:30
Si j'ai du bruit, le fait que deux pixels séparés par un troisième soient rouges ne veut strictement rien dire sur la couleur du pixel intermédiaire. Si je photographie une scène réelle, la plupart du temps le pixel intermédiaire sera d'une couleur proche de ce rouge, ce qui signifie que si j'ai une variation importante de la luminance sur le photosite intermédiaire, je peux me permettre de l'interpréter comme une variation de luminance en restant dans les mêmes tons.
Si je comprends bien, tu te places dans un cas où l'image ne contient pas de variations rapides de couleur, ce qui permet de déduire certaines caractéristiques d'un pixel par continuité d'une composante (chrominance, par exemple) ?
Cette dépendance réduit encore le nombre de pixels indépendants dans l'image, par définition.

Et ce n'est pas une hypothèse réaliste. En regardant autour de moi, je vois à cet instant même un coin de bâtiment rouge/ocre sur fond de ciel bleu. Un carnet de couleur bleue sur fond de bureau couleur chêne. Un stylo vert sur ce même fond. Etc.

Autant de variations très rapides de chrominance, aussi rapides que les variations de luminance.

Citation de: egtegt² le Mars 06, 2020, 15:08:30
Alors que si je suis dans la pure interpolation comme l'a fait Seba dans sa seconde photo, je ne peux que faire la moyenne entre deux pixels adjacents.
Certainement pas.
L'interpolateur idéal reconstruit chaque point à partir de tous les points de l'image. Mais il nécessite trop de calculs.
On se limite donc en pratique à des interpolateurs travaillant sur des voisinages de 3x3, 5x5, etc.

Mais travailler sur un voisinage de 2 par interpolation linéaire est vraiment mauvais, et heureusement on peut faire autrement.

Citation de: egtegt² le Mars 06, 2020, 15:08:30
C'est justement ce qui provoque le moiré et c'est la limite du système : si tu as une ligne d'un pixel de large, comme elle n'est captée que par un photosite et pas par plusieurs, l'appareil est incapable de déterminer sa couleur exacte. Si elle est seule, le dématriceur s'en sort en la comparant aux pixels adjacents, mais si on a plusieurs lignes adjacentes, le dématriceur n'est plus capable de savoir ce qui appartient à chaque ligne et il interprète ça avec des couleurs aléatoires.
Oui, l'ajout d'hypothèses simplistes pour essayer de reconstituer plus d'information que le capteur n'en fournit ne fonctionne pas dès que le signal est un peu complexe.

Soit l'image ne contient pas de fréquences élevées, et tout va bien (mais l'hypothèse ne sert pas à grand chose).
Soit elle en contient et le résultat est faux...
De façon flagrante sur les motifs répétitifs (moirés...), mais aussi sur les structures isolées avec des halos, des dédoublements, des traits qui font par miracle la largeur exacte d'un photosite, etc.

Citation de: egtegt² le Mars 06, 2020, 15:08:30
Et ne me fais pas dire ce que je n'ai pas dit, il n'y a aucune IA dans ce que j'ai écrit, juste des algorithmes de traitement du signal tout ce qu'il y a de plus banal. J'en utilisais déjà il y a 30 ans pendant mes études alors que le terme IA apparaissait à peine.
Tu parlais d'ajouter de l'information à l'image échantillonnée pour reconstruire quelque chose de réaliste. Je dis simplement que cela fait penser immédiatement à l'IA, qui permettra (ou permet déjà dans les smartphones?) d'aller vers cet objectif.

Dans les cas discutés ci-dessus, relevant effectivement du traitement de signal banal, on ajoute implicitement des hypothèses simples comme la corrélation entre les photosites de "couleurs" différentes; cela conduit à des artefacts de type moirés, halos, etc. dès que le signal ne vérifie pas ces hypothèses. C'est trop simpliste.

jenga

Citation de: restoc le Mars 06, 2020, 15:14:17
Tout à fait.
Le pb vient du fait que l'on croit que le dématriçage = une interpolation.
On a au départ une grille qui donne, en chaque point, R ou V ou B.
On a au final la même grille avec en chaque point R et V et B.

Les valeurs de la grille finale sont déduites des valeurs existantes dans la grille iniitale. C'est par définition de l'interpolation, quelle que soit la méthode utilisée.

Citation de: restoc le Mars 06, 2020, 15:14:17
C'est bp plus complexe que çà : les meilleurs dématriceurs analysent d'abord les directions ( des détails, des lignes, des dégradés pour faire simple) et vont interpoler ( ou seulement pondérer les canaux rvb quand c'est possible en absence de directions)  selon un arbre de décision devenu trés complexe complexe pour les meilleurs dématriceurs.

De deux choses l'une, le traitement est globalement linéaire ou il ne l'est pas.

S'il est linéaire

  • il est par ailleurs invariant dans le temps; autrement dit, l'image produite ne dépend pas de la date de création du raw
  • il est par ailleurs invariant dans l'espace: l'image reconstituée à partir d'un motif ne dépend pas de la position du motif sur le capteur (je ne parle pas ici des corrections d'objectif, appliquées après)
Le traitement est alors équivalent à un produit de convolution, et tout ce qui est dit ci-avant s'applique.
On peut bien sûr l'analyser en termes de fréquences spatiales (définies par un ombre de cycles/mm et une orientation).

S'il n'est pas linéaire

  • adieu les développements linéaires
  • adieu l'iso-invariance, etc
Le débat porte sur la capacité du traitement à reproduire l'image réelle; s'il n'est pas linéaire, la réponse est non.
Cela peut être acceptable pour obtenir des images réalistes, mais pas des images fidèles à la réalité.
Donc plutôt typé smartphone qu'APN.


jeandemi

Je me dis que, si l'illuminant a une dominante de couleur (exemple: un spot bleu pour un spectacle) qui sature complètement ou pas le canal couleur correspondant, et que les autres canaux couleur sont vides, le résolution du capteur est fatalement divisée, par 4 si c'est un illuminant rouge ou bleu, par 2 s'il est vert.

Ce qui m'a fait me tourner vers un Leica Monochrom M246 plutôt qu'un M240 ou M10, ce sont des artefacts de dématriçage dûs à des spots bleus, qui faisaient des taches sur les visages des musiciens, irrattrapables même en convertissant l'image en noir et blanc (par désaturation ou conservation d'un canal). Le Monochrom n'est pas sujet à ce type de problème. Je posterai un exemple quand je serai sur mon ordi

jdm


Si une once de bon sens pouvait linéariser le raisonnement de Jenga ...
dX-Man

jdm

Citation de: jeandemi le Mars 09, 2020, 22:57:00
Je me dis que, si l'illuminant a une dominante de couleur (exemple: un spot bleu pour un spectacle) qui sature complètement ou pas le canal couleur correspondant, et que les autres canaux couleur sont vides, le résolution du capteur est fatalement divisée, par 4 si c'est un illuminant rouge ou bleu, par 2 s'il est vert.

....

C'est contagieux  ... ?  :(
dX-Man

jenga

Citation de: jdm le Mars 10, 2020, 06:57:47
Si une once de bon sens pouvait linéariser le raisonnement de Jenga ...
Tu veux dire, pour me faire rentrer dans le droit chemin?  :)

jenga

Citation de: jeandemi le Mars 09, 2020, 22:57:00
Je me dis que, si l'illuminant a une dominante de couleur (exemple: un spot bleu pour un spectacle) qui sature complètement ou pas le canal couleur correspondant, et que les autres canaux couleur sont vides, le résolution du capteur est fatalement divisée, par 4 si c'est un illuminant rouge ou bleu, par 2 s'il est vert.

Ce qui m'a fait me tourner vers un Leica Monochrom M246 plutôt qu'un M240 ou M10, ce sont des artefacts de dématriçage dûs à des spots bleus, qui faisaient des taches sur les visages des musiciens, irrattrapables même en convertissant l'image en noir et blanc (par désaturation ou conservation d'un canal). Le Monochrom n'est pas sujet à ce type de problème. Je posterai un exemple quand je serai sur mon ordi
En effet, la résolution d'un capteur monochrome n'est pas du tout équivalente à celle d'un capteur couleur ayant le même nombre de sites, même en ne considérant que la luminance.

Chaque site du capteur monochrome enregistre effectivement la luminance en ce point puisqu'il n'y a pas de filtre coloré. On a donc autant d'informations de luminance que de sites monochromes.
Ce n'est pas le cas en Bayer, comme indiqué plus haut, puisque le calcul de la luminance nécessite de connaître R et V et B en un même point, donc interpolés.

Donc, un capteur monochrome de 24 M produit une image de 24 M pixels monochromes sans interpolation.
Le capteur couleur de 24 M sites produit une image de 24 M pixels couleur au prix d'une interpolation.

Lorsque des fréquences spatiales élevées sont présentes, l'image couleur interpolée est définitivement faussée en chrominance et en luminance; c'est pourquoi, même en la convertissant en monochrome, on n'obtient pas un bon résultat.

jdm

Citation de: jenga le Mars 10, 2020, 07:35:58
Tu veux dire, pour me faire rentrer dans le droit chemin?  :)

Déjà concernant le dématriçage, si tu abandonnait le concept d'interpolation qui est le principe crasse de ton raisonnement simpliste depuis le début du fil pour celui d'interprétation, on ferait une grosse avancée, voire même on pourrait clore le débat ...
dX-Man

namzip

Bonjour jdm,

Le concept d'interprétation induit une notion de comparaison aussi je pense qu'interpolation est le terme juste.
Il s'agit en effet d'obtenir les infos manquantes par calcul.  :)

Depuis mon intervention où je m'étonnais de la disparition des trois quart des pixels de mes capteurs, je suis ce fil avec délectation.

Rami

#273
+1 pour interpolation qui sous-entend un algorithme, pas forcément linéaire ni local.
Interprétation sous-entend plutôt de l'IA, ce qui n'est pas le cas.

Sinon, on peut employer le terme de reconstruction (au sens mathématique du terme).
Nikonairien (ou presque)

jdm

#274
 Reconstruction me va sans problème, mais pas réduire le principe à un simple calcul de d'interpolation de la mesure d'un signal ...
 
Un petit coup d'œil sur une proposition de dématriçage (parmi de nombreuses) avec des comparaisons à la fin :

https://www.groundai.com/project/joint-demosaicing-and-denoising-with-perceptual-optimization-on-a-generative-adversarial-network/
dX-Man