Des rumeurs!

Démarré par Sebmansoros, Février 26, 2020, 13:26:29

« précédent - suivant »

jenga

Citation de: seba le Mars 12, 2020, 06:51:52
Jenga, tu es quand même d'accord pour dire que l'image de 36 MP dématricée est bien meilleure que l'image du Foveon de 15 MP ?
On compare des copies d'écran de crops 1600% de photos prises dans des conditions inconnues, l'une venant d'un compact APS-C Foveon et l'autre d'un reflex 24x36 Bayer?

Quel rapport avec le fait que 36 Méga informations ne contiennent pas 3x36 Méga informations?


jenga

Certains intervenants semblent être persuadés que 36 M sites = 36 M pixels, ce qui signifie que l'on pourrait, sans ambiguïté, reconstruire une image de 36 M pixels vrais à partir des 36 M photosites.

Voici un exemple d'informations couleur issues des photosites.

En rouge, les valeurs des sites "rouges", en vert celles des sites "verts", etc. Les valeurs sont normalisées entre 0 et 100.

10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10

La question est simple: quelles sont les 3 composantes RVB du 4ème pixel de chaque ligne?

Si j'en crois ces intervenants, elles peuvent être déterminées sans ambiguïté à partir des informations délivrées par les photosites.

Verso92

#302
Citation de: jenga le Mars 12, 2020, 22:37:59
On compare des copies d'écran de crops 1600% de photos prises dans des conditions inconnues, l'une venant d'un compact APS-C Foveon et l'autre d'un reflex 24x36 Bayer?

Elles ne sont absolument pas "inconnues" : faites dans des conditions très similaires, sur trépied, avec un Nikon D810 + Nikkor f/2.8 45 PC-E d'une part, et Sigma DP2m (avec f/2.8 30*, donc) d'autre part, sur le même sujet...

Sauf mauvaise foi délibérée, impossible de ne pas voir la différence (alors, bien sûr, tu vas essayer d'enrhumer l'assistance avec tes développement théoriques mal maitrisés... dans quel but ?).


*équivalent 45mm en 24x36.

Citation de: jenga le Mars 12, 2020, 22:37:59
Quel rapport avec le fait que 36 Méga informations ne contiennent pas 3x36 Méga informations?

Ta prose est incompréhensible... le D810, c'est 36 MPixels, point barre.

Verso92

Citation de: jenga le Mars 12, 2020, 22:39:07
Certains intervenants semblent être persuadés que 36 M sites = 36 M pixels, ce qui signifie que l'on pourrait, sans ambiguïté, reconstruire une image de 36 M pixels vrais à partir des 36 M photosites.

Voici un exemple d'informations couleur issues des photosites.

En rouge, les valeurs des sites "rouges", en vert celles des sites "verts", etc. Les valeurs sont normalisées entre 0 et 100.

10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10

La question est simple: quelles sont les 3 composantes RVB du 4ème pixel de chaque ligne?

Si j'en crois ces intervenants, elles peuvent être déterminées sans ambiguïté à partir des informations délivrées par les photosites.

Qu'est-ce que tu ne comprends pas dans cette phrase ?

L'œil humain est assez sensible à la luminance (la luminosité) mais peu à la chrominance (la teinte) d'une image.

https://fr.wikipedia.org/wiki/JPEG

seba

Citation de: jenga le Mars 12, 2020, 22:37:59
On compare des copies d'écran de crops 1600% de photos prises dans des conditions inconnues, l'une venant d'un compact APS-C Foveon et l'autre d'un reflex 24x36 Bayer?

Verso92 a indiqué les conditions. Considérant les formats et les distances focales, elles sont les mêmes.

seba

Citation de: jenga le Mars 12, 2020, 22:39:07
Certains intervenants semblent être persuadés que 36 M sites = 36 M pixels, ce qui signifie que l'on pourrait, sans ambiguïté, reconstruire une image de 36 M pixels vrais à partir des 36 M photosites.

Tous les pixels ne sont certainement pas reconstruits sont ambiguïté puisqu'il peut y avoir des artefacts, et que d'autre part il existe de nombreux algorithmes de dématriçage dont aucun n'est dépourvu de défauts. S'il existait un algorithme parfait, tout le monde aurait le même.
Ce qui serait intéressant, c'est de pouvoir expliquer comment il est possible (et c'est possible) qu'une image dématricée à partir de 36 M de photosites est meilleure qu'une image de 15 M de pixels.

seba

#306
Citation de: jenga le Mars 12, 2020, 22:39:07
Voici un exemple d'informations couleur issues des photosites.

En rouge, les valeurs des sites "rouges", en vert celles des sites "verts", etc. Les valeurs sont normalisées entre 0 et 100.

10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10

La question est simple: quelles sont les 3 composantes RVB du 4ème pixel de chaque ligne?

Si j'en crois ces intervenants, elles peuvent être déterminées sans ambiguïté à partir des informations délivrées par les photosites.

Il faudrait appliquer à ceci différent algortihmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.
Mais je pense que le fait que ta matrice soit petite est rédhibitoire (bien des algorithmes, pour calculer un seul pixel, prennent en compte plus de photosites que ta matrice n'en comporte).
Le nombre de photosites utiles du capteur est un peu moindre que le nombre total, sinon aux bords du capteur le nombre de photosites pris en compte pour le dématriçage serait insuffisant. Donc calculer par exemple le 4ème pixel de la 1ère ligne est impossible car aucun algorithme n'est applicable.
A mon avis, le plus simple des algorithmes en usage permettrait tout juste de calculer les 4 pixels centraux, et encore...

seba

Oups !

Il faudrait appliquer à ceci différents algorithmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.

Verso92

#308
Citation de: seba le Mars 13, 2020, 06:52:22
Il faudrait appliquer à ceci différent algortihmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.
Mais je pense que le fait que ta matrice soit petite est rédhibitoire (bien des algorithmes, pour calculer un seul pixel, prennent en compte plus de photosites que ta matrice n'en comporte).
Le nombre de photosites utiles du capteur est un peu moindre que le nombre total, sinon aux bords du capteur le nombre de photosites pris en compte pour le dématriçage serait insuffisant. Donc calculer par exemple le 4ème pixel de la 1ère ligne est impossible car aucun algorithme n'est applicable.
A mon avis, le plus simple des algorithmes en usage permettrait tout juste de calculer les 4 pixels centraux, et encore...

Post #233, j'ai montré les résultats d'un exercice que j'avais fait à l'époque, par curiosité, sur un motif relativement petit (au delà, ça aurait pris trop de temps), avec un algo simpliste bilinéaire.

On voit le résultat...

Depuis, on sait (source Nikon, voir le post de Bernard2) que sur le D1, l'algo de dématriçage tournait sur un matrice de 12 x 12 pixels. On devine également (cf les documents PDF mis en lien) que les algos récents sont très sophistiqués (détection de la direction, etc).


La question de jenga au post #313 n'a tout simplement pas de sens...

jdm

Citation de: seba le Mars 13, 2020, 06:52:22
Il faudrait appliquer à ceci différent algortihmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.
...

Et en plus adapter les algos pour un capteur visiblement inconnu (fort heureusement) avec des valeurs irréalistes et un échantillon non viable !

Gratté par Verso, aucun sens ...  :)
dX-Man

egtegt²

Citation de: jenga le Mars 11, 2020, 22:32:19
Ce terme ne désigne pas un attribut existant. Un photosite ne donne pas d'information de luminance. Connaître la luminance nécessite de connaître les intensités des 3 couleurs. 

Pour un même site bleu illuminé à 10%, la luminance de l'image réelle en ce point peut varier de 1% à 90%, comme je l'ai montré plus haut dans ce fil.

Je sais bien que le noyau d'interpolation de certains dématriceurs néglige cette réalité, en mixant des sites de couleurs différentes. C'est pour cela qu'ils produisent des résultats faux lorsque l'image contient des fréquences proches de celle de Nyquist.
Ben si ! un photosite donne justement uniquement une information de luminance. Pas la luminance globale mais la luminance sur le canal filtré (R, V ou B), c'est ce dont je parlais.

Citation de: jenga le Mars 11, 2020, 22:34:29
Un capteur (couleur) de 36 Msites délivre... 36 M informations indépendantes, d'une seule couleur chacune. Indépendantes signifie qu'il n'est pas possible de déduire l'une des autres.

Pour avoir 36 M pixels couleur indépendants, il faut 3x36 M informations indépendantes.

Comme on ne peut pas déduire 3x36M infos indépendantes de seulement 36M, un capteur de 36M sites ne peut pas fournir 36 Mpx indépendants.
Pas le traitement du signal, en tout cas, ni l'analyse des quantités d'information.

Ni l'expérimentation sur cible connue dans des conditions maîtrisées (fournir une image sans connaître la scène réelle ne permet pas de savoir si on a reproduit cette dernière).

Rappel:
-le D850 moire sur des cibles de fréquence nettement inférieure à la moitié de sa densité de "pixels" (DP Review)

-idem pour les capteurs 24 "Mpixels" dont les tests DP Review ont été postés dans ce fil.

Ces résultats sont inexplicables... sauf si on admet que le nombre de pixels indépendants n'est pas égal au nombre de sites monochromes, auquel cas tout rentre dans l'ordre.  :)
Tu t'obstines à ne pas lire ce qu'on t'écrit : je n'ai jamais écrit qu'un capteur 36 Mpix était capable de rendre 36 Millions de pixels totalement indépendants, c'est même exactement le contraire puisque j'ai écrit qu'un tel capteur était effectivement incapable de rendre une image de 36 millions de points totalement aléatoires.

Par contre, il se trouve que les zones d'une scène ne sont pas indépendantes les unes des autres, il y a des continuités et ce sont ces continuités qui permettent un traitement du signal intelligent et une résolution finale largement supérieure à 9 Mpix, même s'il s'agit d'approximations.

On voit parfois les limites avec par exemple les Sony qui suppriment les étoiles d'un pixel sur un photo astro ou les motifs répétitifs moirés mais dans 99% des cas, ça donne d'excellents résultats.

Mais c'est un dialogue de sourd, tu dis qu'on ne peut pas photographier 36 Mpix indépendants et on te répond qu'on s'en fout vu qu'aucune photo n'est composée de 36 millions de pixels indépendants.

namzip

En fait vous dites tous la même chose.
Autour d'une mousse ça passerait mieux.   :)

Verso92

Citation de: namzip le Mars 13, 2020, 11:55:30
En fait vous dites tous la même chose.

Pas vraiment, non.

Manu_14

Je suis un peu perdu. D'après ce que j'avais compris (mais je ne demande qu'à être corrigé) on distingue:

1.l'aliasing en chrominance lié à la matrice de Bayer qui nécessite une interpolation complexe pour restituer une information colorée complète (une couleur RVB par pixel alors que chaque photosite ne voit qu'une couleur R, V ou B). C'est, il me semble, ce type d'aliasing dont parle Jenga.

2. l'aliasing en luminance dont la survenue dépend du rapport entre la fréquence d'échantillonnage (donc de la taille d'un photosite) et la plus haute fréquence spatiale (fréquence max) que peut laisser passer l'objectif.
La fréquence d'échantillonnage doit être au moins le double de la fréquence max sinon l'aliasing en luminance (moiré) risque d'apparaître. Le filtre passe-bas prévient cette apparition si nécessaire. La résolution du capteur est donc directement liée à la fréquence d'échantillonnage.
Un capteur de 24M de photosites produit des pixels de 6 microns, sa résolution (qui ne dépend pas de la couleur) est donc de 1/(taille du photosite X 2) puisqu'il faut deux photosites pour distinguer deux traits sur une mire, soit 1/12 x 1000= 83,3 traits par millimètres. Cette résolution ne dépend bien que de la fréquence d'échantillonnage, d'où la différence entre les deux images proposées par Verso (le D810 de 36 MPixels) et le Sigma DP2m de 15 MPixels).

Verso92

#314
En fait, il faut vraiment distinguer les variables.

La fréquence maximale d'un signal périodique ne pourra en aucun cas dépasser Fe/2 (Shannon), Fe étant la fréquence d'échantillonnage spatiale, le photosite, donc.

En d'autres termes, la période du motif répétitif ne pourra pas être plus petite que deux photosites. Mais comme on parle en général de "paires de lignes" pour exprimer la résolution en optique, ce n'est pas plus gênant que ça. Pour un 24 x 36 24 MPixels (6 000 x 4 000 pixels, donc), cela donne une densité de 167 pixels/mm, ou encore 83 paires de lignes/mm.

Par contre, un signal non périodique d'une largeur plus petite que le photosite pourra tout à fait être détecté, à condition que son contraste avec son environnement soit suffisant (on en a plusieurs exemples dans les crops que j'ai montrés). Par contre, la largeur ne pourra bien sûr pas être inférieure à un photosite, par principe.

Ces conditions, liées à la luminance, sont valables pour tous types de capteurs, bayerisés ou pas (Foveon).


Pour les capteurs de type "Bayer" viennent s'ajouter les biais liés à la reconstruction des deux couleurs manquantes par photosite. Comme évoqué précédemment, les pixels de l'image ne sont pas des entités indépendantes les unes par rapport aux autres (c'est la différence de raisonnement avec notre petit camarade) et les algorithmes récents parviennent à reconstruire une image de haute qualité, même si elle n'est pas aussi "parfaite" que celle qu'aurait délivré un Foveon (sans Bayer, donc) de définition égale.

Reste que quand on a un motif répétitif proche de la résolution du capteur, les algos, même les plus récents, ne peuvent plus grand chose... c'est le fameux moiré qu'on observe quelquefois, que j'appelle pour ma part "moiré de chrominance".

Manu_14

Citation de: Verso92 le Mars 13, 2020, 16:55:39
Par contre, un signal non périodique d'une largeur plus petite que le photosite pourra tout à fait être détecté, à condition que son contraste avec son environnement soit suffisant (on en a plusieurs exemples dans les crops que j'ai montrés). Par contre, la largeur ne pourra bien sûr pas être inférieure à un photosite, par principe.

Merci pour ta réponse , on tombe sur les même chiffres (j'aurais dû écrire paires de lignes plutôt que traits).

En revanche je vois comme une contradiction dans cette phrase:

Citation de: Verso92 le Mars 13, 2020, 16:55:39
Par contre, un signal non périodique d'une largeur plus petite que le photosite pourra tout à fait être détecté, à condition que son contraste avec son environnement soit suffisant (on en a plusieurs exemples dans les crops que j'ai montrés). Par contre, la largeur ne pourra bien sûr pas être inférieure à un photosite, par principe.

Verso92

#316
Citation de: Manu_14 le Mars 13, 2020, 17:07:35
En revanche je vois comme une contradiction dans cette phrase:

Je veux dire par là que le motif peut être très fin (par exemple 1 cm), si son contraste est suffisant avec son environnement direct, il pourra apparaitre sur l'image, même si la largeur du photosite représente 3 cm à cette distance.


Par contre, même si on a toutes les distances utiles et les caractéristiques du capteur, on ne pourra rien déduire de plus que le motif fait 3 cm de large... ou peut-être moins : le pixel est le plus petit élément de l'image, sa "brique" de base.

JMS

Citation de: namzip le Mars 13, 2020, 11:55:30
En fait vous dites tous la même chose.
Autour d'une mousse ça passerait mieux.   :)

Il est urgent de la boire avant que les bars ne soient fermés ! Maintenant je vois qu'il y a du progrès, celui qui écrivait que le capteur 36 Mpxl est équivalent à un 9 Mpxl écrit désormais que c'est un 36 Mpxl dont les couleurs sont fausses : heureusement que l'argentique nous donnait toujours des couleurs vraies, il suffisait quand j'étais jeune de poser sur la table lumineuse côte à côte le même sujet photographié avec une K25, une K64, une Ekta 64, une Ekta 160, une Agfa CT 21, une Agfachrome 50, une Ferrania Dia 28, une Anscochrome et une Orwo UT 18 pour s'en convaincre ! Seul Bayer ment sur les couleurs  ;D ;D ;D

PS : j'ai vraiment des essais de tous ces films dans mes archives nombreuses  ;)

Manu_14

Citation de: Verso92 le Mars 13, 2020, 17:10:36
Je veux dire par là que le motif peut être très fin (par exemple 1 cm), si son contraste est suffisant avec son environnement direct, il pourra apparaitre sur l'image, même si la largeur du photosite représente 3 cm à cette distance.

Par contre, même si on a toutes les distances utiles et les caractéristiques du capteur, on ne pourra rien déduire de plus que le motif fait 3 cm de large... ou peut-être moins : le pixel est le plus petit élément de l'image, sa "brique" de base.

Merci, c'est plus clair.

Rami

Citation de: Verso92 le Mars 13, 2020, 17:10:36
Je veux dire par là que le motif peut être très fin (par exemple 1 cm), si son contraste est suffisant avec son environnement direct, il pourra apparaitre sur l'image, même si la largeur du photosite représente 3 cm à cette distance.
Par contre, même si on a toutes les distances utiles et les caractéristiques du capteur, on ne pourra rien déduire de plus que le motif fait 3 cm de large... ou peut-être moins : le pixel est le plus petit élément de l'image, sa "brique" de base.
Il ne sera capté que par un photosite, donc on aura l'information sur une seule couleur.
Que se passera-t-il pour les deux autres ?
Loterie selon le voisinage et le dématricage à mon avis.
Ce serait amusant de pouvoir faire le test en variant le contraste de couleur.
Nikonairien (ou presque)

Verso92

#320
Citation de: Rami le Mars 13, 2020, 18:54:26
Il ne sera capté que par un photosite, donc on aura l'information sur une seule couleur.
Que se passera-t-il pour les deux autres ?
Loterie selon le voisinage et le dématricage à mon avis.
Ce serait amusant de pouvoir faire le test en variant le contraste de couleur.

Si le motif n'est capturé que par un seul photosite, il passera forcément à la trappe lors du dématriçage.


Cela n'a de sens que si le sujet est un motif vertical (par exemple) faisant ~1 pixel de large. Là, il y aura cohérence (et les algorithmes pourront s'en sortir), et il ne manquera de toute façon qu'une seule couleur (puisque le motif contiendra soit des photosites V+B, soit des photosites V+R).

Les crops du post #304 donnent une bonne idée de ce que ça peut donner... mais ne pas oublier qu'il s'agit de visualisations à 1 600%, destinées à illustrer ce qui se passe au niveau du pixel.

Dans la vraie vie, même très exigeante* (visualisation 100%), ça passera rigoureusement inaperçu (cf balcons en fer forgé) :


*et une fois la photo imprimée, je n'en parle même pas...

Fred_G

#321
Citation de: Rami le Mars 13, 2020, 18:54:26
Ce serait amusant de pouvoir faire le test en variant le contraste de couleur.
Un test plus fiable : de la trichromie en partant d'un capteur monochrome de même définition que le Bayer à comparer. Ça devrait mettre fin à la discussion.

Citation de: Verso92 le Mars 13, 2020, 19:00:04
[...]

Dans la vraie vie, même très exigeante* (visualisation 100%), ça passera rigoureusement inaperçu (cf balcons en fer forgé) :


*et une fois la photo imprimée, je n'en parle même pas...
Pour résumer : la reconstruction peut se tromper, mais ça ne se voit pas. Tu vas finir par reconnaître que jenga n'a pas complètement tort  ;)
The lunatic is on the grass.

Verso92

#322
Citation de: Fred_G le Mars 13, 2020, 19:42:07
Un test plus fiable : de la trichromie en partant d'un capteur monochrome de même définition que le Bayer à comparer. Ça devrait mettre fin à la discussion.

Pas si sûr (de combien le filtre rouge va décaler la MaP, etc...  ;-).

Citation de: Fred_G le Mars 13, 2020, 19:42:07
Pour résumer : la reconstruction peut se tromper, mais ça ne se voit pas. Tu vas finir par reconnaître que jenga n'a pas complètement tort  ;)

Si tu as suivi la discussion, tu as certainement remarqué que je prenais beaucoup de précautions dans mes formulations... j'ai toujours précisé qu'un Foveon de définition égale sera meilleur qu'un Bayer, par exemple.

J'ai insisté sur le fait que luminance et chrominance n'étaient pas deux grandeurs égales par rapport à la perception d'une image (cf lien Wikipedia sur le Jpeg).

J'ai montré aussi des exemples où le Bayer partait en couilles, si j'ose dire (pas de "sacralisation" de ma part).

Tu auras aussi remarqué, je l'espère, que mes explications sont généralement accompagnées d'illustrations réelles (ce ne sont pas seulement des assertions fumeuses d'éléments de théorie mal assimilés).

Fred_G

Citation de: Verso92 le Mars 13, 2020, 19:51:06
Pas si sûr (de combien le filtre rouge va décaler la MaP, etc...  ;-).
C'est déjà bien assez compliqué de ne parler que de la couleur, alors je ne pense pas nécessaire de faire intervenir une variable supplémentaire  ;)

Pour le reste... Tu n'as pas l'impression d'ouvrir le parapluie, là ?
Ce n'est pas une attaque personnelle, mais depuis le début je pense aussi que vous ne vous attachez pas exactement à la même chose, mais que vous êtes globalement d'accord  ;D
The lunatic is on the grass.

jenga

Citation de: seba le Mars 13, 2020, 06:52:22
Il faudrait appliquer à ceci différent algortihmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.
Mais je pense que le fait que ta matrice soit petite est rédhibitoire (bien des algorithmes, pour calculer un seul pixel, prennent en compte plus de photosites que ta matrice n'en comporte).
Tu peux prolonger des 4 côtés la structure que j'ai fournie. C'est constant vers la gauche et vers la droite, et les paires de lignes sont identiques.

Mais le problème n'est pas là. Il manque de l'information pour reconstruire des pixels à la même densité que les photosites, ce n'est pas une question d'algorithme.

Si l'image réelle comportait un trait vertical, par exemple bleu, d'épaisseur 1, il serait soit vu soit définitivement perdu selon sa position.