Antinomie entre dynamique des capteurs et restitution en sRVB ?

Démarré par chelmimage, Février 13, 2019, 20:40:27

« précédent - suivant »

Nikojorj

Citation de: Jean-Claude le Mars 07, 2019, 13:59:39
Quand même parlantes les différences de filtrations de la matrice de Bayer chez P1 entre un dos standard et un trichro destiné à la reproduction

https://www.phaseone.com/fr-FR/Photography/Camera-Technology/Trichromatic-Technology
Des pubs, et pas une seule image d'exemple... J'ai déjà vu plus convaincant!

Verso92

#326
Citation de: Franciscus Corvinus le Mars 07, 2019, 20:46:37
Je reviens un peu tard sur ce fil. Comme l'a dit astrophoto, il n'est pas possible d'évaluer, encore moins de calculer, la luminosité a partir d'un photosite. Le probleme de tous les exemples présentés, c'est que les photosites ne sont pas isolés. Il faut une image de test ou la luminance d'un photosite n'a rien a voir avec celle de ceux qui les entourent. C'est ce que j'ai fait, et le résultat est que la luminosité de l'image dématricée est completement incohérente.

Je passe sous silence le premier essai ou j'ai essayé de photographier des points lumineux bien plus petits qu'un pixel. Mes optiques n'ont pas la qualité nécessaire pour arriver au résultat qu'il fallait. J'ai donc pris une photo completement noire. Puis je suis allé trifouiller dans le NEF pour mettre 4 photosites a la meme valeur (0xABC; je suis sur 12 bits). Les 4 photosites font un carré de 51 photosite de coté, comme ca chacun est sur un filtre différent de la matrice de Bayer, et il ne peut y avoir aucune influence entre eux. J'ai dématricé ce NEF avec Capture NX2 (premiere image) et avec Capture One (deuxieme image), en enlevant toutes les corrections possibles (C1 est en linéaire). J'ai croppé autour du carré et mesuré la luminance du pixel central en Lab, que j'ai notée dans l'image (max=100).

Comme vous pouvez le voir, pour un dématriceur donné, on a des valeurs de luminosité considérablement différentes suivant que j'ai allumé un photosite bleu, rouge ou vert. Mais la comparaison entre deux dématriceurs montre bien que le calcul exact de la luminosité est impossible: ils sont obligé de faire des hypotheses, différentes d'un dématriceur a l'autre. C'est pour cela que les résultats sont différents entre les deux images.

Cela s'explique par le fait que, dans le calcul de la luminosité en Lab donné par Verso92 (qui me convient parfaitement comme définition), la base de la luminosité est calculé avec cette formule:
double Y =  r*0.2126729 + g*0.7151522 + b*0.0721750
Or un photosite ne fournit qu'un des trois valeurs nécessaires. Le dématriceur doit "inventer" les deux autres pour pouvoir faire son calcul. C'est pour cette raison que le canal L n'est pas plus ni moins interpolé que les autres: il est interpolé aux 2/3.

Bien entendu je suis ouvert a toute critique constructive sur le mode opératoire et les conclusions.

Pour moi, il n'y a pas de surprise dans tes conclusions...


Ne pas oublier que, tout au long de la discussion, j'ai lourdement insisté sur le caractère corrélé des détails qu'on pouvait distinguer sur les photos (un peu comme un cheveu sur une feuille blanche sera très distinctement visible, ce qui ne sera pas le cas d'une poussière de même diamètre). Pour moi, un pixel tout seul, isolé, sera bien sûr lourdement maltraité par la matrice de Bayer (je ne pense pas qu'elle ait été conçue dans cette optique, d'ailleurs).

Il suffit de constater que, sur les zones d'aplat, on distingue clairement le motif de la matrice (quand on zoome au-delà de 100%) : preuve, s'il en est, que la luminosité sous le photosite n'est pas à considérer comme une valeur exacte (au sens métrologie).

La seule chose que je me suis attelé à montrer, c'est que quand il y a un motif d'un pixel de large avec un fort contraste par rapport à son environnement, il pouvait être visible sur la photo*...


*en d'autres termes, est-ce que mon D810 est un 36 MPixels ou un 9 MPixels ?

Nikojorj

Alors moi, je dis que c'est un 29MPixels, ou peu s'en faut.

egtegt²

Citation de: Jean-Claude le Mars 07, 2019, 13:59:39
Quand même parlantes les différences de filtrations de la matrice de Bayer chez P1 entre un dos standard et un trichro destiné à la reproduction

https://www.phaseone.com/fr-FR/Photography/Camera-Technology/Trichromatic-Technology
On peut se permettre de douter de leur présentation quand on voit la somme d'idiotie qu'elle contient. Le summum est ce schéma :

Depuis quand la lumière est-elle composée de photons rouge, vert et bleu ?  ::)
Je n'ai pas le moindre doute sur la capacité de PhaseOne à concevoir d'excellents capteurs. Par contre pour ce qui est de la capacité de leur service marketing à produire des documents pertinents ...

Et encore, ce document ne contient plus  la courbe de réponse d'une matrice de bayer avec 3 courbes RVB sans aucun recoupement qu'ils avaient sortie à l'annonce du capteur trichromatic. Ils ont dû se rendre compte que c'était trop gros.

Verso92

#329
Citation de: egtegt² le Mars 07, 2019, 22:49:57
On peut se permettre de douter de leur présentation quand on voit la somme d'idiotie qu'elle contient. Le summum est ce schéma :

Depuis quand la lumière est-elle composée de photons rouge, vert et bleu ?  ::)
Je n'ai pas le moindre doute sur la capacité de PhaseOne à concevoir d'excellents capteurs. Par contre pour ce qui est de la capacité de leur service marketing à produire des documents pertinents ...

Et encore, ce document ne contient plus  la courbe de réponse d'une matrice de bayer avec 3 courbes RVB sans aucun recoupement qu'ils avaient sortie à l'annonce du capteur trichromatic. Ils ont dû se rendre compte que c'était trop gros.

C'est assez étonnant, en effet, la pauvreté de l'argumentation de Phase One...


(j'ai vérifié : ce n'est pas un fake...)

Franciscus Corvinus

Citation de: Verso92 le Mars 07, 2019, 21:38:33
La seule chose que je me suis attelé à montrer, c'est que quand il y a un motif d'un pixel de large avec un fort contraste par rapport à son environnement, il pouvait être visible sur la photo*...
*en d'autres termes, est-ce que mon D810 est un 36 MPixels ou un 9 MPixels ?
Certes. Mais tu as surtout dit, sur la base de l'exemple qui allait avec ton assertion, que le capteur restituait 36 Mpx de luminance sans interpolation. Le test que j'ai fait montre que c'est faux. Les formules que tu as données montrent que le capteur fournit 1/3 de la luminance.

Ton capteur est, en fait un 36 MPhotosite et un 12 MPix. Les 24 MPix additionels sont interpolés. C'est pour cela que la pub Nikon (et les autres) est tout aussi mensongere que la pub Sigma.

Ton erreur de logique est de croire que, comme "ca marche" (i.e., tu juges le triplement de l'information réussi car il te donne un résultat conforme a ce que tu as vu) dans un cas favorable, "ca marche" tout le temps. Tu as constaté que le dématricage marche bien dans certains cas, sans plus.

Cela n'est pas une bonne indication, encore moins une preuve, du volume d'information relative a la luminance fournit par le capteur. Pour avoir la réponse, il faut s'intéresser aux cas ou, justement, le dématricage est pris en défaut. Autrement, tu fais un double amalgame entre la qualité de la création de pixels et la quantité d'information disponible.

Pour raisonner par l'absurde, je suis sur que les ingénieurs dérawtiseurs pourraient sortir 48 MPx de ton D810 de qualité sensiblement similaire a celle de 36 MPx---a tout le moins dans certains cas favorables. Est-ce que du coup, tu dirais "je sors une image de 48 MPx donc le capteur est un 48 MPx"? Non bien sur. S'il n'est pas acceptable d'inventer 3/4 de l'image, pourquoi est-ce que 2/3 serait une proportion acceptable?

FredEspagne

Une remarque: s'il y a eu de nombreuses critiques sur la communication de Sigma, on peut s'étonner que les fabricants d'autres APN utilisant la formule de Bayer n'aient pas attaqué Sigma au niveau judiciaire pour publicité mensongère, non?
Cela confirme ce que dit Franciscus Corvinus.
35 ans de film et labo argentique , 21 de numérique

Dub

Citation de: FredEspagne le Mars 08, 2019, 06:02:31
Une remarque: s'il y a eu de nombreuses critiques sur la communication de Sigma, on peut s'étonner que les fabricants d'autres APN utilisant la formule de Bayer n'aient pas attaqué Sigma au niveau judiciaire pour publicité mensongère, non?
Cela confirme ce que dit Franciscus Corvinus.

J'ai bien 4704x3136 (≃15mpx) en résolution HI, sur la notice de mon SD1m...
Sigma est juste un poil "Marseillais" sur sa communication...  ;D


Verso92

#333
Citation de: Franciscus Corvinus le Mars 08, 2019, 03:12:38
Ton capteur est, en fait un 36 MPhotosite et un 12 MPix.

Si le capteur était un 12 MPixels, il ne pourrait pas restituer un détail d'un pixel de large (sur la base d'un 36 MPixels).

Sans compter que tu fais une autre erreur de raisonnement : les deux couleurs manquantes ne sont pas calculées sur la base de deux pixels voisins.

Citation de: FredEspagne le Mars 08, 2019, 06:02:31
Une remarque: s'il y a eu de nombreuses critiques sur la communication de Sigma, on peut s'étonner que les fabricants d'autres APN utilisant la formule de Bayer n'aient pas attaqué Sigma au niveau judiciaire pour publicité mensongère, non?
Cela confirme ce que dit Franciscus Corvinus.

Et personne ne semble attaquer Nikon France, par exemple, sur leur pub mensongère de la présentation des caractéristiques de l'ACL du D810 ("à la Sigma")... que faut-il en déduire ?

https://www.nikon.fr/fr_FR/product/digital-cameras/slr/professional/d810#tech_specs

Verso92

#334
Citation de: Verso92 le Mars 08, 2019, 07:50:56
Et personne ne semble attaquer Nikon France, par exemple, sur leur pub mensongère de la présentation des caractéristiques de l'ACL du D810 ("à la Sigma")... que faut-il en déduire ?

https://www.nikon.fr/fr_FR/product/digital-cameras/slr/professional/d810#tech_specs

Comme déjà évoqué, c'est une spécificité de Nikon France.

Sur le site Nikon US, il est bien question d'un moniteur de 1 229 000 points (dots).

https://www.nikonusa.com/en/nikon-products/product/dslr-cameras/d810.html#tab-ProductDetail-ProductTabs-TechSpecs

Dans le cas du D810, il y a quatre photodiodes (RVB + Blanc) pour afficher un pixel. Soit 307 200 pixels (écran VGA 640 x 480).


J'imagine mal une erreur de traduction involontaire, pour ma part... surtout qu'elle est systématique depuis pas mal d'années maintenant.

dioptre

Citation de: egtegt² le Mars 07, 2019, 22:49:57
On peut se permettre de douter de leur présentation quand on voit la somme d'idiotie qu'elle contient. Le summum est ce schéma :

Depuis quand la lumière est-elle composée de photons rouge, vert et bleu ?  ::)
Je n'ai pas le moindre doute sur la capacité de PhaseOne à concevoir d'excellents capteurs. Par contre pour ce qui est de la capacité de leur service marketing à produire des documents pertinents ...

Et encore, ce document ne contient plus  la courbe de réponse d'une matrice de bayer avec 3 courbes RVB sans aucun recoupement qu'ils avaient sortie à l'annonce du capteur trichromatic. Ils ont dû se rendre compte que c'était trop gros.

Un schéma ... c'est schématique ! Surtout venant d'un service commercial

Mais on peut noter l'analogie avec ce qui se passe avec les films couleurs où on arrivait à plus d'une dizaine de couches pour éliminer les couleurs qui venaient parasiter chacune des couches RVB ou CMJ.
Par exemple voir les courbes pour une astia 100 iso.

Tout cela c'est une question de filtres


Franciscus Corvinus

Tes interventions montrent bien l'amalgame que tu fais entre éléments completement séparés: la matrice de Bayer, le capteur et le dématricage. Tu tombes également dans le travers que tu reproches a Sigma et a Nikon. L'erreur sur ce sujet n'est pourtant pas facile, tu disais...  ???

Citation de: Verso92 le Mars 07, 2019, 21:38:33Pour moi, un pixel tout seul, isolé, sera bien sûr lourdement maltraité par la matrice de Bayer (je ne pense pas qu'elle ait été conçue dans cette optique, d'ailleurs).

Citation de: Verso92 le Mars 08, 2019, 07:50:56
Si le capteur était un 12 MPixels, il ne pourrait pas restituer un détail d'un pixel de large (sur la base d'un 36 MPixels).

Ca n'est pas la matrice de Bayer qui maltraite un "pixel isolé". Tout ce qu'elle fait c'est qu'elle en filtre la couleur. Elle n'a pas une rage particuliere contre les photosites isolés. En fait elle ne sait meme pas ce que c'est. Tout ce qu'elle sait, c'est qu'il y a des photons avec des longueurs d'ondes, et que certains ont plus le droit de passer que d'autres, suivant les endroits. On a la chance d'avoir des fabriquants pas trop manchots qui savent aligner la matrice avec le capteur (ouf!).

Non, ce qui maltraite un photosite isolé, c'est le dématricage, car pour créer 2x la quantité d'info fournie par le capteur, il n'y a pas 36 solutions: il faut l'inventer de toutes pieces. Les algorithmes sont construits sur la base d'hypotheses, entre autre celle que la chromie ne varie pas abruptement.

Ca n'est donc pas le capteur qui restitue un détail d'un pixel. C'est l'application d'hypotheses de dématricage a un exemple bien accommodant. Prends un exemple un peu moins docile, et les hypotheses tombent par terre, le dématricage fait n'importe quoi.

Citation de: Verso92 le Mars 07, 2019, 21:38:33
Sans compter que tu fais une autre erreur de raisonnement : les deux couleurs manquantes ne sont pas calculées sur la base de deux pixels voisins.
Non. Tu fais une erreur de lecture: je ne l'ai pas écrit. Tu fais aussi une erreur d'interprétation: je ne fais aucune hypothese sur la complexité de l'algorithme de dématricage. Tout ce que je dit c'est que pour avoir la luminance d'un pixel donné il a besoin d'une valeur R, d'une valeur V et d'une valeur B. Il a l'une des trois par lecture du capteur. Les deux autres, il faut qu'il les interpole---sur la base de un ou 17 photosites, ca n'a aucune importance pour mon raisonnement.

Verso92

Citation de: Franciscus Corvinus le Mars 08, 2019, 10:08:56
Non. Tu fais une erreur de lecture: je ne l'ai pas écrit.

Alors, dans ce cas, d'où sors-tu ton chiffre de 12 MPixels pour le D810 ?

remico

Citation de: dioptre le Mars 08, 2019, 09:05:23
Un schéma ... c'est schématique ! Surtout venant d'un service commercial

Mais on peut noter l'analogie avec ce qui se passe avec les films couleurs où on arrivait à plus d'une dizaine de couches pour éliminer les couleurs qui venaient parasiter chacune des couches RVB ou CMJ.
Par exemple voir les courbes pour une astia 100 iso.

Tout cela c'est une question de filtres

De meilleurs filtres donnent une meilleure précision. En comparant avec la vision humaine , on remarque aussi que d'une part la forme des courbes se rapprochent d'avantage du capteur trichromatique, et d'autre part que les pics vert et rouge sont plus proches et permettent une meilleure précision/sensibilité dans le jaune qui est aussi la couleur du soleil, et non pas dans le vert comme j'ai pu le lire comme argument à la présence de deux pixels verts dans la matrice de bayer. Ce doit être aussi le cas pour beaucoup d'animaux diurnes.

Images extraites d'un article en deux parties à propos du capteur trichromatique sur luminous landscape :
https://luminous-landscape.com/phase-one-trichromatic-part-1/
https://luminous-landscape.com/phase-one-trichromatic-part-2/

Image dans l'ordre trichromatique, bayer classique et dessous vision humaine.


chelmimage

Voici, côte à côte, un petit extrait de la mire et sa photo.
En exceptant la couleur, on voit que certaines juxtapositions de teintes sont imparfaitement rendues alors que d'autres sont correctes au niveau de la géométrie.
On retrouve certaines des remarques faites plus haut.
Concrètement, quelles difficultés (de dématriçage?) sont dues à ces juxtapositions?
Ce n'est pas évident..!

Franciscus Corvinus

Citation de: Verso92 le Mars 08, 2019, 10:28:19
Alors, dans ce cas, d'où sors-tu ton chiffre de 12 MPixels pour le D810 ?
Du fait que pour chacun des 36 millions de pixels seulement 1/3 de l'information existe. Comme il faut 100% de l'information pour faire un vrai pixel (pas une imitation ou les 2/3 sont inventés), ca fait 12 millions au total.

Verso92

Citation de: Franciscus Corvinus le Mars 08, 2019, 14:56:53
Du fait que pour chacun des 36 millions de pixels seulement 1/3 de l'information existe. Comme il faut 100% de l'information pour faire un vrai pixel (pas une imitation ou les 2/3 sont inventés), ca fait 12 millions au total.

Donc, si je comprends bien, on a donc un 12 MPixels d'un côté (le D810, crop du haut) et un 15 MPixels de l'autre (le DP2m, crop du bas)...

Franciscus Corvinus

Citation de: chelmimage le Mars 08, 2019, 11:51:30
Concrètement, quelles difficultés (de dématriçage?) sont dues à ces juxtapositions?
La vraie difficulté du dématricage c'est de distinguer le bruit du signal. Apres, le reste c'est des hypotheses qui peuvent s'avérer vraies ou fausses suivant les images. Tu vois bien que l'hypothese d'homogénéité de la teinte affecte considérablement trois choses:
- les transitions abruptes de couleur ne peuvent pas etre représentées (brun-cyan)
- les couleurs qui peuvent se fondre sont fondues (bleu + rouge: tout devient magenta sauf dans l'amas rouge ou la masse critique relegue le bleu hors de l'horizon du dématriceur)
- les couleurs complémentaires perdent leur saturation (cyan + rouge)
Ce qu'il faudrait, c'est un dématriceur capable de changer son groupe d'hypotheses en vol, suivant ce qu'il voit. Des méta-hypotheses en quelques sortes. Un peu comme les automatismes d'une voiture (suspension, injection, assistance de direction, assistance de freinage) changent de mode (économie, sport, confort, 4x4...) suivant le style de conduite et les indications du GPS et des radars embarqués.

Franciscus Corvinus

Citation de: Verso92 le Mars 08, 2019, 15:02:52
Donc, si je comprends bien, on a donc un 12 MPixels d'un côté (le D810, crop du haut) et un 15 MPixels de l'autre (le DP2m, crop du bas)...
C'est une question de précision de langage. Exactement ce sur quoi tu insistes dans ta poursuite (légitime) contre le marketing menteur. Tu as un capteur qui fournit 12 MPx d'un coté, et un capteur qui fournit 15 MPx de l'autre.

Ce que tu fais avec ces 12x3 ou 15x3 millions de données, c'est ton affaire. En l'occurrence pour etre rigoureux, tu as posté 1.1 et 0.95 MPx pour le D810 et le DP2m respectivement.  :P

Franciscus Corvinus

Citation de: Franciscus Corvinus le Mars 08, 2019, 15:20:08
C'est une question de précision de langage. Exactement ce sur quoi tu insistes dans ta poursuite (légitime) contre le marketing menteur. Tu as un capteur qui fournit 12 MPx d'un coté, et un capteur qui fournit 15 MPx de l'autre.
Oops, je dis un truc et je m'empresse de faire le contraire. "... un capteur qui fournit 36 millions de photosites d'un coté...". On ne peut pas parler de pixels en sortie d'un capteur derriere une matrice de Bayer.

Verso92

Citation de: Franciscus Corvinus le Mars 08, 2019, 15:20:08
C'est une question de précision de langage. Exactement ce sur quoi tu insistes dans ta poursuite (légitime) contre le marketing menteur. Tu as un capteur qui fournit 12 MPx d'un coté, et un capteur qui fournit 15 MPx de l'autre.

Donc, ce qu'affiche Photoshop en "taille image" est faux ?

Franciscus Corvinus

Citation de: Verso92 le Mars 08, 2019, 16:24:32
Donc, ce qu'affiche Photoshop en "taille image" est faux ?
Photoshop affiche les données brutes du capteur?

Verso92

#347
Citation de: Franciscus Corvinus le Mars 08, 2019, 16:45:45
Photoshop affiche les données brutes du capteur?

Si on passe par IRIS, oui (à gauche).

chelmimage

Le noir et blanc, c'est quand même plus facile à reproduire.

Franciscus Corvinus

Citation de: Verso92 le Mars 08, 2019, 17:26:05
Si on passe par IRIS, oui (à gauche).
Donc ce ne sont pas des pixels RGB (ou n'importe quel modele de couleur équivalent). C'est dans ce sens---et uniquement celui-ci---qu'on utilise le mot depuis le début. Autrement la pub Nikon pour son écran arriere serait correcte, comme le serait celle de Sigma.