Antinomie entre dynamique des capteurs et restitution en sRVB ?

Démarré par chelmimage, Février 13, 2019, 20:40:27

« précédent - suivant »

Franciscus Corvinus

Citation de: egtegt² le Février 27, 2019, 21:48:39
A mon avis, c'est un peu entre les deux : bien évidemment que la luminance d'un photosite filtré n'est que partielle puisqu'elle ne contient que la luminance d'un canal, mais on ne peut pas dire qu'elle est totalement extrapolée, car ça signifierait qu'on n'a aucune information sur la luminance en ce point, ce qui serait faux.
Mais personne ne dit ca! ???

egtegt²

Citation de: Franciscus Corvinus le Février 28, 2019, 01:18:37
Mais personne ne dit ca! ???
Un petit peu quand même ;)

Citation de: Franciscus Corvinus le Février 27, 2019, 12:08:51
Je ne vois pas de mélange. La définition de jenga est correcte. Sa seule erreur, c'est de conclure qu'il faut 4 photosite pour établir une valeur de luminance. Trois (un R, un V et un B) suffisent. Cette luminance sera placée au centre des trois photosites. Apres, pour calculer la luminance a chaque photosite, il faut faire des interpolations.

Meme si tu prends un autre modele de calcul de luminance (quelqu'un a donné une autre formule plus haut), il faut trois photosites. Il est impossible de calculer une luminance avec moins que ca, quel que soit le modele.

Donc un D850 te donne 15 MPx de luminance. Les 30 MPx restant sont inventés par l'appareil. Pareil pour la teinte et la saturation. Tu arrives finalement a une image de 45 MPx dont les 2/3 n'ont jamais réellement été capturés. Un peu comme si tu prenais une image de DP2 et l'agrandissait de 300%...  ;)
Quand tu écris que 30 Mpx sont inventés par l'appareil, ça c'est de l'interpolation pure. Donc si je prends disons un N&B de 150 Mpix (pour avoir suffisamment d'information pour garantir une image à 15 Mpix parfaite), que je le réduis à 15 Mpix, puis que je l'extrapole à 45 Mpix, je devrais avoir le même résultat qu'une photo de D850. Or c'est faux. Donc l'appareil n'invente pas 30 Mpx.

Pour moi tu appelle interpolation le dématriçage, mais c'est quelque chose de très différent. Une interpolation crée de l'information intermédiaire sans aucune mesure. Le dématriçage, complète une mesure partielle par le résultat des mesures adjacentes. La nuance n'est pas anecdotique.


Dub


Verso92

#128
Citation de: Franciscus Corvinus le Février 28, 2019, 01:15:42
Ne t'arrete pas en si bon chemin. Tu peux aussi le féliciter pour le meme exploit en chrominance. Il n'y a pas de raison d'etre sectaire. A savoir s'il appréciera, tu nous diras. :)

Déjà évoqué :
Citation de: Verso92 le Février 25, 2019, 13:12:37
Pour résumer :

- D850 : 45 millions de photosites (1 photosite par pixel). Chaque photosite est filtré soit en R, soit en V, soit en B. Soit, après interpolation des 2 couleurs manquantes par photosite, une image de 45 MPixels.

- DP2m : 45 millions de photosites (3 photosites par pixel). Au final, une image de 15 MPixels en "vraies" couleurs.

Petite remarque au passage : un regroupement de quatre photosites (R/V/V/B) n'est pas suffisant pour déterminer la chrominance des pixels.

Nos appareils la calcule sur un minimum de neuf photosites, suivant un algorithme de type gradient, d'après ce que j'ai cru comprendre suite à mes lectures (un dématriçage fondé sur les valeurs du quadret, avec moyennage pour le vert, serait trop "pauvre" en qualité).

chelmimage

Citation de: Verso92 le Février 28, 2019, 08:14:48
Déjà évoqué :
Petite remarque au passage : un regroupement de quatre photosites (R/V/V/B) n'est pas suffisant pour déterminer la chrominance des pixels.

Nos appareils la calcule sur un minimum de neuf photosites, suivant un algorithme de type gradient, d'après ce que j'ai cru comprendre suite à mes lectures (un dématriçage fondé sur les valeurs du quadret, avec moyennage pour le vert, serait trop "pauvre" en qualité).
Voici un schéma de base de Bayer.
Le premier photo site bleu du haut à gauche peut faire partie de 4 regroupements différents des 4 photosites les plus proches situés autour de lui haut gauche , bas gauche, haut droit, bas droit, .inclus dans un bloc de 9 .
Donc définir un pixel quelconque nécessite au moins 4 photosites mais il peut être défini 4 fois par 4 interpolations  différentes.
Donc on peut penser que c'est plus précis qu'avec une seule interpolation
Et finalement on a autant d'interpolations que de pixels  et non le quart.

Tonton-Bruno

Citation de: chelmimage le Février 28, 2019, 09:25:12
Voici un schéma de base de Bayer.
Le premier photo site bleu du haut à gauche peut faire partie de 4 regroupements différents des 4 photosites les plus proches situés autour de lui haut gauche , bas gauche, haut droit, bas droit, .inclus dans un bloc de 9 .
Donc définir un pixel quelconque nécessite au moins 4 photosites mais il peut être défini 4 fois par 4 interpolations  différentes.
Donc on peut penser que c'est plus précis qu'avec une seule interpolation
Et finalement on a autant d'interpolations que de pixels  et non le quart.
Je crois qu'il y a même un pixel de plus sur tout le pourtour de l'image utile, ce qui fait que les 2 composantes manquantes de chaque pixel sont calculées à partir des 8 pixels qui l'entourent.
De plus les algorithmes détectent les solutions de continuité de chrominance et de luminance (cas de contours nets).
Il faut aussi garder à l'esprit que la taille des photosites est inférieure à 10 micron, alors parler de l'imprécision de l'information au niveau du pixel surt la matrice de Bayer d'un appareil de 36 ou 45MP, c'est tout de même assez oiseux...

Franciscus Corvinus

Citation de: egtegt² le Février 28, 2019, 01:47:49
Un petit peu quand même ;)
Quand tu écris que 30 Mpx sont inventés par l'appareil, ça c'est de l'interpolation pure. Donc si je prends disons un N&B de 150 Mpix (pour avoir suffisamment d'information pour garantir une image à 15 Mpix parfaite), que je le réduis à 15 Mpix, puis que je l'extrapole à 45 Mpix, je devrais avoir le même résultat qu'une photo de D850. Or c'est faux. Donc l'appareil n'invente pas 30 Mpx.

Pour moi tu appelle interpolation le dématriçage, mais c'est quelque chose de très différent. Une interpolation crée de l'information intermédiaire sans aucune mesure. Le dématriçage, complète une mesure partielle par le résultat des mesures adjacentes. La nuance n'est pas anecdotique.
Je ne dis pas que l'information est "totalement" interpolée. C'est ce que tu as écris et c'est totalement faux. Il n'y a pas de "petit peu". J'ai toujours dit que 2/3 de l'info était créée/inventée (par interpolation, c'est la méthode la plus probable mais pas la seule possible).

Franciscus Corvinus

Citation de: Verso92 le Février 28, 2019, 08:14:48
Déjà évoqué :
Petite remarque au passage : un regroupement de quatre photosites (R/V/V/B) n'est pas suffisant pour déterminer la chrominance des pixels.

Nos appareils la calcule sur un minimum de neuf photosites, suivant un algorithme de type gradient, d'après ce que j'ai cru comprendre suite à mes lectures (un dématriçage fondé sur les valeurs du quadret, avec moyennage pour le vert, serait trop "pauvre" en qualité).
Un quadret est plus que suffisant. C'est meme trop: un triplet suffit, mathématiquement s'entend.

Apres, il est bien évident que l'on peut affiner la qualité; et rien n'empeche le calcul de luminance de prendre en compte plus que trois pixels. Mais le minimum syndical, c'est le triplet RVB. avec plus on améliore la qualité, avec moins, on ne peut pas faire le calcul.

Franciscus Corvinus

Citation de: Tonton-Bruno le Février 28, 2019, 09:39:28
Il faut aussi garder à l'esprit que la taille des photosites est inférieure à 10 micron, alors parler de l'imprécision de l'information au niveau du pixel surt la matrice de Bayer d'un appareil de 36 ou 45MP, c'est tout de même assez oiseux...
Je ne te suis pas. On parle des mensonges marketing. Si le marketing met en avant autant de pixels, c'est bien avec l'esprit qu'ils sont utiles a la précision de l'image, et donc qu'ils contiennent une information précise et utile, non? Veux-tu dire que le marketing fait tout un foin injustifié la-dessus? Ils n'oseraient pas!?!

Tu utilises toi-meme 45 M"pixels", alors qu'on débat justement de la différence entre pixels et photosites. Ca n'est pas une petite imprécision. C'est un facteur 3. Justement le meme facteur qu'utilise Sigma pour gonfler ses arguments de ventes. La question est pourquoi c'est illégitime pour Sigma (je suis d'accord que ca l'est) et pas pour les autres (je pense que ca l'est aussi). Bref, je vois deux poids et deux mesures; je le dis. Ca ne devrait pas prendre autant de posts.

Verso92

#134
Citation de: Franciscus Corvinus le Février 28, 2019, 09:54:01
Un quadret est plus que suffisant. C'est meme trop: un triplet suffit, mathématiquement s'entend.

Apres, il est bien évident que l'on peut affiner la qualité; et rien n'empeche le calcul de luminance de prendre en compte plus que trois pixels. Mais le minimum syndical, c'est le triplet RVB. avec plus on améliore la qualité, avec moins, on ne peut pas faire le calcul.

Penche toi sur les publications traitant du dématriçage : c'est très instructif.


Sinon, post #114, tu as l'illustration concrète en ce qui concerne la luminance (la définition...) sur des sujets faisant 1 pixels de large.

On peut difficilement faire plus explicite.

bruno-v

Citation de: Verso92 le Février 28, 2019, 10:18:50
Penche toi sur les publications traitant du dématriçage.
Oui,
parce que chaque pixel physique est complété par chacun de ses voisins fournissant les information manquantes, c'est très largement expliqué par la totalité des documents.
De plus, il ne faut jamais oublier que la solution de matrice de Bayer est une optimisation liée à la vision humaine = ce n'est pas de la métrologie, ce n'est pas adapté aux extraterrestres, mais au final, la perte d'information utile est très très limitée.
pour illustrer: perdre les infra-rouges et les uv, ne gêne personne en photo classique parce, même si il y là bcp d'énergie, il n'y a aucune information pour la photographie "normale".

La difficulté est de trouver un doc de vulgarisation qui ne soit pas faux par excès de simplification.
on peut essayer ça:
http://www-iut.univ-lille1.fr/lp_vi/projets/2011_dematricage.pdf
(page 13, ça se lit vite  ;))
Leave no trace, Take pictures.

Franciscus Corvinus

Citation de: Verso92 le Février 28, 2019, 10:18:50Sinon, post #114, tu as l'illustration concrète en ce qui concerne la luminance (la définition...) sur des sujets faisant 1 pixels de large.

On peut difficilement faire plus explicite.
Heu, si, en fait. Ton post est une illustration sans commentaire sur l'interprétation. Or c'est justement l'interprétation qu'il conviendrait de rendre explicite. Car c'est la qu'est la réllexion.

Franciscus Corvinus

Citation de: Verso92 le Février 28, 2019, 10:18:50
Penche toi sur les publications traitant du dématriçage : c'est très instructif.
Quand tu passes de 45 millions de photosites a 45 MPx, il faut créer, inventer 2/3 de l'info. Le comment, c-a-d la technique du dématricage, n'y change rien.

jenga

Citation de: Franciscus Corvinus le Février 27, 2019, 12:08:51
Je ne vois pas de mélange. La définition de jenga est correcte. Sa seule erreur, c'est de conclure qu'il faut 4 photosite [/b]pour établir une valeur de luminance. Trois (un R, un V et un B) suffisent. Cette luminance sera placée au centre des trois photosites. Apres, pour calculer la luminance a chaque photosite, il faut faire des interpolations.
Objection, Votre Honneur.  ;D

Pour construire un pixel il faut au minimum une information rouge, une bleue et une verte. Dans le cas d'un Bayer de 36 millions de sites, on a 9 millions de photosites rouges et 9 millions de bleus.
Par conséquent, quoi que tu fasses, il n'y a pas plus de 9 millions de pixels indépendants.

C'est pourquoi, dans le cas de Bayer, chaque pixel indépendant est constitué en moyenne de:  36 millions photosites / 9 millions de pixels = 4 photosites par pixel.

La disposition en 2 verts pour 1 rouge et 1 bleu améliore bien sûr le rapport signal/bruit des couleurs auxquelles l'oeil humain est le plus sensible, et permet d'avoir une matrice composée de blocs élémentaires 2x2 identiques, ce qui facilite les interpolations.

A propos d'interpolation, on peut imaginer tous les interpolateurs qu'on veut, sur 4 photosites, sur 8, sur 32, etc., avec des pondérations différentes sur chaque.
Il faut juste être conscient du fait que définir un interpolateur revient à faire des hypothèses sur le contenu fréquentiel de l'image qu'on cherche à reconstituer. Lorsque ces hypothèses ne sont pas respectées par la scène capturée, l'interpolation est fausse (moiré par exemple).

jenga

Citation de: Verso92 le Février 26, 2019, 21:09:37
Je comprends ce que tu veux dire, mais, pour moi, tu mélanges luminance et chrominance...

La luminance, c'est plutôt un niveau de luminosité (clair/foncé, pour forcer le trait).
Je ne mélange pas. Reprenons l'exemple du ciel bleu uniforme de composantes RVB: 13, 40, 75 dans l'échelle 0..100. Les valeurs des photosites sont:
75 40  75 40...
40 13  40 13...

Si tu lis les photosites, tu vois une valeur qui change beaucoup de l'un à l'autre (de 13 à 75), alors que l'image est un bleu uniforme et sa luminance constante. Cela montre bien que la luminance ne peut pas être déduite d'un seul photosite.

Il faut au minimum un triplet RVB pour définir l'info de luminance et les deux infos de chrominance d'un pixel.



Franciscus Corvinus

Citation de: jenga le Février 28, 2019, 14:20:20
Pour construire un pixel il faut au minimum une information rouge, une bleue et une verte. Dans le cas d'un Bayer de 36 millions de sites, on a 9 millions de photosites rouges et 9 millions de bleus.
Par conséquent, quoi que tu fasses, il n'y a pas plus de 9 millions de pixels indépendants.
Objection votre horreur.  :P
Les pixels verts sont indéendants les uns des autres. De toute facon la formule qui transforme un pixel RVB en un pixel LSV (ou n'importe quoi de similare) n'utilise que trois valeurs: R, V et B. Il n'en faut pas plus, ni deux pour le vert.

Ca ne veut pas dire qu'on ne peut pas. Il y a comme toi, Verso92 et d'autres l'ont dit, des multitudes des méthodes de construction de l'image finale. Mais mathématiquement, trois pixels suffisent. Et surtout, ce qui est plus important, parce que c'est la ou Verso92 et moi ne sommes pas d'accord, deux ou un pixels sont insuffisants.

Verso92

#142
Citation de: Franciscus Corvinus le Février 28, 2019, 13:30:27
Heu, si, en fait. Ton post est une illustration sans commentaire sur l'interprétation. Or c'est justement l'interprétation qu'il conviendrait de rendre explicite. Car c'est la qu'est la réllexion.

Mille excuses, je pensais que c'était explicite...

Je vais donc commenter un peu.

Comme chacun sait, l'oeil est très sensible à la luminance, et beaucoup moins à la chrominance (d'où les techniques de sous-échantillonnage de la chrominance appliquées en vidéo ou pour le format Jpeg, par exemple).


Le but était donc de voir si un APN "Bayer" (en l'occurrence, le D810) était capable de restituer un détail faisant 1 pixel de large.

Après quelques recherches, je suis tombé sur un cas plutôt représentatif : les fers forgés des balcons de ma "mire", photographiés au D810 + 45mm, font à peu près un pixel de large sur la photo.

Bien sûr, comme on est en numérique, on ne se débarrasse pas de Shannon comme ça : il faut donc trouver un barreau du balcon qui soit parfaitement en phase avec le motif du capteur (j'estime que c'est plus ou moins le cas avec celui qui est le plus sombre sur la photo). Sinon, les barreaux occuperont souvent, statistiquement, deux pixels de large (mais là, ce n'est pas la faute à la matrice de Bayer...).

Pour voir un détail d'un pixel de large, il faut bien sûr qu'il y ait une grosse différence de luminance (genre sujet sombre sur fond clair, ou l'inverse). Sinon, ce n'est même pas la peine d'y penser !


Donc revoici la copie d'écran réalisée à 1 600% sous Photoshop, pour laquelle j'ai relevé quelques valeurs du luminance (pipette en mode Lab), dans une zone matérialisée par les "XXX" rouges :

seba

Citation de: Franciscus Corvinus le Février 28, 2019, 18:57:15
Objection votre horreur.  :P
Les pixels verts sont indéendants les uns des autres. De toute facon la formule qui transforme un pixel RVB en un pixel LSV (ou n'importe quoi de similare) n'utilise que trois valeurs: R, V et B. Il n'en faut pas plus, ni deux pour le vert.

Ca ne veut pas dire qu'on ne peut pas. Il y a comme toi, Verso92 et d'autres l'ont dit, des multitudes des méthodes de construction de l'image finale. Mais mathématiquement, trois pixels suffisent. Et surtout, ce qui est plus important, parce que c'est la ou Verso92 et moi ne sommes pas d'accord, deux ou un pixels sont insuffisants.

Comment attribuer une couleur à un pixel dans ce cas ?
Si on utilise 3 photosites seulement pour déterminer la couleur, les 3 pixels auront la même couleur (et la même luminance)..

Franciscus Corvinus

#144
Citation de: seba le Février 28, 2019, 20:45:05
Comment attribuer une couleur à un pixel dans ce cas ?
Si on utilise 3 photosites seulement pour déterminer la couleur, les 3 pixels auront la même couleur (et la même luminance)..
Je réponds a toi et a Verso92, que je remercie au passage pour les explications. Maintenant je comprends! :)

Je parle du point de vue mathématique. Mon seul propos est que, de ce point de vue, un ou deux photosites sont insuffisants pour calculer la luminance. Trois sont nécessaires et suffisants. Quatre ou plus et on est dans le suffisant mais plus dans le nécessaire. Tout cela pour dire que 2/3 de l'info, luminance comprise, est "inventée" au dématricage. C'est mathématique, incontournable, il n'y a pas a chercher plus loin.

Ca n'empeche pas d'avoir des algorithmes de dérawitsation sophistiqués, mais ils ne peuvent échapper aux loi des maths. De tels algorithmes comprennent notamment la reconnaissance des droites et des formes:
https://www.thedailynathan.com/demosaic/algorithms.php
ce qui leur permet de rendre des lignes droites fines de un pixel de large. Il ne faut pas tirer de l'exemple de Verso la conclusion que deux, ou une valeur RVB suffit a établir la luminance. C'est meme l'opposé: il a probablement fallu analyser un nombre qui peut approcher la dizaine de pixels (ne pas oublier qu'il faut reconnaitre les formes tout en éliminant le bruit).

egtegt²

Tu pars du principe que la matrice de bayer est parfaite, ce qui est non seulement faux mais en plus ne pourrait pas fonctionner. Un pixel est une combinaison de trois couleurs, mais dans la réalité, il en est tout autrement, il y a une infinité de couleurs définies par leur longueur d'onde, et ça se complique car certaines couleurs sont monochromatique, c'est à dire composées d'une seule longueur d'onde, d'autres sont polychromatiques, donc un mélange de longueurs d'onde différentes. Si cette approximation fonctionne, c'est parce que notre œil fonctionne également avec 3 couleurs.

Donc dans les faits, si je regarde les courbes de filtrage des trois couleurs, il y a un chevauchement. Voici un exemple (au delà de 700 nm environ, on est dans l'infrarouge donc c'est de peu d'utilité en photo généraliste) :


Si je prends l'exemple d'un filtre coloré ne laissant passer qu'une longueur d'onde, dans les faits, elle donnera une valeur non nulle sur tous les photosites. Et heureusement car si ça n'était pas le cas, une photo numérique ne serait pas capable de reproduire toutes les couleurs.

La raison est simple : supposons que j'aie une matrice de Bayer "parfaite", c'est à dire avec des courbes de transmissions de la lumière parfaitement carrées. Ca signifie que deux couleurs de longueur d'onde situées dans la plage du filtre disons rouge et de même intensité seraient captées de façon totalement identique, et donc seraient représentées de façon parfaitement identiques sur la photo résultante. J'aurais un capteur capable de restituer 3 couleurs pures seulement.

Sur la courbe présentée plus haut, on voit bien que la transmission n'est jamais nulle pour aucune fréquence, donc quel que soit la couleur, dès qu'il y a transmission de lumière, elle sera captée par tous les photosites, et pas par un tiers des photosites.

Ces courbes sont connues des fabricants (heureusement, ce sont eux qui les fabriquent :) ), il est donc assez facile de créer des algorithmes qui combinent ces courbes avec les valeurs mesurées pour donner des résultats fiables.

Supposons que j'éclaire mon capteur avec une lumière à 550 nm, donc en plein dans le vert. Mes photosites vont mesurer une valeur égale à un peu moins de 70% de l'intensité émise, mais le rouge et le bleu vont eux aussi mesurer une valeur égale à 6 ou 7 % de l'intensité émise. Si la fréquence était de 500 nm, je capterais une valeur de 60% pour le vert et de 35% pour le bleu, et 5% sur le rouge. C'est la combinaison de ces 3 valeurs qui va me permettre de savoir que je suis à 500 nm et pas à 400 nm qui donnerait le même résultat sur le photosite bleu.

Ce que j'explique est très sommaire car je ne travaille pas dans le domaine et je ne connais pas les algorithmes par coeur, mais il faut bien comprendre qu'on ne peut par résumer ça à une simple combinaison de trois couleurs avec une intensité pour chaque couleur, ça c'est le résultat, pas ce qui est capté.

Dans les faits, comme la transmission est plus faible en dehors de la couleur de filtrage de chaque photosite, la précision est nécessairement moins bonne, ceci combiné au fait qu'il y a bien une part d'incertitude vu que les photosites sont distincts fait qu'on a une perte d'information d'environ 30%. Mais cette perte n'est certainement pas de 2/3 et l'information n'est pas inventée, elle est calculée avec une incertitude. Il suffit de comparer avec le résultat d'une véritable interpolation pour voir que ça n'est pas la même chose.

seba

Citation de: Franciscus Corvinus le Février 28, 2019, 23:27:17
Je parle du point de vue mathématique. Mon seul propos est que, de ce point de vue, un ou deux photosites sont insuffisants pour calculer la luminance. Trois sont nécessaires et suffisants. Quatre ou plus et on est dans le suffisant mais plus dans le nécessaire. Tout cela pour dire que 2/3 de l'info, luminance comprise, est "inventée" au dématricage. C'est mathématique, incontournable, il n'y a pas a chercher plus loin.

Je crois qu'il faut plus que trois sont nécessaires, et les algorithme de dématriçage prennent en compte bien plus de photosites autour du photosite dont la couleur doit être calculée.

Verso92

Citation de: seba le Mars 01, 2019, 06:40:26
Je crois qu'il faut plus que trois sont nécessaires, et les algorithme de dématriçage prennent en compte bien plus de photosites autour du photosite dont la couleur doit être calculée.

Comme déjà évoqué, il y a au moins neuf photosites qui sont pris en compte lors du dématriçage.

D'ailleurs, quand un photosites est mort, on distincte assez facilement une croix blanche avec une intensité max au centre...

Franciscus Corvinus

Citation de: egtegt² le Mars 01, 2019, 00:24:48
Tu pars du principe que la matrice de bayer est parfaite, ce qui est non seulement faux mais en plus ne pourrait pas fonctionner.
Pourquoi dis-tu ca? C'est non seulement faux comme description de mon point de départ (je suis d'accord qu'il faut que les filtres soient "larges"), mais hors-sujet. Pour dire les choses différemment, qui ici peut trouver une formule de calcul de la luminance uqi ne fasse intervernir qu'un ou deux canal? C'est la seule chose qui me fera changer d'avis.

Citation de: egtegt² le Mars 01, 2019, 00:24:48
Ce que j'explique est très sommaire car je ne travaille pas dans le domaine et je ne connais pas les algorithmes par coeur, mais il faut bien comprendre qu'on ne peut par résumer ça à une simple combinaison de trois couleurs avec une intensité pour chaque couleur, ça c'est le résultat, pas ce qui est capté.
Désolé, un capteur a matrice de bayer ne renvoie que une valeur pour un photosite, R, G ou B, par emplacement. Cette valeur est la seule indication qu'on ait de ce qui est capté. C'est le début des calculs, pas le résultat. Le fait qu'il y ait un recouvrement spectral entre les filtres colorés n'a rien a voir et ton explication, que j'ai zapée, concerne la chrominance. Meme si je pourrais passer du temps a expliquer pourquoi elle abonde dans mon sens, restons-en a la luminance.

Citation de: egtegt² le Mars 01, 2019, 00:24:48
Dans les faits, comme la transmission est plus faible en dehors de la couleur de filtrage de chaque photosite, la précision est nécessairement moins bonne, ceci combiné au fait qu'il y a bien une part d'incertitude vu que les photosites sont distincts fait qu'on a une perte d'information d'environ 30%. Mais cette perte n'est certainement pas de 2/3 et l'information n'est pas inventée, elle est calculée avec une incertitude. Il suffit de comparer avec le résultat d'une véritable interpolation pour voir que ça n'est pas la même chose.
Tu n'as pas du tout compris de quoi je parlais. Je ne m'occupe pas des pertes ni du bruit.

Franciscus Corvinus

Citation de: seba le Mars 01, 2019, 06:40:26
Je crois qu'il faut plus que trois sont nécessaires, et les algorithme de dématriçage prennent en compte bien plus de photosites autour du photosite dont la couleur doit être calculée.

Citation de: Verso92 le Mars 01, 2019, 07:25:08
Comme déjà évoqué, il y a au moins neuf photosites qui sont pris en compte lors du dématriçage.

D'ailleurs, quand un photosites est mort, on distincte assez facilement une croix blanche avec une intensité max au centre...

Oui, c'est aussi ce que j'ai dit. On est d'accord la-dessus. Mais ca n'a rien a voir avec le fait que trois valeurs, R, V et B sont nécessaires et suffisantes pour calculer la luminance. Un algo sophistiqué va en considérer plus, c'est une question de qualité. Et c'est ainsi qu'il peut reconsitituer des détails que les données brutes ne permettent pas d'appréhender.

Ca ne change pas le fait que 2/3 de l'information est crée; ca change le fait que ce qui est créé a tendance a etre plus conforme a ce qu'on a vu.