Des rumeurs!

Démarré par Sebmansoros, Février 26, 2020, 13:26:29

« précédent - suivant »

Verso92

Citation de: Bernard2 le Mars 05, 2020, 10:41:59
Pour info document Nikon cocernant le premier reflex numérique Nikon (D1) le travail de reconstruction se faisait alors sur 12x12

Ah oui, quand même...  ;-)

JMS

Citation de: Verso92 le Mars 05, 2020, 10:51:16
Ah oui, quand même...  ;-)

Bernard 2 vient de démontrer à un aimable intervenant de ce topic qu'en réalité la définition réelle du D1 n'était que de 18 750 pixels (2,7 Mpxl/144) et quand je pense que des crétins ont essayé de faire des affiches 4 x 3 m avec ...

...sinon l'utilisation de larges zones autour du photosite destiné à devenir un pixel sur le fichier est aussi la méthode de débruitage "Prime" de DxO.  ;)

bretillien

Citation de: JMS le Mars 05, 2020, 12:07:50
Bernard 2 vient de démontrer à un aimable intervenant de ce topic qu'en réalité la définition réelle du D1 n'était que de 18 750 pixels (2,7 Mpxl/144) et quand je pense que des crétins ont essayé de faire des affiches 4 x 3 m avec ...

...sinon l'utilisation de larges zones autour du photosite destiné à devenir un pixel sur le fichier est aussi la méthode de débruitage "Prime" de DxO.  ;)
Normalement avec les critères actuels c'est du A4 maxi voir du A5 sinon pourquoi ils se décarcasseraient à vouloir sortir des 60 mpix? ;D
Mais si l'on doit regarder à la loupe une affiche de 4 x 3 m il en faudra beaucoup plus  ;)

jenga

Citation de: Verso92 le Mars 04, 2020, 10:31:08
Le comique de répétition est un genre...

Ce n'est pourtant pas compliqué de comprendre que l'œil est très sensible à la luminance, et peu à la chrominance. C'est d'ailleurs ce qui est exploité dans les algorithmes Jpeg (sous-échantillonnage de la chrominance).

Nous discutons de la capacité de tel ou tel traitement mathématique à reproduire ou non des détails de telle ou telle taille. Pas des caractéristiques de l'œil.

jenga

Citation de: Verso92 le Mars 04, 2020, 10:31:08

En ce qui concerne les artefacts, on les a aussi sur le Foveon (qui n'a pas d'interpolation en chrominance), comme illustré ci-dessous (crop 1 600% de DP2m, 15 MPixels)
Bien évidemment, dès lors que l'on forme sur le capteur une image contenant des structures de taille inférieure à 2 pixels il y  a repliement, donc destruction irréversible d'information, et artefacts à la restitution.

jenga

#230
Citation de: jaric le Mars 04, 2020, 11:25:59
Tu es fatigant !
Si tu refuses d'écouter les autres intervenants, examine au moins comment fonctionne l'algorithme de dématriçage du filtre de Bayer. Tu finiras par comprendre que s'il est vrai que le calcul de chaque pixel utilise un voisinage de 4 photosites, le processus est effectué de manière glissante pour chacun d'entre eux (et non pas par groupe), ce qui permet au final d'obtenir autant de pixels calculés que de photosites !
Inutile d'être insultant.

C'est ce que j'ai écrit: le calcul de chaque point interpolé utilise un certain nombre de points autour de lui, affectés de coefficients. C'est donc bien sûr un calcul glissant, un produit de convolution.

Le nombre de points pris en compte dans ce voisinage glissant définit la précision de l'interpolation, et n'a strictement rien à voir avec le nombre de points interpolés.

On peut interpoler 1 point entre chaque point réel en faisant le calcul sur un voisinage de 4, 12, 128, etc.

On peut aussi interpoler 2, 4 ou plus points entre chaque points réel ("crop à 400%...") en faisant le calcul sur le même voisinage de 4, 12, 128, etc.

On bien a au final autant de pixels interpolés, calculés que l'on veut. Mais la quantité d'information dans l'image finale ne dépassera jamais la quantité d'information acquise par le capteur. Les pixels calculés ne contiennent pas plus d'information que ce que le capteur a fourni

En fait ils en contiennent moins, à cause des pertes dues à l'interpolation qui est forcément imparfaite compte tenu du voisinage limité sur lequel elle porte.

jenga

Citation de: jaric le Mars 04, 2020, 11:25:59
Tu es fatigant !
Si tu refuses d'écouter les autres intervenants, examine au moins comment fonctionne l'algorithme de dématriçage du filtre de Bayer. Tu finiras par comprendre que s'il est vrai que le calcul de chaque pixel utilise un voisinage de 4 photosites, le processus est effectué de manière glissante pour chacun d'entre eux (et non pas par groupe), ce qui permet au final d'obtenir autant de pixels calculés que de photosites !

Remarque en passant: le voisinage pris en compte par le dématriceur ne peut pas être réduit à 4 points comme tu l'écris, au moins pour les dématriceurs associé aux APN récents.
Prendre 4 points, c'est faire une interpolation linéaire (à deux dimensions).

Or, l'interpolateur linéaire a une réponse en fréquence quasiment nulle (0.0003) aux 3/4 de la fréquence de Shannon. Il gommerait donc presque complètement les structures de dimension 1,5 pixel, ce qui n'est pas le cas.
Ce n'est donc pas cet interpolateur qui est utilisé par les dématriceurs (heureusement).

jenga

Citation de: seba le Mars 04, 2020, 11:33:48
De haut en bas :
Image dématricée de 230x150 photosites qui deviennent 230x150 pixels
Image de 115x75 pixels (toujours à partir de 230x150 photosites)
Image interpolée de 230x150 pixels à partir de la deuxième

Il y a quand même une sacrée différence entre la première et la troisième.
Peux-tu expliciter les traitements effectués sur chaque image?

Au vu des seuls résultats, c'est impossible de se prononcer.

Il est très facile de perdre toute la précision avec un mauvais interpolateur. Par exemple, comme indiqué ci-avant, l'interpolateur linéaire (que proposent certains logiciels de traitement) a une réponse en fréquence quasiment nulle (0.0003) aux 3/4 de la fréquence de Shannon. Il gomme donc presque complètement les structures de dimension 1,5 pixel.

Si c'est un interpolateur de ce type qui a fourni la 3ème image, il n'y a rien de surprenant à ce qu'elle soit molle. Mais ce n'est pas représentatif de l'information contenue dans l'image qui a été fournie à l'interpolateur.

jenga

Citation de: Manu_14 le Mars 04, 2020, 13:09:20
Jenga, ce qui t'échappe, c'est que la résolution spatiale du capteur est indépendante de la couleur.
Il faut préciser ce qu'on entend par "résolution". Si c'est le nombre de points par mm: un 24*36 de 45 Mphotosites, par exemple, a une résolution dans le rouge de 115 points par mm, idem dans le bleu, et 230 points par mm dans le vert.

Citation de: Manu_14 le Mars 04, 2020, 13:09:20
Pour calculer la résolution spatiale d'un capteur, on part du principe raisonnable qu'il faut deux photosites pour distinguer le plus fin détail d'une scène, ce que montent les images publiées ci-avant. 
Distinguer est une chose, reproduire avec une précision suffisante pour les usages photographiques en est une autre.

On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.

Citation de: Manu_14 le Mars 04, 2020, 13:09:20
Un capteur de D750 à des pixels de 6 microns de coté donc une résolution de 83 cycles/mm ce qui est d'ailleurs trop proche de la résolution d'un bon objectif. Il lui faut donc un filtre passe-bas si on veut éviter l'aliasing (dit "en luminance").

Je ne suis pas sûr de bien comprendre ce que tu entends par "trop proche". Je comprends: "pas suffisamment grande par rapport à celle de l'objectif", est-ce bien cela?

L'aliasing se produit si la résolution du capteur est trop faible (comparée à celle de l'objectif).
Si tu considères un bon objectif à 80 cycles/mm (donc, en gros, limité par la diffraction à f/6.7) il faut un capteur à 160 pixels par mm pour l'utiliser sans aliasing sur n'importe quelle scène.

Verso92

Citation de: jenga le Mars 05, 2020, 12:20:38
Nous discutons de la capacité de tel ou tel traitement mathématique à reproduire ou non des détails de telle ou telle taille. Pas des caractéristiques de l'œil.

Et bien si tu mets devant le capteur une ligne (suffisamment contrastée) qui fait moins d'un pixel de large, tu auras une ligne d'un pixel de large sur l'image.

seba

Citation de: jenga le Mars 05, 2020, 12:22:58
Peux-tu expliciter les traitements effectués sur chaque image?

Au vu des seuls résultats, c'est impossible de se prononcer.

Il est très facile de perdre toute la précision avec un mauvais interpolateur. Par exemple, comme indiqué ci-avant, l'interpolateur linéaire (que proposent certains logiciels de traitement) a une réponse en fréquence quasiment nulle (0.0003) aux 3/4 de la fréquence de Shannon. Il gomme donc presque complètement les structures de dimension 1,5 pixel.

Si c'est un interpolateur de ce type qui a fourni la 3ème image, il n'y a rien de surprenant à ce qu'elle soit molle. Mais ce n'est pas représentatif de l'information contenue dans l'image qui a été fournie à l'interpolateur.

La première image est celle fournie par l'appareil photo.
La deuxième est réduite (au plus proche) à partir de la première pour avoir 4x moins de pixels.
La troisième est interpolée (bicubique) à partir de la deuxième.

seba

Citation de: jenga le Mars 05, 2020, 12:24:59
On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.

Et un détail sombre sur fond clair ?

Manu_14

#237
Citation de: jenga le Mars 05, 2020, 12:24:59
Il faut préciser ce qu'on entend par "résolution". Si c'est le nombre de points par mm: un 24*36 de 45 Mphotosites, par exemple, a une résolution dans le rouge de 115 points par mm, idem dans le bleu, et 230 points par mm dans le vert.
Oui, c'est ce que je veux dire par résolution spatiale et encore une fois cela n'a rien à voir avec la couleur. un photosite donne un pixel sur l'image, c'est à dire une information.

Citation de: jenga le Mars 05, 2020, 12:24:59
Distinguer est une chose, reproduire avec une précision suffisante pour les usages photographiques en est une autre.

On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.
Là je ne te suis pas

Citation de: jenga le Mars 05, 2020, 12:24:59
Je ne suis pas sûr de bien comprendre ce que tu entends par "trop proche". Je comprends: "pas suffisamment grande par rapport à celle de l'objectif", est-ce bien cela?

L'aliasing se produit si la résolution du capteur est trop faible (comparée à celle de l'objectif).
Si tu considères un bon objectif à 80 cycles/mm (donc, en gros, limité par la diffraction à f/6.7) il faut un capteur à 160 pixels par mm pour l'utiliser sans aliasing sur n'importe quelle scène.
Oui, je suis d'accord. Et tu constates que ce qui te permet de calculer cette fréquence limite (qui doit être le double la fréquence la plus haute que permet l'objectif pour éviter l'aliasing en luminance) ce sont bien deux photosites, ni 4 ni 12, ni 20. L'interpolation n'intervient que pour restituer l'information colorée et n'affecte pas la précision spatiale de ton image. Un capteur de 45M de photosites donne bien une image de 45M de pixels c'est à dire 45M d'informations spatiales, sans aucune interpolation.

Verso92

#238
Citation de: Manu_14 le Mars 05, 2020, 17:11:25
Oui, je suis d'accord. Et tu constates que ce qui te permet de calculer cette fréquence limite (qui doit être le double la fréquence la plus haute que permet l'objectif pour éviter l'aliasing en luminance) ce sont bien deux photosites, ni 4 ni 12, ni 20.

De toute façon, avec un Bayer, rares seront les fois où on pourra distinguer cet aliasing en luminance (sur un motif répétitif) : les artefacts générés par le dématriçage viendront pourrir l'image bien avant...


Sur l'exemple ci-dessous, on voit bien comment ça s'affole quand la fréquence du motif devient trop élevée par rapport à celle du couple capteur/dématriçage :

Verso92

Un exemple de moiré en luminance (Sigma DP2m) :

[prodibi]{"id":"kqy2ly8q55wq1r","width":3136,"height":4704,"heightMode":"aspectRatio","smartX":0.5,"smartY":0.75,"mediaView":{"mediaGroup":"Essai"},"account":"verso"}[/prodibi]

(sur le panneau "Les Raverdis")

Manu_14

Citation de: Verso92 le Mars 05, 2020, 19:07:53
Un exemple de moiré en luminance (Sigma DP2m) :

(sur le panneau "Les Raverdis")

Bel exemple

egtegt²

Jenga, tu te trompes au moins sur un point : sur 4 photosites, il y en a deux verts, donc même en supposant ta démonstration juste, on a au moins deux valeurs de luminance pertinentes pour le vert. Donc au pire on est un peu mieux qu'un quart de la définition.

Sinon bien évidemment que c'est interpolé et que mathématiquement, on recrée une information qui est potentiellement fausse. Ton raisonnement se tiendrait si on photographiait du bruit, dans ce cas effectivement on n'aurait une résolution divisée par 4 (en fait un peu moins grâce aux deux verts). Mais il se trouve que ça n'est pas du bruit qu'on photographie mais la réalité et ça permet d'avoir des algorithmes qui permettent de reconstruire quelque chose de réaliste. Il y a quelques rares cas où ces algorithmes se plantent, par exemple des étoiles qui disparaissent sur un photo astronomique parce qu'elles sont interprétées comme des artefacts, ou quand on a du moiré, mais dans la majeure partie des cas, ils fonctionnent bien.

Donc même si on ne peut pas écrire qu'un capteur 36 Mpix fait vraiment 36 Mpix, il est aussi faux d'écrire qu'il n'en fait que 9. Et le dématriçage reste largement supérieur à une simple interpolation parce qu'il peut tenir compte du fait que les 4 photorécepteurs sont décalés et utiliser cette information pour affiner les calculs.

JMS

Citation de: egtegt² le Mars 06, 2020, 11:16:31
Donc même si on ne peut pas écrire qu'un capteur 36 Mpix fait vraiment 36 Mpix, il est aussi faux d'écrire qu'il n'en fait que 9. Et le dématriçage reste largement supérieur à une simple interpolation parce qu'il peut tenir compte du fait que les 4 photorécepteurs sont décalés et utiliser cette information pour affiner les calculs.

Et moi j'écris sans trembler qu'un capteur 36 Mpxl  comporte 36 millions de photosites donnant 36 millions de valeur de luminance précise, et au final interprétées par le logiciel interne ou externe comme 36 millions de pîxels RVB en reconstituant les couleurs grâce aux variations de luminance induites par la filtration en couleurs des photosites voisins. Plus ou moins nombreux selon les algos de métratiçage...

rascal


Sebmansoros

Je suis largué. Je crois que je vais arrêter la photo. :P ::)

Rami

Je crains que ce le soit légèrement.
Du fait du filtre, a-t-on réellement la luminance ou sa convolution par le filtre R, V ou B ?

Je dirai plutôt qu'on a la bonne valeur sur un des trois canaux, et rien directement sur les deux autres.
Et que l'interpolation permet de reconstruire les deux autres canaux. 
Nikonairien (ou presque)

jenga

Citation de: seba le Mars 05, 2020, 13:01:15
La première image est celle fournie par l'appareil photo.
La deuxième est réduite (au plus proche) à partir de la première pour avoir 4x moins de pixels.
La troisième est interpolée (bicubique) à partir de la deuxième.
Merci pour ces précisions.

Si je comprends bien, le fichier jpg que tu montres est un crop à 200% de la première image et de la troisième (fichier de 460 pixels pour des images de 230), et donc un crop à 400% de la deuxième.

L'image de départ (la première) contient des structures dont la taille est inférieure à 2 pixels (de l'image, pas du crop), les cils et le cheveu isolé par exemple. Il n'est donc pas possible de réduire sa taille sans perdre définitivement d'information.

Quelle que soit la précision de l'interpolateur utilisé pour recréer les pixels de l'image 3, celle-ci ne peut pas contenir l'information perdue lors du passage de 1 à 2. C'est pourquoi l'image 3 a moins de détail que la 1.

jenga

Citation de: jenga le Mars 05, 2020, 12:24:59
On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.

Citation de: seba le Mars 05, 2020, 13:04:03
Et un détail sombre sur fond clair ?

C'est identique du point de vue du traitement du signal.

Du point de vue technologique, il faut bien sûr que le fond clair ne sature pas les photosites. Il peut y avoir une différence de pouvoir ultime de détection, dans un sens ou dans l'autre, selon la variation du bruit de lecture en fonction du niveau d'éclairement. Cela dépasse de loin mes connaissances.
Cela dit, comme usuellement les photosites sont préchargés en électrons avant l'exposition et déchargés par la capture des photons pendant l'expo, la situation la plus favorable  n'est pas nécessairement celle qu'on croirait a priori.

En pratique, je sais faire la première expérience avec une led (source suffisamment ponctuelle) ou un ciel nocturne. Pour la deuxième, il me semble qu'il faut davantage de matériel (ou d'imagination, c'est ce me manque le plus!).

jenga

Citation de: jenga le Mars 05, 2020, 12:24:59
On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.

Citation de: Manu_14 le Mars 05, 2020, 17:11:25
Là je ne te suis pas
Voici ce que j'ai voulu dire:

avec un objectif performant (ou un capteur de faible résolution), tu peux former sur le capteur l'image d'un objet de petite taille. Par exemple, une led dans une pièce sombre, à plusieurs mètres, avec un grand angle.
L'image de la led sur le capteur est plus petite que la taille d'un photosite. Cela n'empêche pas le photosite d'accumuler des charges pendant l'exposition, donc il y aura quelque chose dans l'image produite -> on détecte la présence d'on objet clair.
Mais cela ne permettra pas de reconstituer la forme de la surface émettrice de la led.

jenga

Citation de: Manu_14 le Mars 05, 2020, 17:11:25
Oui, je suis d'accord. Et tu constates que ce qui te permet de calculer cette fréquence limite (qui doit être le double la fréquence la plus haute que permet l'objectif pour éviter l'aliasing en luminance)
(merci pour cette discussion)
en fait: pour éviter l'aliasing tout court.

Le capteur acquiert des informations R, V et B.

La luminance et les 2 informations de chrominance sont chacune calculées à partir des 3 composantes R, V et B; par exemple, en YUV:
Y = 0.299 R + 0.587 V + 0.114 B
U= -0.147 R - 0.289 V + 0.436 B
V= 0.615 R - 0.515 V - 0.1 B

Donc, si une seule des composantes R ou V ou B est fausse, par aliasing, les trois composantes (luminance Y et chrominance U et V) sont fausses.

Citation de: Manu_14 le Mars 05, 2020, 17:11:25
L'interpolation n'intervient que pour restituer l'information colorée
Non, elle est indispensable également pour calculer la luminance.

Comme indiqué ci-avant, pour calculer la luminance en un point, il faut connaître R et V et B en ce point.
Or la matrice de Bayer fournit des informations R, V et B à des emplacements différents.

Il serait complètement faux de combiner directement 3 sites R V B pour calculer une luminance (ou une chrominance): sur les transitions, le résultat serait catastrophique.

Il est donc indispensable d'interpoler pour disposer des valeurs calculées de R V et B aux mêmes endroits.
Ensuite, on peut calculer YUV, LCH, etc. tant qu'on veut.

Citation de: Manu_14 le Mars 05, 2020, 17:11:25
Un capteur de 45M de photosites donne bien une image de 45M de pixels c'est à dire 45M d'informations spatiales, sans aucune interpolation.
Un capteur de 45 M sites donne 45 millions d'informations. Chacune de ces informations est un et un seul nombre. Par exemple, le niveau de Bleu en ce point.

Un pixel est défini par 3 nombres (bleu, vert, rouge), pas par un seul. 45 M pixels représentent donc  3x45 millions d'informations.

Il ne peut définitivement pas y avoir équivalence entre les deux.
On ne peut pas passer de 45 millions d'informations à 3x45 millions: les 2x45 M nombres ajoutés par interpolation ne sont pas des informations nouvelles, ce ne sont que la réécriture dans une base différente des 45 initiales.

Un capteur de 45 M sites peut donc fournir 45 M pixels interpolés, mais pas 45 M pixels indépendants.