Des rumeurs!

Démarré par Sebmansoros, Février 26, 2020, 13:26:29

« précédent - suivant »

jenga

Citation de: Verso92 le Mars 01, 2020, 20:39:34

Bien sûr, il ne faut pas quatre photosites pour constituer un pixel (en luminance, c'est faux, et en chrominance aussi, d'ailleurs). La copie d'écran que j'ai montrée au post #145 montre clairement que l'appareil est capable de reproduire sans problème un motif de 1 pixel de large.
Bien sûr que si.
La luminance, par exemple, est égale à: L= 0.299 R + 0.587 V + 0.114 B.
Sauf à inventer de l'information, la connaissance d'un photosite (R ou V ou B) ne donne donc pas la luminance à cet endroit (ni la chrominance, évidemment).

Ton exemple #145 ne démontre certainement pas la reproduction d'un motif d'un photosite de large.

D'une part, tu as escamoté les deux tiers du problème en convertissant l'image finale (à droite) en noir et blanc  ;D ;D, ce qui élimine tous les artefacts colorés... mais on n'a plus d'information de teinte ni de saturation, donc exit la reproduction de la scène.

Même comme cela, les traits verticaux noir sur fond blanc dans la partie inférieure gauche de l'image finale ne sont certainement pas la reproduction de la scène réelle:

  • le premier trait est dédoublé en bas avec un trait fin à gauche, puis, en montant, est dédoublé avec un trait fin à droite, puis se regroupe
  • le trait suivant est initialement simple, puis se dédouble
  • etc.

Cette copie d'écran n'est donc pas une reproduction, même en se ramenant au noir et blanc qui nécessite trois fois moins d'information.

On peut bien sûr détecter des détails aussi petits qu'on veut, il suffit qu'ils émettent quelques photons vers un photosite. Mais pour reproduire une scène, il faut respecter le critère de Shannon, comme dans n'importe quel système échantillonné.

jenga

Je reprends le test du D850 avec des valeurs numériques qui illustrent bien la différence entre photosite et pixel. (test DPreview https://www.dpreview.com/reviews/nikon-d850/8 ):


La mire de DP Review est constituée de 9 traits noirs sur fond blanc (soit 9 paires de lignes) qui se resserrent. Le nombre de paires de lignes par mm est à peu près égal au double du nombre affiché.

(par exemple, à la graduation 44, les 9 paires de lignes s'étendent sur une hauteur de 25 pixels de l'image totale de 5500 pixels de haut. (voir https://www.dpreview.com/reviews/nikon-d850/8 ). Puisque 5500 pixels représentent 24 mm (hauteur du capteur), 25 pixels représentent environ 0.1 mm).

A la graduation 44, nous avons donc 9 paires de lignes pour 0.1 mm, soit 90 paires de lignes par mm.

Le D850 a des photosites de 4,35 microns, soit 230 photosites par mm.

Si on avait "1 photosite = 1 pixel", le D850 aurait 230 pixels par mm; il pourrait donc reproduire une structure ayant 230/2 = 115 paires de lignes par mm. On voit bien que ce n'est pas le cas, il y a déjà beaucoup de moiré à 90 pdl/mm.


jenga


Verso92

#153
Citation de: jenga le Mars 01, 2020, 23:15:39
Bien sûr que si.
La luminance, par exemple, est égale à: L= 0.299 R + 0.587 V + 0.114 B.
Sauf à inventer de l'information, la connaissance d'un photosite (R ou V ou B) ne donne donc pas la luminance à cet endroit (ni la chrominance, évidemment).

Ton exemple #145 ne démontre certainement pas la reproduction d'un motif d'un photosite de large.

D'une part, tu as escamoté les deux tiers du problème en convertissant l'image finale (à droite) en noir et blanc  ;D ;D, ce qui élimine tous les artefacts colorés... mais on n'a plus d'information de teinte ni de saturation, donc exit la reproduction de la scène.

Même comme cela, les traits verticaux noir sur fond blanc dans la partie inférieure gauche de l'image finale ne sont certainement pas la reproduction de la scène réelle:

  • le premier trait est dédoublé en bas avec un trait fin à gauche, puis, en montant, est dédoublé avec un trait fin à droite, puis se regroupe
  • le trait suivant est initialement simple, puis se dédouble
  • etc.

Cette copie d'écran n'est donc pas une reproduction, même en se ramenant au noir et blanc qui nécessite trois fois moins d'information.

On peut bien sûr détecter des détails aussi petits qu'on veut, il suffit qu'ils émettent quelques photons vers un photosite. Mais pour reproduire une scène, il faut respecter le critère de Shannon, comme dans n'importe quel système échantillonné.

Une image vaut mieux qu'un long discours.

Elle ne date pas d'hier : c'est une photo faite au D810, illustrant une discussion dans laquelle certains intervenants essayaient de convaincre l'auditoire que le boitier avait une définition de 36/4 = 9 MPixels... on voit clairement des détails faisant 1 pixel de large*, que tu le veuilles ou non. Ce qui montre clairement la non pertinence d'évoquer Shannon ici, entre autre.

Et pas d'escamotage lié au côté monochrome de l'image (lié à l'utilisation de IRIS). Demain midi, si j'ai le temps, je posterai la version couleur (l'image est sur les DD du club photo).


*et aucun hasard : les lignes verticales, on les voit toutes.

seba

Citation de: jenga le Mars 01, 2020, 23:12:10
Interpolation
Les fabricants de capteurs prétendent que chaque photosite est équivalent à un pixel, donc nomment "20 Mpix" un capteur de 20 M sites, ce qui permet de multiplier la spec par 4 pour pas cher, mais n'a évidemment aucun sens physique.
En conséquence, ils interpolent les 5 millions de vrais pixels à 20 millions pour sortir le nombre de pixels annoncé, mais bien sûr ce n'est que de l'interpolation: les détails de taille inférieure au vrai pixel (2x2 photosites) sont soit perdus soit mal restitués, ce qui crée des artefacts comme ceux du post #132.

Je ne pense pas que ce soit aussi basique. Le dématriçage fait appel à des algorithmes très évolués.
Et les différents dématriceurs n'arrivent pas aux mêmes résultats (certains donneront des artefacts dans cerrtains cas, d'autres non).

Verso92

Citation de: seba le Mars 02, 2020, 07:47:52
Je ne pense pas que ce soit aussi basique. Le dématriçage fait appel à des algorithmes très évolués.

Bien évidemment.

(jenga nous mélange un peu tout, là...)

namzip

Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n'aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n'aurait que 6 Mp.
Et mon D800 seulement 9 Mp.

Verso92

Citation de: namzip le Mars 02, 2020, 09:25:01
Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n'aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n'aurait que 6 Mp.
Et mon D800 seulement 9 Mp.

Sois rassuré : ton D500 a bien 20 MPixels, ton D600 24 MPixels et ton D800 36 MPixels...  ;-)


Pour faire simple, on dira juste que les couleurs sont un peu chahutées : en effet, chaque photosite n'en voit qu'une à chaque fois (R, V ou B), mais c'est un inconvénient mineur, l'œil étant beaucoup moins sensible à la chrominance qu'à la luminance (c'est en partie là-dessus que repose les algorithmes Jpeg).

Rami

Pour faire simple pour manzip.
A la fin, on a bien un pixel par photosite.
Au départ, pour chaque photosite, on n'a qu'une information, R, V ou B.
Pour avoir l'information complète, et donc autant de pixels que de photosites, on reconstitue les deux canaux manquants à partir des photosites voisins.
Par exemple, pour un photosite R, on reconstitue la valeur de V (ou de B) à partir des valeurs des photosites V (ou B) voisins.
Nikonairien (ou presque)

Verso92

Citation de: Verso92 le Mars 02, 2020, 09:43:24
Pour faire simple, on dira juste que les couleurs sont un peu chahutées : en effet, chaque photosite n'en voit qu'une à chaque fois (R, V ou B), mais c'est un inconvénient mineur, l'œil étant beaucoup moins sensible à la chrominance qu'à la luminance (c'est en partie là-dessus que repose les algorithmes Jpeg).

Oups... que reposent, bien sûr.

restoc

Citation de: Verso92 le Mars 02, 2020, 08:14:30
Bien évidemment.

(jenga nous mélange un peu tout, là...)

C'est effectivement le danger de penser qu'on résout  la Fonction globale de Transfert ( PSP Point Spread Function) d'un système ( optique+ boîtier) à un comptage arithmétique de photosites vs pixels ( ou de photons vs ADC  en oubliant les opérations d'offset et d'amplification );D ;D).

Pour le photographe il faudrait ne parler que de  PSP Point Spread Function globale qui est la convolution le la lumière de la scène entrante par un ensemble d'avatars - échantillonnage en photosites discrets, diffraction et transmission de l'optique, flitres, flous de focus et flous de bougé et résidus de dématriçage -  pour faire trés simple ;D ;D

Globalement en photo on a bien au total dans les conditions ad hoc: nb de photosites=nb depixel=nb d'information différentes d'un pixel à l'autre. Si ce n'était pas le cas les procés seraient nombreux .... Reste le cas des moirés prés de Nyquist qui peuvent être plus ou moins bien traités par un dématriceur standard. Se référer à un seul dématriceur ( DPR ou autre) ne permet pas de qualifier un capteur aux conditions limites : les dématriceurs ne sont volontairement pas optimisés pour le seul gain en FTM ( sauf peut être pour les Monochromes Leica) : on change juste les fréquences de moirés et on créerait d'autres interférences visibles.

Actuellement les constructeurs n'utilisent pas l'arme lourde de la déconvolution et se contentent du seul dématriçage disons arithmétique. 
Reconstituer la PSP d'un système optique capteur pour faire la déconvolution du raw et retrouver à peu prés exactement l'image  de la source ponctuelle -si on aime l'image du CDC- est monnaie courante: couramment en microscopie, métrologie, médical surtout,  remote sensing satellite, ... Le seul pb étant 1/ il faut qualifier chaque couple optique -boîtier individuellement si possible) 2/ Il faut qq part ( boitier ou logiciel en PT) une grosse puissance de calcul.
Plus le capteur échantillonne finement l'image convoluée plus le résultat de la déconvolution restituera de résolution à une FTM donnée.

Bref on tirera bénéfice de 100 Mpix et plus sans pb avec les bons outils.

JMS

Citation de: namzip le Mars 02, 2020, 09:25:01
Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n'aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n'aurait que 6 Mp.
Et mon D800 seulement 9 Mp.

Si ton D800 n'avait que 9 "vrais" megapixels il ne pourrait pas voir plus de détails qu'un film argentique de bonne qualité dont le pouvoir séparateur des détails équivaut à environ 8 Mpxl en 24 x 36. Si tel est le cas ce n'est parce qu'il a un capteur bridé...mais parce que l'objectif est une poubelle  ;D ;D ;D

jenga


bretillien

Citation de: Fred_G le Mars 01, 2020, 20:15:11
Oui, mais Ben maîtrisait déjà la génération N-1, donc il est capable d'exploiter le gain "marginal" apporté par la nouveauté.

Personnellement, j'ai plus à gagner à m'améliorer qu'à changer de matériel (quelle que soit la marque). Je ne suis certainement un cas isolé 😁
En tous cas pour moi aussi ma marge d'amélioration personnelle est supérieure à ce que pourrait m'apporter un matériel dernier cri.

Je vais utiliser une métaphore en cyclisme: si l'on à 10kg de trop par rapport à son poids de forme optimal rien ne sert de remplacer son vélo déjà performant par un vélo dernier cri l'amélioration chronos serait à la marge!

jenga

Citation de: JMS le Mars 02, 2020, 11:53:50
Si ton D800 n'avait que 9 "vrais" megapixels il ne pourrait pas voir plus de détails qu'un film argentique de bonne qualité dont le pouvoir séparateur des détails équivaut à environ 8 Mpxl en 24 x 36. Si tel est le cas ce n'est parce qu'il a un capteur bridé...mais parce que l'objectif est une poubelle  ;D ;D ;D
J'imagine qu'avec la même "logique" le D850 a 45 Mpx selon toi, soit 230 pixels par mm.

Peux-tu alors m'expliquer pourquoi il ne reproduit pas correctement un motif ayant seulement 90 paires de lignes par mm?


https://www.dpreview.com/reviews/nikon-d850/8 ):


Les faits sont têtus.

Tonton-Bruno

Moi c'est le contraire.
Cela fait plus de dix ans maintenant que je constate que non seulement je ne m'améliore pas, mais que je régresse.
Je suis moins attentif à ce qui m'entoure, moins motivé, moins curieux, plus distrait et plus négligent quand je photographie, moins précis dans mes gestes.
Pour le moment l'excellence du matériel compense la médiocrité de son utilisateur, mais je sens bien que ça ne va pas durer !

jenga

Citation de: seba le Mars 02, 2020, 07:47:52
Je ne pense pas que ce soit aussi basique. Le dématriçage fait appel à des algorithmes très évolués.
Et les différents dématriceurs n'arrivent pas aux mêmes résultats (certains donneront des artefacts dans cerrtains cas, d'autres non).

L'interpolation n'est pas basique, je n'ai jamais dit ça. En revanche, aucune interpolation ne permet de retrouver une information perdue à cause du sous-échantillonnage. C'est pour cela que les photosites ne sont pas des pixels et que des artefacts surviennent lorsque l'image comporte des structures plus fines que 2x2 photosites.

bretillien

Citation de: namzip le Mars 02, 2020, 09:25:01
Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n'aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n'aurait que 6 Mp.
Et mon D800 seulement 9 Mp.

Effectivement c'est une désillusion pour nous comme pour ceux qui croyaient que la terre était ronde 10% seulement (les platistes) connaissent la réalité des choses https://www.nationalgeographic.fr/sciences/un-francais-sur-10-pense-que-la-terre-est-plate

Un américain meurt en tentant de prouver que la terre est plate https://www.20minutes.fr/monde/2725375-20200224-americain-meurt-voulant-prouver-terre-plate   c'est un peu idiot car tout le monde le sait ;D

jenga

Citation de: bretillien le Mars 02, 2020, 12:11:14
Effectivement c'est une désillusion pour nous comme pour ceux qui croyaient que la terre était ronde 10% seulement (les platistes) connaissent la réalité des choses https://www.nationalgeographic.fr/sciences/un-francais-sur-10-pense-que-la-terre-est-plate

Un américain meurt en tentant de prouver que la terre est plate https://www.20minutes.fr/monde/2725375-20200224-americain-meurt-voulant-prouver-terre-plate   c'est un peu idiot car tout le monde le sait ;D
En qualité de grand scientifique, tu vas sans doute pouvoir m'expliquer comment un capteur à 230 "pixels" par mm moire sur une mire de 90 paire de lignes par mm?

https://www.dpreview.com/reviews/nikon-d850/8 ):


Sinon, tu peux garder tes comparaisons injurieuses pour toi, histoire de garder un peu de dignité.

Verso92

#169
Citation de: Verso92 le Mars 02, 2020, 00:28:59
Et pas d'escamotage lié au côté monochrome de l'image (lié à l'utilisation de IRIS). Demain midi, si j'ai le temps, je posterai la version couleur (l'image est sur les DD du club photo).

Comme promis, la version couleur (visualisation 300%), non escamotée, donc :


(et on voit toujours les motifs de 1 pixel de large, bien sûr)

Verso92

#170
Citation de: jenga le Mars 02, 2020, 12:04:39
J'imagine qu'avec la même "logique" le D850 a 45 Mpx selon toi, soit 230 pixels par mm.

Peux-tu alors m'expliquer pourquoi il ne reproduit pas correctement un motif ayant seulement 90 paires de lignes par mm?


https://www.dpreview.com/reviews/nikon-d850/8 ):


Les faits sont têtus.

Tu n'as donc pas entendu parler de la matrice de Bayer ?

Ce que tu vois là, c'est le "repliement" de l'interpolation en chrominance. Et, comme déjà évoqué, rien à voir avec une matrice de 2x2...

seba

Citation de: jenga le Mars 02, 2020, 12:11:08
L'interpolation n'est pas basique, je n'ai jamais dit ça. En revanche, aucune interpolation ne permet de retrouver une information perdue à cause du sous-échantillonnage. C'est pour cela que les photosites ne sont pas des pixels et que des artefacts surviennent lorsque l'image comporte des structures plus fines que 2x2 photosites.

Pourquoi alors avec certaines méthodes on a des artefacts et avec d'autres non, pour une même image ?

JMS

Citation de: jenga le Mars 02, 2020, 12:04:39
J'imagine qu'avec la même "logique" le D850 a 45 Mpx selon toi, soit 230 pixels par mm.
(...)
Les faits sont têtus.

Le D850 a zéro pixel au millimètre, car le pixel est une unité d'image informatique. En revanche il a bien 230 photosites au millimètre linéaire, soit une Ropt (résolution optique) de 115 paires de lignes au mm, dont les informations du luminance après dématriçage fourniront 45 millions de pixels dans le fichier. Or le moiré se produit si le pouvoir séparateur de l'objectif est trop élévé pour le capteur, rien ne permet d'affirmer que l'objectif utilisé sur un sujet à haut contraste (du noir et du blanc epicétou du mire style USAF) n'a pas un pouvoir séparateur supérieur à 115 paires de lignes au mm, en argentique sur film Technical Pan certains arrivaient au maxi du film, soit 160 paires de lignes quand un film diapo en contraste moyen calait autour de 50 paires de lignes. Quand du moiré se produit, certains logiciels arrivent à le contourner, d'autres non.

JMS

Sinon je confirme que grâce aux derniers traitements de correction des grands angles il est possible de prouver que la terre est plate...quand je photographiais un horizon sur la mer dans les années 60 avec mon 24 mm, l'objectif me prouvait la rotondité de la terre. Maintenant avec mon dernier zoom 14-24, je vois bien qu'elle est plate...les faits sont tétus  ;D ;D ;D

Verso92

#174
Citation de: JMS le Mars 02, 2020, 13:39:24
Le D850 a zéro pixel au millimètre, car le pixel est une unité d'image informatique.

C'est une notion qui, en effet, échappe à beaucoup de monde.

Le pixel est une unité abstraite, la brique de base de l'image numérique (contraction de Pixel + Element).

Citation de: JMS le Mars 02, 2020, 13:39:24
Or le moiré se produit si le pouvoir séparateur de l'objectif est trop élévé pour le capteur, rien ne permet d'affirmer que l'objectif utilisé sur un sujet à haut contraste (du noir et du blanc epicétou du mire style USAF) n'a pas un pouvoir séparateur supérieur à 115 paires de lignes au mm, en argentique sur film Technical Pan certains arrivaient au maxi du film, soit 160 paires de lignes quand un film diapo en contraste moyen calait autour de 50 paires de lignes. Quand du moiré se produit, certains logiciels arrivent à le contourner, d'autres non.

En ce qui concerne le moiré, il convient, pour plus de clarté, de discerner celui en luminance de celui en chrominance.

Le moiré en luminance est intrinsèque au numérique : avec un motif périodique ayant une fréquence supérieure à fe/2* (fe étant la fréquence d'échantillonnage spatiale du capteur, la "grille" composée par les photosites), il se produira invariablement, quelle que soit la technologie du capteur (Bayer, Foveon, Monochrome, etc).

Le moiré en chrominance est celui provoqué par l'interpolation des couleurs pour la matrice de Bayer. C'est, je trouve, le plus gênant. Par contre, comme le montrent les exemples postés par seba au post #182, il dépendra fortement de l'algorithme utilisé pour le dématriçage (l'interpolation couleur). J'imagine qu'il est difficile de trouver un algorithme qui soit le plus efficace possible sur tous les critères...

Le moiré en chrominance n'existe pas pour les capteurs Foveon ou monochromes.


*fréquence de Nyquist.