Des rumeurs!

Démarré par Sebmansoros, Février 26, 2020, 13:26:29

« précédent - suivant »

al646

Il va juste falloir changer ses habitudes, (on n'est pas toujours en GA pour du paysage et si on a un sujet en avant plan, à f/5.6 la PDC n'est pas suffisante)  et enfin pour la macro, cela risque d'être plus compliqué à f/5.6
Ceci-dit, le focus stacking peut aider pour certains

Citation de: JMS le Février 29, 2020, 19:46:04
C'est franchement n'importe quoi, si la diffraction se manifeste à 6,3 il suffit de rester à 5,6 pour avoir beaucoup plus de détails sur un capteur de 60 Mpx que sur un capteur de 24 Mpx dès lors que le pouvoir séparateur de l'objectif est supérieur à 100 paires de lignes/mm. Et pour la profondeur de champ un grand angle assez de profondeur de champ à 5,6 pour la plupart des photos classiques de paysages.

Verso92

#126
Citation de: jenga le Février 29, 2020, 20:59:13
Pour exploiter 100 pdl/mm, il faut au minimum 200 pixels par mm (critère de Shannon). En matrice de Bayer (1 pixel = 2x2 photosites), cela fait 400 photosites par mm.

Heureusement, non.

C'est vrai dans l'hypothèse où tu viendrais superposer au motif du capteur un motif géométrique répétitif : là, il faudrait respecter Shannon, effectivement.

Dans le cas d'un motif non répétitif (ou, du moins, à fréquence faible), tu arrives sans problème à discriminer un détail qui fait 1 pixel de large...


Ci-dessous, image non dématricée à gauche, et dématricée à droite (visualisation 300%).

seba

Citation de: Jean-Claude le Février 26, 2020, 20:50:31
Mais qu'il est con  :D

Une longueur d'onde ne serait-elle plus exprimée en fractions de micron ?

Il est toujours savoureux de voir Jean-Claude parler de ce qu'il ne connaît pas (en l'occurrence la diffraction).

Citation de: Jean-Claude le Janvier 17, 2019, 13:10:09
Les rayons des étoiles proviennent des angles entre deux lamelles, plus cet angle est net et petit plus le rayon de diffraction deviemt précis et visible. Les diaphs modernes à angles arrondis ne font que dificilement des étoiles, des diaphs à l'ancienne avec des angles bien net en font facilement

55micro

Citation de: Aria le Mars 01, 2020, 09:42:13
J'ai du mal à imaginer la photo de cette manière.

Sinon de façon plus légère, 36 mpx représentent l'équilibre parfait :
- 3x6 = 18 et 1+8=9
- 3+6 = 9
9 étant divin car 3 fois la trinité, là on touche le Nirvana ultime...les champs Elyséens sans aucune mauvaise herbe  ;D ;D ;D

Voilà c'est parfait, Nikon ne touchez plus à rien et revenez en arrière  ;D

Encore mieux, le D750, 7+5=12, 2+1=3, la Trinité direct!

Alors que le D780... 7+8=15, 5+1=6, trois D780=666, vade retro Satanas  :D
Choisir c'est renoncer.

seba

Citation de: GLR30 le Mars 01, 2020, 10:47:05
Je suis bien d'accord sur le fait que les performances des objectifs ne sont pas entièrement exploitées actuellement, même sur les capteurs ayant la plus grande définition.
Il en avait été question dans ce fil où j'évoquais que mes téléobjectifs utilisés en lunettes d'observation (avec oculaire et prisme redresseur) montraient bien plus de détails que n'en révélait le visionnement à 100% des images fournies par les D810/7200.

On peut voir ça ci-dessous par exemple.
Attention : l'ouverture de l'objectif de reprise doit être au moins aussi grande que celle de l'objectif primaire (et il doit être de bien meilleure qualité).

bretillien

Citation de: Verso92 le Mars 01, 2020, 09:45:12
En fait, non.
;)
Citation de: seba le Mars 01, 2020, 09:11:26
Mais en croppant non.
Bien sûr je plaisantais ;) je ne pense pas que l'on puisse faire beaucoup mieux qu'avec ce qui existe déjà

Fred_G

Citation de: bretillien le Mars 01, 2020, 19:15:21
;)Bien sûr je plaisantais ;) je ne pense pas que l'on puisse faire beaucoup mieux qu'avec ce qui existe déjà
Dis pas ça malheureux : y' en a plein qui pensent encore que leurs photos seront meilleures avec le prochain boîtier qui sortira !
The lunatic is on the grass.

Verso92

Citation de: Fred_G le Mars 01, 2020, 19:53:35
Dis pas ça malheureux : y' en a plein qui pensent encore que leurs photos seront meilleures avec le prochain boîtier qui sortira !

Encore heureux qu'elles le seront !

Fred_G

Citation de: Verso92 le Mars 01, 2020, 19:56:20
Encore heureux qu'elles le seront !
Mais bien sûr 😁
The lunatic is on the grass.

Verso92

Citation de: Fred_G le Mars 01, 2020, 19:59:34
Mais bien sûr 😁

C'est inévitable, et c'est valable aussi bien chez Nikon que chez Leica, etc.

(regarde l'enthousiasme de Benaparis avec son tout nouveau M10 monochrome, par exemple)

jenga

Citation de: Manu_14 le Mars 01, 2020, 09:36:51
La matrice de Bayer réduit la résolution en chrominance mais pas en luminance, pour cette dernière on a bien un pixel= un photosite. C'est à elle que correspond la résolution du capteur.
Ai-je loupé quelque chose ?
Non, un photosite n'est jamais égal à un pixel.

Suppose que tu connaisses la valeur d'un photosite, par exemple le site Bleu au milieu du capteur est illuminé à 18%. Cela ne te donne pas la valeur de luminance au milieu du capteur:

  • si l'image est en fait bleu saturé en ce point, la luminance est égale à 2% (les photosites rouge et vert correspondants sont à environ 0)
  • si l'image est en fait jaune presque saturé en ce point, la luminance est égale à 91% (les photosites rouge et vert correspondants sont à environ 100%)

Une image bleue sombre saturée et une image jaune très clair quasi saturé produisent exactement la même valeur sur le photosite bleu, et ont des luminances (et des chroma) très différentes.

D'un point de vue numérique, la luminance (de l'espace luminance/chrominance YUV) se calcule à partir des valeurs RVB de la façon suivante:

L= 0.299 R + 0.587 V + 0.114 B

On voit bien qu'il est impossible de calculer la luminance sans connaître R, V et B.

Fred_G

Citation de: Verso92 le Mars 01, 2020, 20:03:31
C'est inévitable, et c'est valable aussi bien chez Nikon que chez Leica, etc.

(regarde l'enthousiasme de Benaparis avec son tout nouveau M10 monochrome, par exemple)
Oui, mais Ben maîtrisait déjà la génération N-1, donc il est capable d'exploiter le gain "marginal" apporté par la nouveauté.

Personnellement, j'ai plus à gagner à m'améliorer qu'à changer de matériel (quelle que soit la marque). Je ne suis certainement un cas isolé 😁
The lunatic is on the grass.

namzip

Je suis largué avec cette histoire de 4 photo-sites pour 1 pxiel. ???
Mon boitier a un capteur de 20 Mp c'est à dire 80 Mp de photo-sites?
Quand on parle de la taille d'un photo site en micron, c'est bien la largeur du capteur divisée par le nombre.
Par exemple mon boitier c'est 6000 pixels sur 36 mm soit des photo-sites d'environ 6 microns ou pour 4 ps pour 1 pix un ps de 1,5 micron.

kochka

¨Pour simplifier, chaque "cellule de capture" est utilisée pour 1/4 des 4 pixels restitués grâce à elle et aux trois autres "cellules de capture" adjacentes.
Technophile Père Siffleur

Verso92

#139
Citation de: namzip le Mars 01, 2020, 20:25:36
Je suis largué avec cette histoire de 4 photo-sites pour 1 pxiel. ???
Mon boitier a un capteur de 20 Mp c'est à dire 80 Mp de photo-sites?
Quand on parle de la taille d'un photo site en micron, c'est bien la largeur du capteur divisée par le nombre.
Par exemple mon boitier c'est 6000 pixels sur 36 mm soit des photo-sites d'environ 6 microns ou pour 4 ps pour 1 pix un ps de 1,5 micron.

Sur les APN à matrice de Bayer, 1 photosite = 1 pixel.

Pour un APN monochrome comme le tout dernier Leica M10m, c'est rigoureusement le cas (bijection). Quand il s'agit d'un appareil couleur, chaque photosite n'enregistre la luminance que derrière un filtre R, V ou B (c'est la matrice de Bayer). La couleur devra donc être reconstituée logiciellement, par voisinage.



Bien sûr, il ne faut pas quatre photosites pour constituer un pixel (en luminance, c'est faux, et en chrominance aussi, d'ailleurs). La copie d'écran que j'ai montrée au post #145 montre clairement que l'appareil est capable de reproduire sans problème un motif de 1 pixel de large.

jenga

#140
Citation de: namzip le Mars 01, 2020, 20:25:36
Je suis largué avec cette histoire de 4 photo-sites pour 1 pxiel. ???
Mon boitier a un capteur de 20 Mp c'est à dire 80 Mp de photo-sites?
Quand on parle de la taille d'un photo site en micron, c'est bien la largeur du capteur divisée par le nombre.
Par exemple mon boitier c'est 6000 pixels sur 36 mm soit des photo-sites d'environ 6 microns ou pour 4 ps pour 1 pix un ps de 1,5 micron.

Ton boîtier a 20 millions de photosites: 5 millions rouges, 5 millions bleus et  10 millions verts (il y a davantage de verts pour améliorer la sensibilité dans les verts-jaunes, plus importants pour la vision humaine).

Un pixel trichrome (la discussion ne porte pas sur les capteurs monochromes) est composé des trois informations Rouge, Vert, Bleu, ou de façon équivalente des 3 informations TSL, ou des 3 informations YUV, etc.

Un photosite rouge ou vert ou bleu (1 seule information) n'est donc pas un pixel trichrome (trois informations).

Luminance
On passe de RVB à la luminance L par:
L= 0.299 R + 0.587 V + 0.114 B

Il faut donc bien les trois informations R et V et B pour calculer la luminance d'un pixel.

Intuitivement, il suffit de réaliser qu'une valeur basse de photosite Bleu peut correspondre à une couleur couleur jaune assez saturée et très lumineuse, ou bien à une couleur bleue sombre complètement saturée, ou encore à n'importe quelle intermédiaire.

Ou encore, une valeur basse sur les verts peut correspondre à une couleur magenta assez saturée très lumineuse ou à un vert saturé sombre, etc..

Par conséquent, la connaissance d'un photosite ne donne pas la connaissance d'un pixel. Il ne peut  pas y avoir plus de pixels indépendants que de photosites R indépendants (ou de photosites B ou V). Ton capteur a donc 5 millions de pixels et c'est très suffisant dans la plupart des cas.

Interpolation
Les fabricants de capteurs prétendent que chaque photosite est équivalent à un pixel, donc nomment "20 Mpix" un capteur de 20 M sites, ce qui permet de multiplier la spec par 4 pour pas cher, mais n'a évidemment aucun sens physique.
En conséquence, ils interpolent les 5 millions de vrais pixels à 20 millions pour sortir le nombre de pixels annoncé, mais bien sûr ce n'est que de l'interpolation: les détails de taille inférieure au vrai pixel (2x2 photosites) sont soit perdus soit mal restitués, ce qui crée des artefacts comme ceux du post #132.

Remarque
La visualisation sur écran pourrait souffir du même problème: un pixel écran étant constitué de 3 points lumineux R V B, les fabricants pourraient gonfler la spec en prétendant par exemple qu'un écran HD (1920 x 1080 pixels) a 1920x3= 5760 pixels en largeur.
Heureusement, ils ne sont pas tombés dans le même travers.


jenga

Citation de: Verso92 le Mars 01, 2020, 20:39:34

Bien sûr, il ne faut pas quatre photosites pour constituer un pixel (en luminance, c'est faux, et en chrominance aussi, d'ailleurs). La copie d'écran que j'ai montrée au post #145 montre clairement que l'appareil est capable de reproduire sans problème un motif de 1 pixel de large.
Bien sûr que si.
La luminance, par exemple, est égale à: L= 0.299 R + 0.587 V + 0.114 B.
Sauf à inventer de l'information, la connaissance d'un photosite (R ou V ou B) ne donne donc pas la luminance à cet endroit (ni la chrominance, évidemment).

Ton exemple #145 ne démontre certainement pas la reproduction d'un motif d'un photosite de large.

D'une part, tu as escamoté les deux tiers du problème en convertissant l'image finale (à droite) en noir et blanc  ;D ;D, ce qui élimine tous les artefacts colorés... mais on n'a plus d'information de teinte ni de saturation, donc exit la reproduction de la scène.

Même comme cela, les traits verticaux noir sur fond blanc dans la partie inférieure gauche de l'image finale ne sont certainement pas la reproduction de la scène réelle:

  • le premier trait est dédoublé en bas avec un trait fin à gauche, puis, en montant, est dédoublé avec un trait fin à droite, puis se regroupe
  • le trait suivant est initialement simple, puis se dédouble
  • etc.

Cette copie d'écran n'est donc pas une reproduction, même en se ramenant au noir et blanc qui nécessite trois fois moins d'information.

On peut bien sûr détecter des détails aussi petits qu'on veut, il suffit qu'ils émettent quelques photons vers un photosite. Mais pour reproduire une scène, il faut respecter le critère de Shannon, comme dans n'importe quel système échantillonné.

jenga

Je reprends le test du D850 avec des valeurs numériques qui illustrent bien la différence entre photosite et pixel. (test DPreview https://www.dpreview.com/reviews/nikon-d850/8 ):


La mire de DP Review est constituée de 9 traits noirs sur fond blanc (soit 9 paires de lignes) qui se resserrent. Le nombre de paires de lignes par mm est à peu près égal au double du nombre affiché.

(par exemple, à la graduation 44, les 9 paires de lignes s'étendent sur une hauteur de 25 pixels de l'image totale de 5500 pixels de haut. (voir https://www.dpreview.com/reviews/nikon-d850/8 ). Puisque 5500 pixels représentent 24 mm (hauteur du capteur), 25 pixels représentent environ 0.1 mm).

A la graduation 44, nous avons donc 9 paires de lignes pour 0.1 mm, soit 90 paires de lignes par mm.

Le D850 a des photosites de 4,35 microns, soit 230 photosites par mm.

Si on avait "1 photosite = 1 pixel", le D850 aurait 230 pixels par mm; il pourrait donc reproduire une structure ayant 230/2 = 115 paires de lignes par mm. On voit bien que ce n'est pas le cas, il y a déjà beaucoup de moiré à 90 pdl/mm.


jenga


Verso92

#144
Citation de: jenga le Mars 01, 2020, 23:15:39
Bien sûr que si.
La luminance, par exemple, est égale à: L= 0.299 R + 0.587 V + 0.114 B.
Sauf à inventer de l'information, la connaissance d'un photosite (R ou V ou B) ne donne donc pas la luminance à cet endroit (ni la chrominance, évidemment).

Ton exemple #145 ne démontre certainement pas la reproduction d'un motif d'un photosite de large.

D'une part, tu as escamoté les deux tiers du problème en convertissant l'image finale (à droite) en noir et blanc  ;D ;D, ce qui élimine tous les artefacts colorés... mais on n'a plus d'information de teinte ni de saturation, donc exit la reproduction de la scène.

Même comme cela, les traits verticaux noir sur fond blanc dans la partie inférieure gauche de l'image finale ne sont certainement pas la reproduction de la scène réelle:

  • le premier trait est dédoublé en bas avec un trait fin à gauche, puis, en montant, est dédoublé avec un trait fin à droite, puis se regroupe
  • le trait suivant est initialement simple, puis se dédouble
  • etc.

Cette copie d'écran n'est donc pas une reproduction, même en se ramenant au noir et blanc qui nécessite trois fois moins d'information.

On peut bien sûr détecter des détails aussi petits qu'on veut, il suffit qu'ils émettent quelques photons vers un photosite. Mais pour reproduire une scène, il faut respecter le critère de Shannon, comme dans n'importe quel système échantillonné.

Une image vaut mieux qu'un long discours.

Elle ne date pas d'hier : c'est une photo faite au D810, illustrant une discussion dans laquelle certains intervenants essayaient de convaincre l'auditoire que le boitier avait une définition de 36/4 = 9 MPixels... on voit clairement des détails faisant 1 pixel de large*, que tu le veuilles ou non. Ce qui montre clairement la non pertinence d'évoquer Shannon ici, entre autre.

Et pas d'escamotage lié au côté monochrome de l'image (lié à l'utilisation de IRIS). Demain midi, si j'ai le temps, je posterai la version couleur (l'image est sur les DD du club photo).


*et aucun hasard : les lignes verticales, on les voit toutes.

seba

Citation de: jenga le Mars 01, 2020, 23:12:10
Interpolation
Les fabricants de capteurs prétendent que chaque photosite est équivalent à un pixel, donc nomment "20 Mpix" un capteur de 20 M sites, ce qui permet de multiplier la spec par 4 pour pas cher, mais n'a évidemment aucun sens physique.
En conséquence, ils interpolent les 5 millions de vrais pixels à 20 millions pour sortir le nombre de pixels annoncé, mais bien sûr ce n'est que de l'interpolation: les détails de taille inférieure au vrai pixel (2x2 photosites) sont soit perdus soit mal restitués, ce qui crée des artefacts comme ceux du post #132.

Je ne pense pas que ce soit aussi basique. Le dématriçage fait appel à des algorithmes très évolués.
Et les différents dématriceurs n'arrivent pas aux mêmes résultats (certains donneront des artefacts dans cerrtains cas, d'autres non).

Verso92

Citation de: seba le Mars 02, 2020, 07:47:52
Je ne pense pas que ce soit aussi basique. Le dématriçage fait appel à des algorithmes très évolués.

Bien évidemment.

(jenga nous mélange un peu tout, là...)

namzip

Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n'aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n'aurait que 6 Mp.
Et mon D800 seulement 9 Mp.

Verso92

Citation de: namzip le Mars 02, 2020, 09:25:01
Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n'aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n'aurait que 6 Mp.
Et mon D800 seulement 9 Mp.

Sois rassuré : ton D500 a bien 20 MPixels, ton D600 24 MPixels et ton D800 36 MPixels...  ;-)


Pour faire simple, on dira juste que les couleurs sont un peu chahutées : en effet, chaque photosite n'en voit qu'une à chaque fois (R, V ou B), mais c'est un inconvénient mineur, l'œil étant beaucoup moins sensible à la chrominance qu'à la luminance (c'est en partie là-dessus que repose les algorithmes Jpeg).

Rami

Pour faire simple pour manzip.
A la fin, on a bien un pixel par photosite.
Au départ, pour chaque photosite, on n'a qu'une information, R, V ou B.
Pour avoir l'information complète, et donc autant de pixels que de photosites, on reconstitue les deux canaux manquants à partir des photosites voisins.
Par exemple, pour un photosite R, on reconstitue la valeur de V (ou de B) à partir des valeurs des photosites V (ou B) voisins.
Nikonairien (ou presque)