Rumeur de Nikon Z 61 Mpixels / 16 bits

Démarré par Mistral75, Septembre 19, 2019, 18:01:50

« précédent - suivant »

seba

A contrario, pour La Cène, l'horizon est bien plus haut que l'oeil, on voit tout de suite que les horizontales ne sont pas raccord avec la salle où se trouve la fresque, on voit le dessus de la table alors qu'on la regarde par dessous...
La restitution de cette perspective serait correcte vue à bonne hauteur mais vue du sol elle paraît un peu bizarre.

Tonton-Bruno

Citation de: seba le Septembre 22, 2019, 10:22:15
Non un tirage de 80x120cm par exemple, horizon à hauteur d'oeil, est déjà pas mal.
Note qu'en peinture (les fresques en particulier), les perspectives sont souvent conçues de telle manière que l'horizon soit à hauteur d'oeil, comme cette peinture de Masaccio.
Je te parle de photographies regardées principalement dans un livre ou sur un écran d'ordinateur, et tu me réponds en citant une fresque murale.

De tout temps les réalisateurs de fresques et de mosaïques ont tenu compte de la position du spectateur par rapport à leur œuvre.

Ici, on parle de photos courantes.

Lorsqu'on met en place une scénographie, que ce soit à partir d'une fresque, d'une photographie ou d'un canapé (comme Dali à Figueras), on tient compte des lois de la perspective et on joue avec.

Dans tous les autres cas, on prend des photos en supposant que le spectateur les verra dans les conditions habituelles.

seba

Citation de: Tonton-Bruno le Septembre 22, 2019, 10:29:50
Dans tous les autres cas, on prend des photos en supposant que le spectateur les verra dans les conditions habituelles.

Dans ce cas, la restitution de la perspective ne sera correcte que pour certaines images.
Dans un cas extrême (grand-angle décentré par exemple), si la perspective est exacte, l'image sera bizarre (anamorphoses, convergentes...), sinon on peut tricher pour avoir une image plus acceptable bien que la perspective en devienne inexacte.

Là aussi on peut noter que les peintres trichent, par exemple une sphère sera toujours représentée par un disque alors qu'en dehors de l'axe c'est une ellipse. Ceci parce que si on s'écarte du centre de perspective, voir une ellipse (supposée représenter une sphère) est choquant.
On trouve cependant des études de perspective où les sphères sont bien représentées par des ellipses, mais c'est pour la démonstration. Dans les tableaux ce n'est jamais le cas.

Tonton-Bruno

Citation de: seba le Septembre 22, 2019, 10:40:49
Dans un cas extrême (grand-angle décentré par exemple), si la perspective est exacte, l'image sera bizarre (anamorphoses, convergentes...)
C'est bien pour ça que je n'ai pas gardé mes objectifs à décentrement.
Je fais un travail plus efficace en utilisant un zoom ultra-grand-angle en contre-plongée.

jenga

Citation de: seba le Septembre 22, 2019, 10:08:05
Si tu prends, du sol, un gratte-ciel (parfaitement vertical) en photo, image redressée donc verticales tout à fait parallèles, les verticales sembleront s'évaser en regardant l'image face au milieu mais sembleront tout à fait naturelles en regardant l'image face à l'horizon (c'est-à-dire que l'horizon doit être à la hauteur des yeux).
De la même manière qu'on regarde le gratte-ciel d'en bas, il faut regarder l'image d'en bas.
Lorsqu'on regarde (je ne parle  même pas de photo) un édifice assez haut et proche, par exemple une cathédrale depuis son parvis, on lève souvent le regard pour voir la façade dans son ensemble. On ne regarde pas la façade dans son ensemble avec le regard parallèle au sol.

Les verticales convergent alors vers un point de fuite situé, et plus l'édifice est haut, plus on lève le regard et plus elles semblent converger.

Ceci est inscrit dans le cerveau depuis longtemps (déjà à l'époque des architectes grecs), bien avant la photo, d'où les colonnes convergentes pour accentuer l'impression de hauteur.

Lorsque nous regardons une image de façade, des cas typiques sont:
-l'APN a été levé, comme un regard normal, et l'image n'a pas été redressée: on voit une perspective naturelle, qui rend bien la hauteur et le manque de recul à la prise de vue.

-l'image a été redressée par logiciel ou, ce qui revient au même, la visée a été faite à l'horizontale et la partie basse de l'image a été supprimée pour ne garder que la façade ou presque.
Comme le milieu de l'image est alors à mi-hauteur de l'édifice, on a l'impression que le regard était levé, mais comme la perspective ne correspond pas, puisqu'il n'y a pas convergence des verticales, cela donne une impression peu naturelle.
Je ne dis pas que c'est incorrect, tout dépend bien sûr de l'intention: rendu plus "naturel" ou plus "architectural".

-la visée a été faite à l'horizontale, mais l'avant-plan (parvis de la cathédrale, bénitier sur une photo postée sur le fil des Z, etc.) n'est pas coupé: le milieu de l'image est bien le bas de l'édifice, donc le cerveau comprend bien que le regard était horizontal, et les verticales parallèles sont alors naturelles.

seba

Citation de: jenga le Septembre 22, 2019, 13:20:27
-l'image a été redressée par logiciel ou, ce qui revient au même, la visée a été faite à l'horizontale et la partie basse de l'image a été supprimée pour ne garder que la façade ou presque.
Comme le milieu de l'image est alors à mi-hauteur de l'édifice, on a l'impression que le regard était levé, mais comme la perspective ne correspond pas, puisqu'il n'y a pas convergence des verticales, cela donne une impression peu naturelle.
Je ne dis pas que c'est incorrect, tout dépend bien sûr de l'intention: rendu plus "naturel" ou plus "architectural".

-la visée a été faite à l'horizontale, mais l'avant-plan (parvis de la cathédrale, bénitier sur une photo postée sur le fil des Z, etc.) n'est pas coupé: le milieu de l'image est bien le bas de l'édifice, donc le cerveau comprend bien que le regard était horizontal, et les verticales parallèles sont alors naturelles.

Justement, quand on regarde une image redressée, l'horizon est en bas et en principe il faudrait le placer à hauteur d'oeil (l'horizon est toujours à hauteur d'oeil).
Quand l'horizon est au milieu de l'image (avec le bas de l'image inutile), itou.
Et du coup il n'y a pas de différence entre les deux.

Demain je posterai 3 images très démonstratives.

seba

Citation de: seba le Septembre 22, 2019, 13:47:00
Justement, quand on regarde une image redressée, l'horizon est en bas et en principe il faudrait le placer à hauteur d'oeil (l'horizon est toujours à hauteur d'oeil).
Quand l'horizon est au milieu de l'image (avec le bas de l'image inutile), itou.
Et du coup il n'y a pas de différence entre les deux.

Je me suis permis de piquer les images de Verso92 pour illustrer mon blabla.
A gauche, l'horizon passe au milieu de l'image (point vert) et naturellement on le placera à hauteur d'oeil.
A droite, l'horizon est vers le bas de l'image, naturellement on placera le milieu de l'image (point rouge) à hauteur d'oeil ce qui faussera la restitution (et donnera entre autre l'illusion que les verticales s'évasent). Ce qu'il faut mettre à hauteur d'oeil c'est le point vert.
Et de cette manière, il n'y aura aucune différence de restitution entre l'image de gauche et l'image de droite.
Bien sûr, il faut aussi respecter la distance orthoscopique (ce qui est pratiquement impossible sur un petit écran).

JMS

Citation de: Tonton-Bruno le Septembre 22, 2019, 10:01:51
Bien entendu de grands photographes de sport peuvent faire la couv de Paris-Match en JPG avec un D4s, mais de là à conclure que les 45 MP des RAW 14 bits d'un D850 ou les 60MP 16 bits du futur Nikon ne servent à rien...

On faisait une couv de l'Equipe grand format avec un D1...je le sais le mien était une occase revendue par l'Equipe pour changer en D1...h  (2,7 Mpxl)

seba

Citation de: seba le Septembre 22, 2019, 13:47:00
Demain je posterai 3 images très démonstratives.

Voici 3 dessins d'un immeuble, vu d'en bas, du milieu et d'en haut.
Pour regarder chaque image, l'horizon doit être à hauteur d'œil.
Distance œil-image : 0,83x le petit côté.
Alors je sais, on va me dire que c'est impossible à faire, etc...
Non seulement c'est possible mais en plus c'est une belle démonstration.
Et d'un point de vue satisfaction intellectuelle, c'est toujours intéressant de le savoir.

jenga

#84
Citation de: seba le Septembre 23, 2019, 08:44:47
Voici 3 dessins d'un immeuble, vu d'en bas, du milieu et d'en haut.
Pour regarder chaque image, l'horizon doit être à hauteur d'œil.
Distance œil-image : 0,83x le petit côté.
Alors je sais, on va me dire que c'est impossible à faire, etc...
Non seulement c'est possible mais en plus c'est une belle démonstration.
Et d'un point de vue satisfaction intellectuelle, c'est toujours intéressant de le savoir.
Certes, mais ces dessins dans lesquels le regard est à horizontale ne correspondent pas à l'observation courante: l'observateur usuel est placé en bas de l'édifice et regarde vers le haut pour le voir dans son ensemble.
C'est pourquoi le dessin de gauche (me) semble irréaliste, au même titre que les photos prises en contre-plongée et complètement redressées.

Pour des raisons géométriques simples, les images des verticales  convergent alors vers un point de fuite situé au-dessus de l'édifice, comme n'importe quelle photo prise dans ces conditions (contre-plongée) le montre.


Bernard2

Citation de: jenga le Septembre 23, 2019, 12:47:37
Certes, mais ces dessins dans lesquels le regard est à horizontale ne correspondent pas à l'observation courante: l'observateur usuel est placé en bas de l'édifice et regarde vers le haut pour le voir dans son ensemble.
C'est pourquoi le dessin de gauche (me) semble irréaliste, au même titre que les photos prises en contre-plongée et complètement redressées.

Pour des raisons géométriques simples, les images des verticales  convergent alors vers un point de fuite situé au-dessus de l'édifice, comme n'importe quelle photo prise dans ces conditions (contre-plongée) le montre.
C'est évident

seba

Citation de: jenga le Septembre 23, 2019, 12:47:37
Certes, mais ces dessins dans lesquels le regard est à horizontale ne correspondent pas à l'observation courante: l'observateur usuel est placé en bas de l'édifice et regarde vers le haut pour le voir dans son ensemble.
C'est pourquoi le dessin de gauche (me) semble irréaliste, au même titre que les photos prises en contre-plongée et complètement redressées.

Pour des raisons géométriques simples, les images des verticales  convergent alors vers un point de fuite situé au-dessus de l'édifice, comme n'importe quelle photo prise dans ces conditions (contre-plongée) le montre.

Non pas du tout. Je n'ai pas dit que le regard est à l'horizontale mais que l'horizon est à hauteur des yeux.
Et le dessin de gauche, il peut être présenté verticalement, horizon à hauteur des yeux, et en regardant vers le haut : les verticales sembleront également convergentes vers le haut.
Et pour le dessin de droite, horizon à hauteur des yeux, en regardant vers le bas, les verticales sembleront également convergentes vers le bas.

seba

Citation de: seba le Septembre 23, 2019, 13:05:04
Non pas du tout. Je n'ai pas dit que le regard est à l'horizontale mais que l'horizon est à hauteur des yeux.
Et le dessin de gauche, il peut être présenté verticalement, horizon à hauteur des yeux, et en regardant vers le haut : les verticales sembleront également convergentes vers le haut.

Comme ceci.

seba

Citation de: jenga le Septembre 23, 2019, 12:47:37
Certes, mais ces dessins dans lesquels le regard est à horizontale ne correspondent pas à l'observation courante: l'observateur usuel est placé en bas de l'édifice et regarde vers le haut pour le voir dans son ensemble.
C'est pourquoi le dessin de gauche (me) semble irréaliste, au même titre que les photos prises en contre-plongée et complètement redressées.

Pour des raisons géométriques simples, les images des verticales  convergent alors vers un point de fuite situé au-dessus de l'édifice, comme n'importe quelle photo prise dans ces conditions (contre-plongée) le montre.

Ce que tu opposes, ce sont les images A et B.
Mais pour peu que la présentation soit appropriée à une restitution correcte de la perspective, le résultat sera le même pour l'observateur.
Pour l'image A, les verticales sont parallèles mais l'observateur regarde vers le haut, elles sembleront convergentes.
Pour l'image B, les verticales sont convergentes et c'est bien ce que verra l'observateur quand il regarde l'image de face.
L'objet, l'image A et l'image B sont tous trois confondus et du point de vue de l'observateur on verra la même chose.

Sebmansoros

Oui bon je vais aller pendre un cachet d'aspirine. :P

seba

il t'en faudra un deuxième pour la suite alors.
Si l'observateur regarde horizontalement, cette fois les verticales de l'immeuble ainsi que de l'image A sembleront bien verticales...et celles de l'image B aussi.

Mais je vais préparer une illustration de tout ça en photos, ça va prendre un peu de temps.

jenga


jenga

Citation de: Mistral75 le Septembre 19, 2019, 18:01:50
... Nikon Z dont le capteur serait doté de 60,7 Mpixels (9.552 x 6.364) et dont les CAN seraient capables d'échantillonner sur 16 bits :
Je suis curieux de savoir dans quelles conditions les bits supplémentaires peuvent contenir autre chose que du bruit.

Un facteur déterminant est la capacité des photosites, rapportée à l'échelle de numérisation. Pour des 24x36  / 45 Mpx de technologie actuelle (D850, Z7), les photosites ont une capacité de 60000 électrons environ, numérisés sur 14 bits soit 0..16383. Cela fait environ 4 électrons par unité de numérisation.

Ce rapport réduit d'un facteur 4 l'impact du bruit photonique généré dans les photosites (bruit intrinsèque au rayonnement lumineux, l'APN n'y est pour rien) et d'une partie des bruits ajoutés par l'APN en aval des photosites.
Le bruit photonique, égal à la racine carrée du signal lumineux, est prépondérant dans les utilisations courantes; les bruits de l'APN deviennent influents à très faible niveau de remplissage des photosites et donc très faible bruit photonique (typiquement, remplissage au 1/1000 de la capacité dans le cas des Z7 / D850).

La spec du Z7 ou du D850 (60000 électrons, numérisation 14 bits) est  cohérente, mais tout juste: à très faible remplissage des photosites, donc très faible bruit photonique, le bit 12 devient significatif (à plus fort remplissage il est noyé dans le bruit photonique); le 14 est noyé dans les bruits ajoutés par l'APN, le 13 est à la limite.

Numériser le même capteur sur 16 bits ne ferait donc qu'ajouter 2 bits de bruit. Pour gagner 2 bits significatifs (soit un facteur 4 sur le bruit), il faut donc que le nouveau capteur:

  • génère 4 fois moins de bruit qu'un D850 dans les étages précédant le convertisseur; le bruit ramené au nombre d'électrons se réduit lentement avec le progrès technologique, de moins en moins vite à mesure qu'on tend vers des niveaux très bas; gagner un facteur 4 d'un coup semble vraiment difficile
  • présente le même rapport que le D850 / Z7 entre la capacité des photosites et l'échelle de conversion, pour que l'impact du bruit photonique soit identique sur les bits 14 15 et 16 de ce nouveau capteur à ce qu'il est sur les bits 12 13 et 14 du D850 / Z7; cela implique de multiplier par 4 la capacité des photosites ; or, cette capacité évolue lentement avec la technologie, et à technologie identique elle est proportionnelle à la surface des sites; donc, sauf révolution technologique, les sites du Z 61 Mpx auront une capacité plutôt inférieure à celle des Z7 / D850, et non 4 fois plus comme il le faudrait pour être cohérent avec une numérisation sur16 bits

Christophe NOBER

Citation de: Stepbystep le Septembre 24, 2019, 15:06:56
Heu.. ton postulat de départ est faux.

16 bits permet d'enregistrer 65 536 valeurs et 14 bits sur 16 384. Soit effectivement 4 fois plus sur une même largeur d'onde, ce qui permettra des dégradés plus fins. Le bruit n'aura d'effet que dans des conditions de très basses lumières, là où finalement peu de bits seront exploitables.

Il a raison , pour cela , je t'invite à relire l' historique des interventions d'un spécialiste : https://www.chassimages.com/forum/index.php?action=profile;u=41183

jenga

#94
Citation de: Stepbystep le Septembre 24, 2019, 15:06:56
16 bits permet d'enregistrer 65 536 valeurs et 14 bits sur 16 384. Soit effectivement 4 fois plus sur une même largeur d'onde, ce qui permettra des dégradés plus fins. Le bruit n'aura d'effet que dans des conditions de très basses lumières, là où finalement peu de bits seront exploitables.
La partie que j'ai soulignée dans ta réponse est intuitive, mais elle ne tient compte que du bruit généré par l'APN, qui est en effet très faible. Mais il y a en plus le bruit photonique, qui est égal à la racine carrée du signal lumineux, et constitue la principale limitation dans la plupart des cas.

Je laisse de côté le coefficient de conversion photon/électron, qui est relativement constant, pour raisonner sur les électrons collectés. Pour un 24x36 performant assez fortement pixellisé (D850), la capacité maximale du photosite est 61000 électrons; quand il est plein, le bruit photonique est égal à racine(61000) = 247. Cela montre que beaucoup de bits de poids faibles sont noyés dans le bruit photonique, et on est à pleine lumière.

C'est uniquement à très bas niveau de lumière que les bits de poids faibles peuvent devenir significatifs. Supposons que le codage revienne à compter tous les électrons, ce qui est serait le cas pour un Z16 bits (soit 0..65535) avec des photosites de capacité 60000 comme ceux du Z7:

  • Quand le signal vaut 64, soit le millième de la saturation, le bruit photonique vaut 8: les 3 bits faibles sont dans le bruit, les 3 bits juste au-dessus décrivent la partie utile (non bruitée) du signal.
  • Quand le signal vaut 16, le bruit photonique vaut 4; à ce stade le bruit de lecture, disons 2 électrons, n'est plus négligeable: les deux bits faibles sont dans le bruit, le troisième n'est pas beaucoup plus fiable. La partie utile du signal est codée sur les 2 bits juste au-dessus.
  • Quand le signal vaut 4, le bruit photonique vaut encore 2 et il s'y ajoute le bruit de l'APN, autour de 2 également. Le signal est complètement noyé dans le bruit.

Cela montre qu'avec un codage revenant à compter tous les électrons, les bits de poids faibles ne peuvent jamais être significatifs, pour des raisons physiques.

On ne peut rendre ces bits significatifs que si la capacité du photosite est plus grande que l'étendue de codage, par exemple d'un facteur 4 sur le D850 (61000 électrons pour un codage 0..16383).
Cela revient en fait à laisser tomber les 2 bits de poids faibles de la conversion 16 bits décrite dans les puces ci-dessus.

C'est pourquoi un codage sur 16 bits nécessite, pour apporter autre chose que du bruit, des photosites de capacité 4 fois plus grande qu'un codage 14 bits.

Approche directe, par les mesures DXO
Les smartphones, compacts, m4/3, APS-C, 24x36, MF, ont des photosites de plus en plus gros (à pixellisation identique) et ont des performances (SNR, dynamique) croissantes.

En fait, ce n'est pas directement la surface des photosites qui compte, mais leur capacité. C'est pourquoi les plus gros photosites ne sont pas forcément les moins sensibles au bruit. Par exemple, si je compare les SNR (DXO mark) de 3 capteurs 24x36 classés par taille de photosite croissante:


  • Canon 5DSR: 50 Mpx,  capacité 34000 électrons,  SNR 44,7 dB
  • Nikon D850:   45 Mpx,  capacité 61000 électrons,  SNR 47,1 dB
  • Sony A7Riii:   42 Mpx,  capacité 54000 électrons,  SNR 46,5 dB

On voit que les SNR sont directement liés à la capacité des photosites, et non à leur surface: les plus gros photosites sont ceux de Sony, mais le D850 est légèrement devant en SNR.
Le 5DSR, avec ses photosites de capacité moitié moindre que ceux du D850 (malgré seulement 10% d'écart en surface) est loin derrière en SNR.

D'ailleurs, le SNR étant égal à: 20 log10 (signal/bruit), les SNR mesurés par DXO n'ont rien d'étonnant:
5DSR: capacité photosite 34000, donc bruit = racine(34000) = 184, donc rapport signal/bruit= 34000/184=184. En db= 20 log10(184)= 45, pour une mesure DXO de 44,7
D850: capacité photosite 61000, donc bruit = racine(61000) = 247, donc rapport signal/bruit= 61000/247=247. En db= 20 log10(247)= 47,8, pour une mesure DXO de 47,1

La capacité du photosite est donc le paramètre clé pour déterminer le bruit (et donc l'étendue de codage utile), tant qu'on n'est pas dans les signaux très faibles.

stringway

J'ai du mal à m'endormir si je ne peux pas compter les photons...  O0

Verso92

Citation de: Stepbystep le Septembre 24, 2019, 23:40:18
C'est comme lorsque tu convertis un signal audio en numérique, plus ta fréquence d'échantillonnage est élevée, plus la version numérique sera précise et fidèle.

Heu... non.

jenga

Citation de: Stepbystep le Septembre 25, 2019, 00:41:44
Pour une source lumineuse constante et régulière, le nombre de photons collectés pendant un même intervalle de temps n'est jamais le même et va varier de manière aléatoire autour d'une valeur moyenne.

Donc, on ne compte pas les photons.

Bien sûr que si, c'est le principe même de la photo numérique. L'utilisateur a besoin de récupérer des nombres représentant l'éclairement, donc la quantité de photons reçus. Les photons étant individuels et séparés les uns des autres, connaître leur quantité est du comptage.

A éclairage constant et spatialement homogène, produisant en moyenne N photons par photosite, le nombre de photons collectés fluctue avec un écart type= racine(N). Cela signifie que si N vaut par exemple 100 photons en moyenne, 68% des photosites  vont collecter entre 90 et 110 photons, les  32% restants vont collecter moins de 90 ou plus de 110 photons.

Le tension mesurée en sortie de photosite puis convertie en nombre 14 ou 16 bits est proportionnelle au nombre de photons collectés par le photosite, sinon la photo numérique ne serait pas possible. Par exemple, pour un D850, la valeur raw 8192 à sensibilité native indique que le photosite a accumulé 30500 électrons,  et a donc reçu 69300 photons (l'efficacité quantique étant 0.44 pour le D850).
Cela signifie que l'éclairement "réel" de ce photosite (hors bruit photonique) est à 68% de probabilité compris entre 69000 et 69600.

Donc, oui, on  compte les électrons, ce qui revient à compter les photons reçus en tenant compte du facteur d'efficacité quantique, et ce nombre est affecté d'un bruit d'origine physique, hors APN.

D'où la nécessité détaillée dans mon post précédent d'augmenter le nombre de photons collectés, donc la capacité des photosites, pour améliorer le rapport signal/bruit de façon cohérente avec l'augmentation du nombre de bits utilisés pour le codage.

jenga

#98
Citation de: Stepbystep le Septembre 24, 2019, 23:40:18
Précision, si on rajoute 2 bits, ce ne sont pas des bits de poids faible, mais bien de poids fort.
En fait, ça ne change rien.

(mais tu affirmais dans ton post #100 qu'ajouter des bits "permettra des dégradés plus fins", ce qui indiquait bien l'idée d'affiner le codage et donc d'ajouter des bits de poids faibles, et j'ai expliqué que cela nécessitait d'améliorer le rapport S/B photonique, donc d'augmenter la capacité des photosites)

Tu indiques maintenant que ce sont des bits de poids fort. D'accord, ça ne change rien comme indiqué plus haut.
Puisque les bits de poids 0 à 13 ne changent pas de signification, la valeur 16383 correspond toujours à 60000 électrons (cas du Z7), mais maintenant on peut compter jusqu'à 65535.
Pour que les valeurs allant de 16384 à 65535 soient atteintes, il faut donc multiplier par 4 la capacité du photosite, en passant de 60000 à 240000, ce que je dis depuis le début.

jenga

Citation de: stringway le Septembre 25, 2019, 02:02:22
J'ai du mal à m'endormir si je ne peux pas compter les photons...  O0
Du coup, tu t'endors après un temps aléatoire... Mais c'est mieux que les médocs.