équivalence ouverture et capteur

Démarré par rejelio, Octobre 03, 2018, 18:14:13

« précédent - suivant »

seba

Si à une distance deux fois plus grande tu perçois encore tous les détails d'une photo (à cause d'une excellente vue), c'est normal que la PdC apparente ne change pas.

Estimer la PdC : c'est sur l'image qui se forme sur la rétine qu'on estime la PdC, pas sur le tirage lui-même comme si on le voyait de tout près. L'oeil ne doit pas mesurer ce qui est net ou flou sur le tirage, mais sur ce qui paraît net ou flou sur la rétine.

A grande distance (relativement aux dimensions de l'image) ça a un sens bien sûr, par exemple dans mon bureau je vois de loin les photos de mes collègues qu'ils ont posées sur leurs bureaux.

Et, encore une fois, Zeiss par exemple explique de façon très claire comment les repères et les tables sont calculés (même si pour toi un extrait ne veut rien dire, mais rien ne t'empêche de lire le document en entier).

egtegt²

Citation de: seba le Octobre 18, 2018, 10:46:08
Tu es parti de quelle image ? Entière où on voit le mur ou les crops des rubans ?
J'ai essayé sur plusieurs chez moi, je cherchais justement un exemple pour illustrer le principe. En tout cas, sur écran ça ne fonctionne pas pour moi. Mais je vais continuer à tester :)

seba

Citation de: egtegt² le Octobre 18, 2018, 11:26:43
J'ai essayé sur plusieurs chez moi, je cherchais justement un exemple pour illustrer le principe. En tout cas, sur écran ça ne fonctionne pas pour moi. Mais je vais continuer à tester :)

A mon avis c'est mieux de partir de loin (pour voir tout net) et de s'approcher.
Comme ça on n'est pas influencé par ce qu'on a vu avant. Ca me paraît beaucoup plus objectif.

Franciscus Corvinus

Citation de: pichta84 le Octobre 18, 2018, 11:00:56
Je n'avais jamais pensé que j'avais une vision extraordinaire, parce que j'ai une amie qui lit les panneaux routiers à une distance encore plus grande que moi. Cependant, il est vrai que je les lis déjà de plus loin que la plupart des gens, et il est très rare que je rencontre quelqu'un qui admette que je distingues parfaitement les pixels des écrans, sauf si le DPI est trop élevé.

Penses-tu que cette "faculté" suffise à ne pas pouvoir observer les photos de la même façon. A mon avis, ça devrait juste changer la taille de la PdC perçue.
Il est vrai que lorsque je suis à très grande distance je perçois un changement plus important sur certaines photos (jamais du simple au double) mais j'estime qu'à ce moment là je ne suis plus en mesure d'estimer la PdC : je sais bien que quelque chose d'un peu flou, peut être perçu comme net à une grande distance, c'est dû à la résolution de l'œil, mais dans ce cas on sort des capacités de l'œil et donc sa "mesure" est fausse tout comme lorsqu'on utilise un outil de mesure inadapté (j'ai été cartographe je connais bien ce problème) mais dans bien des métiers on est confronté à ce genre de problème, un horloger n'utilise pas une balance de boucher et réciproquement ils leur seraient impossible de mesurer le poids des objets qu'ils ont à mesurer.

Autre problématique : à grande distance, ça n'a pas de sens, effectivement personne ne regarde les images d'aussi loin. De plus, sur des images à faible profondeur de champ, le flou d'arrière plan est si flou qu'il est impossible de voir apparaitre un détail quelque soit la distance de visualisation. Comme c'est le cas pour l'image de gauche avec des vis, ou comme il est impossible de voir apparaitre des traits sur la règle a plus de 6 ou 7 cm du plan de MaP, et de toute façon ils ne sont jamais nets.

Ne pas oublier que l'oeil (plus exactement le cerveau) fait du focus stacking a l'insu de notre plein gré, et peut le faire différemment suivant les individus. Essayer de le faire sur la projection 2D d'une scene 3D peut provoquer des perceptions de PdC réelle ou imaginée assez diverses.

pichta84

Citation de: Franciscus Corvinus le Octobre 18, 2018, 18:00:01
Ne pas oublier que l'oeil (plus exactement le cerveau) fait du focus stacking a l'insu de notre plein gré, et peut le faire différemment suivant les individus. Essayer de le faire sur la projection 2D d'une scene 3D peut provoquer des perceptions de PdC réelle ou imaginée assez diverses.

Ben mon cerveau ne doit pas être très imaginatif : en projection 3D je ne peux pas changer la PdC. Lorsque je me suis rendu compte que je ne pouvais pas faire le point où je voulais lors d'une projection, ça m'a beaucoup déçu. j'ai la sensation d'être conduit comme un enfant "tu regardes là et pas ailleurs, c'est flou"
Je n'avais pas l'habitude, en cartographie la vision stéréoscopique est nette sur tous le plans, mais parce que c'est plus facile pour travailler.

pichta84

Citation de: egtegt² le Octobre 18, 2018, 11:26:43
J'ai essayé sur plusieurs chez moi, je cherchais justement un exemple pour illustrer le principe. En tout cas, sur écran ça ne fonctionne pas pour moi. Mais je vais continuer à tester :)

Salut!
Sur mon écran qui est de bonne résolution, je constate que :
- C'est  plus que 2 fois la distance. De 40cm à 1,60m mesurés au cm près (soit 4 fois la distance) je vois toujours la même PdC sur l'image que j'ai proposée.
- J'estime cette PdC à 3cm environ et ce n'est pas loin de ce que donne : un calcule à la main, les exif du boitier et le calcul sur un site.

J'ai déjà, il y a fort longtemps, réalisé des expériences similaires en argentique avec des films spéciaux (10 ASA équivalent à 10 ISO aujourd'hui) pour avoir un grain super fin et avec des objectifs de grande qualité (y compris sur l'agrandisseur). J'avais le même genre de résultat. J'ai encore un vieux reflex équipé d'un viseur de grandissement proche de un, je peux donc m'en servir pour voir si la perception est la même en visée réelle ou une fois l'image vue sur écran ou imprimée. Du coup je ne pourrais rien prouver mais chacun peut faire sa propre expérience avec le matériel qu'il a à sa disposition.
Je peux faire la même chose avec mes APN, mais l'EVF n'a pas la précision des la visée reflex.

seba

Conclusion : on calcule la même profondeur de champ pour n'importe qul format de capteur.

egtegt²

Citation de: seba le Octobre 19, 2018, 11:01:17
Conclusion : on calcule la même profondeur de champ pour n'importe qul format de capteur.
La question serait plutôt : peut-on utiliser de façon indifférente le CdC calculé en fonction de la définition du support et le CdC calculé en fonction de la résolution de l'oeil en utilisant le plus gros des deux suivant la situation ?

J'ai l'impression qu'il y a une différence.

Ou alors il est possible que l'oeil fonctionne de façon différente pour différencier deux points et pour détecter du flou. Il est possible qu'on puisse détecter du flou avec une résolution meilleur que celle avec laquelle on peut distinguer deux points parfaitement nets.

seba

Citation de: egtegt² le Octobre 19, 2018, 11:08:50
La question serait plutôt : peut-on utiliser de façon indifférente le CdC calculé en fonction de la définition du support et le CdC calculé en fonction de la résolution de l'oeil en utilisant le plus gros des deux suivant la situation ?

J'ai l'impression qu'il y a une différence.

Ou alors il est possible que l'oeil fonctionne de façon différente pour différencier deux points et pour détecter du flou. Il est possible qu'on puisse détecter du flou avec une résolution meilleur que celle avec laquelle on peut distinguer deux points parfaitement nets.

Bon j'ai vraiment l'impression que tu découvres l'eau chaude.
Tout ça c'est décrit en long et en large dans tout bon bouquin, et en particulier dans le document Zeiss que j'ai donné en lien (certainement le topo le plus complet sur le sujet). L'as-tu lu ? J'imagine que non.
Je livre encore à ta rélfexion les tables de PdF publiées par Schneider, qui édite des tables pour différents formats.
Je te laisse en tirer les conclusions.

https://www.schneideroptics.com/info/depth_of_field_tables/index.htm

seba

#234
Et pichta84 a tout à fait raison.
La résolution de l'oeil, la distance de visualisation, tout ça c'est du pipeau. Ce qui est net c'est net, ce qui est flou c'est flou, pas besoin de comprendre plus.
Si les fabricants nous expliquent pourtant ça, c'est qu'il publient des informations fausses tout exprès pour qu'on ne découvre pas leur secret pour calculer les tables de PdC et graver les repères sur les objectifs, secret qu'ils tiennent à garder pour eux.
Mais pichta84 trouvera un jour par lui-même la vraie explication et nous en fera profiter.

egtegt²

Citation de: seba le Octobre 19, 2018, 11:18:22
Bon j'ai vraiment l'impression que tu découvres l'eau chaude.
Tout ça c'est décrit en long et en large dans tout bon bouquin, et en particulier dans le document Zeiss que j'ai donné en lien (certainement le topo le plus complet sur le sujet). L'as-tu lu ? J'imagine que non.
Je livre encore à ta rélfexion les tables de PdF publiées par Schneider, qui édite des tables pour différents formats.
Je te laisse en tirer les conclusions.

https://www.schneideroptics.com/info/depth_of_field_tables/index.htm
Je ne vois pas pourquoi tu prends tout d'un coup ce ton agressif. Et j'ai l'impression que tu n'as pas lu ce que j'ai écrit, contrairement à moi qu iai bien lu ton document.

Je n'ai rien affirmé pour commencer, et je me pose juste une question que je vais reformuler :
- Pour un appareil photo, si l'objectif est au niveau du capteur, pas le moindre doute : le CdC est la taille d'un pixel.
- Pour l'oeil, c'est plus délicat : peut-on vraiment affirmer que notre oeil peut distinguer exactement de la même façon :
   - deux points parfaitement nets
   - deux points flous

Ce que je veux dire, c'est qu'il est possible que nous soyons par exemple capable de distinguer deux points nets distants d'une minute d'angle, mais que nous soyons capable de détecter si un point est net ou flou avec un angle différent, potentiellement plus petit qu'une minute d'angle.

Je ne remet pas en cause la théorie, j'essaye juste de comprendre pourquoi elle ne colle pas très bien avec mes observations :
- Ma méthodologie est-elle mauvaise (ça me semble étonnant vu qu'il s'agit juste d'éloigner mon visage de l'écran, mais pourquoi pas ?)
- La théorie est-elle fausse (Elle me semble tellement évidente et elle est établie depuis si longtemps que ça me semble étonnant également)
- Y-aurait-il un biais dans la détermination du CdC de l'oeil, car les fabricants utilisent depuis des années les mêmes CdC apparemment sans trop se poser de questions.

Dans tout ce qui précéde, l'élément le plus délicat me semble être le CdC de l'oeil, c'est pour ça que je me pose la question à son sujet. Il ne faut pas oublier que notre regard est bien plus complexe qu'un appareil photo en celà qu'il passe par le filtre de l'interprétation de notre cerveau. L'exemple le plus évident de ça est notre capacité à ajuster la balance des blancs de façon inconsciente ou de voir une dynamique bien supérieure à celle que nous pouvons la voir en un seul regard. Donc rien ne dit que nous ne sommes pas capable de voir certains éléments avec une résolution dépendant de ce qu'on regarde.

seba

Citation de: egtegt² le Octobre 19, 2018, 11:45:41
Je ne vois pas pourquoi tu prends tout d'un coup ce ton agressif. Et j'ai l'impression que tu n'as pas lu ce que j'ai écrit, contrairement à moi qu iai bien lu ton document.

Je n'ai rien affirmé pour commencer, et je me pose juste une question que je vais reformuler :
- Pour un appareil photo, si l'objectif est au niveau du capteur, pas le moindre doute : le CdC est la taille d'un pixel.
- Pour l'oeil, c'est plus délicat : peut-on vraiment affirmer que notre oeil peut distinguer exactement de la même façon :
   - deux points parfaitement nets
   - deux points flous

Ce que je veux dire, c'est qu'il est possible que nous soyons par exemple capable de distinguer deux points nets distants d'une minute d'angle, mais que nous soyons capable de détecter si un point est net ou flou avec un angle différent, potentiellement plus petit qu'une minute d'angle.

Je ne remet pas en cause la théorie, j'essaye juste de comprendre pourquoi elle ne colle pas très bien avec mes observations :
- Ma méthodologie est-elle mauvaise (ça me semble étonnant vu qu'il s'agit juste d'éloigner mon visage de l'écran, mais pourquoi pas ?)
- La théorie est-elle fausse (Elle me semble tellement évidente et elle est établie depuis si longtemps que ça me semble étonnant également)
- Y-aurait-il un biais dans la détermination du CdC de l'oeil, car les fabricants utilisent depuis des années les mêmes CdC apparemment sans trop se poser de questions.

Dans tout ce qui précéde, l'élément le plus délicat me semble être le CdC de l'oeil, c'est pour ça que je me pose la question à son sujet. Il ne faut pas oublier que notre regard est bien plus complexe qu'un appareil photo en celà qu'il passe par le filtre de l'interprétation de notre cerveau. L'exemple le plus évident de ça est notre capacité à ajuster la balance des blancs de façon inconsciente ou de voir une dynamique bien supérieure à celle que nous pouvons la voir en un seul regard. Donc rien ne dit que nous ne sommes pas capable de voir certains éléments avec une résolution dépendant de ce qu'on regarde.

Bon si tu l'as lu OK. Et j'ai bien lu ton post.
Pour le CdC au niveau du capteur, là aussi la question est débattue, faut-il prendre 1,5 pixels, ou 2 pixels, etc.

Pour ce qui est du CdC choisi par les fabricants, je ne cherche pas à savoir si c'est judicieux ou pas, mais j'ai simplement expliqué d'où ça vient. OK il me semble que tu as compris, et que pichta84 toujours rien.

Et pour ce qui est de tes tests, je n'en sais rien, il faudrait affiner. Note que les calculs de PdC font appel à des hypothèses "idéales" pour l'objectif et "à la louche" pour ce qui est de la résolution de l'oeil. Et aussi que la PdC réelle est parfois assez éloignée des calculs à cause des aberrations qui font qu'un objectif peut s'écarte beaucoup des hypothèses "idéales". Et également que si on fait des tests, il faut déjà qu'à la distance la plus proche la résolution de l'image soit déjà supérieure à celle de l'oeil.
Moi aussi j'ai affiché des photos sur un mur, je suis parti de loin, puis je me rapproche, et bien au départ sur l'oeil tout semble net et petit à petit, en se rapprochant, on arrive à discerner ce qui manque de netteté.

philooo

Citation de: egtegt² le Octobre 19, 2018, 11:45:41peut-on vraiment affirmer que notre oeil peut distinguer exactement de la même façon :
   - deux points parfaitement nets
   - deux points flous

Ce que je veux dire, c'est qu'il est possible que nous soyons par exemple capable de distinguer deux points nets distants d'une minute d'angle, mais que nous soyons capable de détecter si un point est net ou flou avec un angle différent, potentiellement plus petit qu'une minute d'angle.
Pour parler de netteté, il faut deux points : si on les distingue c'est net, si on ne les distingue pas c'est flou.

Et donc "un point net" ça n'existe pas.

seba

Le critère du CdC est le suivant : on arrive à faire la différence entre une tache et un point.
Et pas à distinguer deux points.

egtegt²

#239
Citation de: philooo le Octobre 19, 2018, 12:12:43
Pour parler de netteté, il faut deux points : si on les distingue c'est net, si on ne les distingue pas c'est flou.

Et donc "un point net" ça n'existe pas.
Je me suis mal expliqué : on ne peut pas voir un point par définition de taille nulle, ce qu'on voit, c'est une tache de petite taille. Cette tache peut avoir un contour net ou un contour flou.
Mon interrogation est la suivante : si je suis à une distance à laquelle je ne peux pas distinguer deux points nets l'un de l'autre, est-ce que je ne pourrais pas à cette distance être néanmoins capable de distinguer si une de ces taches a un contour net ou un contour flou ?

Si j'applique ça au cas d'une photo, en général la netteté est définie par la qualité des frontières entre deux surfaces de couleur différente. Soit j'ai un trait bien net, soit j'ai un passage progressif d'une couleur à l'autre. Dans le premier cas, c'est net, dans l'autre cas c'est flou.
Quand il s'agit d'une image numérique , il y a déjà une limite simple : Une ligne composée de pixels adjacents de couleur différente ne peut être que nette. Commencer à avoir du flou implique une frontière qui s'étend sur au moins 3 pixels de large. Donc si on observe une image numérique à une distance telle qu'on peut distinguer les pixels, la notion de netteté devient difficile à définir.

Le pouvoir de résolution de l'oeil est défini comme sa capacité à voir deux taches trés proches comme distinctes.

Dans le cas d'une photo couleur, la notion de flou devient délicate. Par exemple la séparation d'une surface bleue et d'une surface rouge donnera s'il y a du flou une ligne violette entre les deux (en fait un dégradé du bleu au rouge). La capacité de notre oeil à distinguer cette partie violette est-elle la même que notre capacité à distinguer l'épaisseur de cette ligne ?

Pour ça, il y a un test qui pourrait être probant : faire cette analyse en noir et blanc, mais on est en droit de se demander à nouveau si notre capacité à détecter du gris entre les deux surfaces est la même que le pouvoir de résolution de notre oeil.

Dit d'une autre façon car c'est assez complexe à expliquer en français : si mon oeil n'est capable de distinguer deux lignes (ou deux taches) que si la distance entre elles est par exemple supérieure à 1/100 de mm, est-ce qu'il serait capable de distinguer une ligne violette entre deux surfaces rouges et bleues d'une taille bien inférieure à 1/100 mm ? et si oui, serait-il capable également de distinguer une ligne grise d'une taille bien inférieure à 1/100 mm ?

Edit : un petit élément de réflexion : regarder comment fonctionne un algorithme anti aliasing, en ajoutant du flou au niveau pixel, le résultat est une image plus nette à taille de visualisation normale

egtegt²

Tiens ! Jean-Claude est d'accord avec moi ... mais ne le lui dites pas ;) Je le cite parce que son exemple est une bonne illustration du fait que le pouvoir de différenciation de l'oeil n'est pas une valeur constante et uniforme, contrairement à un capteur d'APN.
https://www.chassimages.com/forum/index.php/topic,289414.msg6935083.html#msg6935083

seba

Citation de: egtegt² le Octobre 19, 2018, 14:06:30
Tiens ! Jean-Claude est d'accord avec moi ... mais ne le lui dites pas ;) Je le cite parce que son exemple est une bonne illustration du fait que le pouvoir de différenciation de l'oeil n'est pas une valeur constante et uniforme, contrairement à un capteur d'APN.
https://www.chassimages.com/forum/index.php/topic,289414.msg6935083.html#msg6935083

Dans le post de Jean-Claude, il est question de perception.
Percevoir un point ou une ligne clairs sur un fond noir, ou un point ou une ligne noirs sur un fond clairs, tout ça a fait l'objet d'expérimentations depuis longtemps.
Et perception n'est ni résolution ni différenciation point/tache.

dioptre

Citation de: seba le Octobre 19, 2018, 17:01:20
Dans le post de Jean-Claude, il est question de perception.
Percevoir un point ou une ligne clairs sur un fond noir, ou un point ou une ligne noirs sur un fond clairs, tout ça a fait l'objet d'expérimentations depuis longtemps.
Et perception n'est ni résolution ni différenciation point/tache.

C'est très bien expliqué par un spécialiste de l'oeil :
https://www.gatinel.com/recherche-formation/acuite-visuelle-definition/acuite-visuelle-resolution-et-pouvoir-separateur-de-loeil/

Entre autre suite à la question d'un lecteur :
...quel est le diamètre du plus petit cercle noir sur fond blanc, sous éclairage excellent, qu'un œil nu en bonne santé, avec une acuité de 10/10, est en mesure de voir, en observation attentive, à distance optimale ?
.....

Dr Damien Gatinel dit :
15 SEPTEMBRE 2015 À 17 H 29 MIN
.... La réponse à votre question n'est pas simple. La détection d'un motif quelconque sur un fond uniforme fait appel à l'acuité visuelle de détection, et non au pouvoir de résolution. L'acuité visuelle de détection de l'oeil humain est supérieure à l'acuité visuelle de « séparation ». Il est plus facile de distinguer un « motif unique », même très fin, sur fond uniforme, que de séparer deux points ou deux traits faiblement espacés. L'acuité visuelle de détection est de l'ordre de quelques secondes d'arc (une seconde d'arc = PI/180/3600 en radians). Avec une correction optimale, si l'on admet que la détection est possible pour une taille apparente de 10 secondes d'arc dans d'excellentes conditions, il suffit de multiplier le chiffre précédent par 10 (soit environ 0.00005) et par la distance d'observation (ex : 30 cm) pour obtenir une dimension de l'ordre de 0.0015 cm soit 15 microns.


Cette question a été soulevée à propos d'un fil électrique sur un fond de ciel que la question de l'acuité visuelle comme on l'entend habituellement n'aurait pas du permettre de voir !

seba

Bien sûr. Quand JC raconte que l'oeil voit plus que ce qui est publié dans les publications biomédicales, c'est tout simplement que ces données il ne les connaît pas.
Une donnée biomédicale, en voilà une, et c'est tout à fait en accord avec ce qu'il a observé.

Et soi dit en passant, c'est pareil pour un APN.
La perception d'un point ou ligne clair ou sombre est bien supérieure à la limite de résolution.

egtegt²

En tout cas, de mon point de vue, ce fait suffit à expliquer pourquoi la perception qu'on a du flou et de la PdC n'arrive pas à être parfaitement expliquée par le CdC donné par le pouvoir de séparation de l'oeil. Car à mon avis, la perception du flou dépend également de l'acuité de détection qui est est largement supérieure si je comprend bien.

Car en fin de compte, contrairement à un capteur photographique qui en gros enregistre tout de la même façon, l'oeil lui réagit différemment en fonction de ce qu'il regarde. C'est à mon avis à rapprocher du fait qu'on voit différemment un objet en mouvement et un objet fixe.

De manière similaire, il me semble que nous sommes capables de voir dans le noir un point lumineux extrêmement petit.

seba

Citation de: egtegt² le Octobre 19, 2018, 23:23:24
De manière similaire, il me semble que nous sommes capables de voir dans le noir un point lumineux extrêmement petit.

Un appareil photo non ?

pichta84

Citation de: seba le Octobre 19, 2018, 23:25:01
Un appareil photo non ?

Ben si, parce que sinon ça serait galère pour les astronome amateur.

Citation de: egtegt² le Octobre 19, 2018, 13:45:15
Dans le cas d'une photo couleur, la notion de flou devient délicate. Par exemple la séparation d'une surface bleue et d'une surface rouge donnera s'il y a du flou une ligne violette entre les deux (en fait un dégradé du bleu au rouge). La capacité de notre oeil à distinguer cette partie violette est-elle la même que notre capacité à distinguer l'épaisseur de cette ligne ?

Pour info : ça ne se passe pas exactement comme ça. Toute lumière qui passe par un système optique subie des transformations (généralement dites de Fourier pour les spécialistes). Bref, même avec une image en N&B, la zone de transition floue ne présente pas une successions de gris, mais des bandes alternées noires et blanches un peu floues. Pour voir à quoi ça ressemble, taper "frange d'interférence" sur ton ami googol. Si la lumière utilisée est blanche, on peut voir des irisation du au fait que la largeur des franges varie avec la couleur (ou la longueur d'onde).
   
 
Citation de: seba le Octobre 19, 2018, 11:23:16
Et pichta84 a tout à fait raison.
La résolution de l'oeil, la distance de visualisation, tout ça c'est du pipeau. Ce qui est net c'est net, ce qui est flou c'est flou, pas besoin de comprendre plus.
Si les fabricants nous expliquent pourtant ça, c'est qu'il publient des informations fausses tout exprès pour qu'on ne découvre pas leur secret pour calculer les tables de PdC et graver les repères sur les objectifs, secret qu'ils tiennent à garder pour eux.
Mais pichta84 trouvera un jour par lui-même la vraie explication et nous en fera profiter.

Moi je ne cherche pas à expliquer quoi que ce soit, je me contente de regarder et mesurer (ou estimer une longueur) c'est tout.
Encore une fois, regarde l'image M7310041d.jpg  que j'ai proposée en page 9, à 1,60m en premier, puis à 40cm et donne la PdC que tu perçois ans chaque cas.
Après on pourra peut être discuter.

egtegt²

Citation de: seba le Octobre 19, 2018, 23:25:01
Un appareil photo non ?
Pas de la même façon. Que ça soit un point lumineux très petit ou un point noir sur feuille blanche en plein jour, ça ne descendra jamais en dessous de la taille d'un pixel. On pourrait dire que notre oeil a une taille de pixel différente en fonction de ce qu'il regarde.

seba

#248
Citation de: pichta84 le Octobre 19, 2018, 23:43:50
Moi je ne cherche pas à expliquer quoi que ce soit, je me contente de regarder et mesurer (ou estimer une longueur) c'est tout.
Encore une fois, regarde l'image M7310041d.jpg  que j'ai proposée en page 9, à 1,60m en premier, puis à 40cm et donne la PdC que tu perçois ans chaque cas.
Après on pourra peut être discuter.

Mais si, tu te demandes depuis des années pourquoi les fabricants prennent tel ou tel CdC.

Ton image en page 9 est tellement peu définie qu'à 40cm rien ne semble net et à partir de 1 mètre on peut commencer l'expérience. Donc à 1 mètre grosso modo PdC apparente environ 4 à 5 cm et à 4 mètres environ 20 cm. Je parle de l'image où on voit le mur.

seba

Citation de: egtegt² le Octobre 19, 2018, 23:44:08
Pas de la même façon. Que ça soit un point lumineux très petit ou un point noir sur feuille blanche en plein jour, ça ne descendra jamais en dessous de la taille d'un pixel. On pourrait dire que notre oeil a une taille de pixel différente en fonction de ce qu'il regarde.

Bien sûr que si. Pour un point lumineux comme une étoile, aucun souci, pour un point noir, même si l'image est plus petite qu'un pixel, à cet endroit l'image sera quand même plus sombre.