Forum Chasseur d'Images - www.chassimages.com

[ Forum MATERIEL ] => Forum NIKON reflex => Discussion démarrée par: Sebmansoros le février 26, 2020, 13:26:29

Titre: Des rumeurs!
Posté par: Sebmansoros le février 26, 2020, 13:26:29
Nikon Z8 et D880 devraient fonctionner avec un capteur Sony IMX455 60MP
Récemment, Canon a annoncé le développement d'un appareil photo sans miroir plein format haut de gamme EOS R5 . Alors, quelle est la prochaine étape de Nikon? Selon les dernières rumeurs, Nikon aurait également annoncé cette année un nouvel appareil photo sans miroir plein format haut de gamme / professionnel à monture Z.

Le nom de cet appareil photo sans miroir plein cadre haut de gamme / professionnel pourrait être nommé Nikon Z8 , qui fait déjà l'objet de rumeurs depuis longtemps. Le Nikon Z8 sera probablement équipé du capteur 60MP IMX455 de Sony a7R IV et sera doté de deux emplacements pour cartes CFexpress, d'une poignée verticale et plus cher que Nikon Z6 & Z7 . La date de sortie de cette caméra est attendue en 2020.

Et le prochain Nikon D880 (remplacement du D850 ) devrait arriver après le Z8, peut-être en 2021. Le D880 sera également équipé d'un capteur 60MP IMX455 de Sony a7R IV .
Titre: Re : Des rumeurs!
Posté par: Alain Clément le février 26, 2020, 13:50:56
et le D550 a 30mPX pour quand ... ;)
Titre: Re : Des rumeurs!
Posté par: Col Hanzaplast le février 26, 2020, 15:54:34
Des nouvelles du D400 ?    (https://forum-images.hardware.fr/images/perso/talen.gif)
Titre: Re : Re : Des rumeurs!
Posté par: Buzzz le février 26, 2020, 16:15:55
Des nouvelles du D400 ?    (https://forum-images.hardware.fr/images/perso/talen.gif)
Il est pas prévu en même temps que le D710 celui là ?

 ;D ;D ;D

Buzzz
Titre: Re : Re : Des rumeurs!
Posté par: JMS le février 26, 2020, 16:23:29
et le D550 a 30mPX pour quand ... ;)

Si c'est un capteur 61 Mpxl Sony croppé ce sera 26 Mpxl pour le D501 ! (souvenirs, souvenirs ! premier AF amateur Nikon F501)
Titre: Re : Des rumeurs!
Posté par: JMS le février 26, 2020, 16:32:34
Et le prochain Nikon D880 (remplacement du D850 ) devrait arriver après le Z8, peut-être en 2021. Le D880 sera également équipé d'un capteur 60MP IMX455 de Sony a7R IV .

Ce sera génial pour démoder d'un coup quasiment tous les zooms monture F GA et transtandard ! Seul le 14-24 de 2007 survivrait...peut-être  ;)
Titre: Re : Des rumeurs!
Posté par: bballande le février 26, 2020, 16:46:03
Et dire que 12 Mpix suffisent dans 90% des cas ...si ce n'est plus ... ^^

Titre: Re : Re : Des rumeurs!
Posté par: bballande le février 26, 2020, 16:56:26
tout à fait, et au delà de 16, ça ne sert à rien....

;D

Bah on y trouve des usages, c'est pratique pour cropper etc ... je suis d'accord ... Ou pour faire des tirages sur des murs d'immeubles ...à la rigueur ... Mais qui a besoin, vraiment BESOIN de 60 mpix ?
Titre: Re : Des rumeurs!
Posté par: jaric le février 26, 2020, 17:09:03
Et accessoirement cela permet de vendre des objectifs ultra définis, donc bien chers...
Titre: Re : Re : Des rumeurs!
Posté par: Alain Clément le février 26, 2020, 17:24:49
Ceux qui apprécient de se promener dans leurs images en zoomant à fond ;)

à condition d'avoir une optique de course sinon c'est dans le brouillard que tu te ballader  ;D
Titre: Re : Re : Des rumeurs!
Posté par: Sebmansoros le février 26, 2020, 17:27:58
Et dire que 12 Mpix suffisent dans 90% des cas ...si ce n'est plus ... ^^

Oui mais reste 10% hé, hé.
Et puis pour faire suite à un autre fil, avec 60MP on cadre toujours en horizontal et on recadre en vertical avec suffisamment de pixels. Plus besoin de grip. Elle est pas belle la vie. :D :D :D
Titre: Re : Des rumeurs!
Posté par: Sebmansoros le février 26, 2020, 17:32:27
Je pensais  que si un objectif était très bon avec 12MP, il ne serait pas plus mauvais avec 45MP et bientôt 60MP. Ou alors j'ai mal compris. :o
Titre: Re : Re : Des rumeurs!
Posté par: Sebmansoros le février 26, 2020, 17:40:20
Oui, à taille égale...;)

Bien entendu! :)
Titre: Re : Des rumeurs!
Posté par: Fred_G le février 26, 2020, 17:41:26
Tu n'as pas mal compris. Mais ce n'est pas parce qu'un vieux clou est meilleur sur un capteur de 60 Mpix que sur un de 12 qu'il l'exploite comme un objectif de course.

Donc si tu as vraiment besoin des 60 Mpix, pas d'autre choix que d'avoir ce qui se fait de mieux.
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 17:42:01
Et dire que 12 Mpix suffisent dans 90% des cas ...si ce n'est plus ... ^^

12 MPixels, c'est déjà deux fois trop...
Titre: Re : Des rumeurs!
Posté par: --Eric-- le février 26, 2020, 17:50:16
Chouette le prix du 850 va baisser !!! ;D
Titre: Re : Des rumeurs!
Posté par: al646 le février 26, 2020, 18:17:11
Mince, 60 MP... la diffraction apparaitra dès f/6.3, j'espère que pour le FF, les constructeurs vont s'arrêter vers les 100 MP, si on ne peut pas fermer plus qu'à f/4 pour profiter de la super résolution du capteur, cela ne servira qu'aux portraitistes ;)
Titre: Re : Re : Re : Des rumeurs!
Posté par: 77mm le février 26, 2020, 18:18:38
Bah on y trouve des usages, c'est pratique pour cropper etc ... je suis d'accord ... Ou pour faire des tirages sur des murs d'immeubles ...à la rigueur ... Mais qui a besoin, vraiment BESOIN de 60 mpix ?

Le photographe qui fait un peu de tout est certainement mieux loti avec un 24-36 mpix de nos jours. C’est suffisant en général et autorise une montée en sensibilité correcte.
Titre: Re : Re : Des rumeurs!
Posté par: JMS le février 26, 2020, 18:22:06
Ceux qui apprécient de se promener dans leurs images en zoomant à fond ;)

C'est évidemment ceux qui apprécient de zoomer à fond dans leurs images qui mettront à la poubelle leurs zooms F transstandard sur un capteur 61 Mpxl...mais il y aura-t-il un jour une nouvelle génération de zooms F ?

Sinon comme dit Verso 12 Mpxl c'est déjà trop selon la vieille règle Kodak du 254 dpi : 6 Mpxl suffisent pour faire un tirage de taille infinie si on regarde avec des yeux dans la bonne moyenne  l'image à une distance équivalente à la diagonale du tirage, soit 36 cm pour un A4. Ce que quasiment plus personne ne fait...la règle date du siècle dernier quand le Kodak DCS 760 6 Mpxl était "state of the Art"...
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 18:22:18
Mince, 60 MP... la diffraction apparaitra dès f/6.3 [...]

Le diffraction est liée à la nature ondulatoire de la lumière, et ne dépend pas de la définition du capteur.
Titre: Re : Re : Des rumeurs!
Posté par: 55micro le février 26, 2020, 19:00:17
Si cette rumeur se confirme, cela renforcera pour moi ma confiance dans la pérennité des mes investissements en monture Z.

Je ne vois pas pourquoi.

"Juste avant sa mort, il était toujours vivant."  :D
Titre: Re : Re : Des rumeurs!
Posté par: al646 le février 26, 2020, 19:09:09
Oui, mais au final, la diffraction va limiter la resolution de l'image capturée, si la tache due à la diffraction recouvre des pixels adjacents, la résolution de l'image va diminuer et avec un capteur de 60 MP à par ex f/8, l'image ne contiendra que l'information qu'un capteur de 40 MP aurait capturé (chiffres fournis pour exemple mais pas vérifiés)

Le diffraction est liée à la nature ondulatoire de la lumière, et ne dépend pas de la définition du capteur.
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 19:23:21
Oui, mais au final, la diffraction va limiter la resolution de l'image capturée, si la tache due à la diffraction recouvre des pixels adjacents, la résolution de l'image va diminuer et avec un capteur de 60 MP à par ex f/8, l'image ne contiendra que l'information qu'un capteur de 40 MP aurait capturé (chiffres fournis pour exemple mais pas vérifiés)

C'est juste le fait d'agrandir encore plus l'image qui fait qu'on voit mieux les défauts (et non pas que les défauts augmentent intrinsèquement)...  ;-)

https://www.chassimages.com/forum/index.php/topic,288810.msg7185009.html#msg7185009
Titre: Re : Re : Des rumeurs!
Posté par: al646 le février 26, 2020, 19:38:09
Je n'ai pas dis que les défauts augmentaient, la diffraction fait perdre de l'information dans l'image, et plus on ferme, plus on perd d'information, de ce fait, un capteur de 60 mp va à une certaine ouverture ne plus enregister que par ex 45 mp, si on ferme encore, ce sera par ex 36 mp, du coup, pour un paysagiste, un capteur de 60 mp ne donnera pas une image plus détaillée que par ex un capteur de 36 mp, voir 24 mp, mais l'image n'aura pas plus de défauts, c'est juste que le supplément de résolution ne donnera pas plus de détail.
Il est clair qu'une image d'un ciel uniformément bleu (si cela existait bien entendu) ne contient quasi pas d'information (en exagérant, un capteur d'un seul pixel suffirait à la capturer), Prenons le cas d'une image avec énorment d'information: une grille de petits carrés ayant des couleurs très différentes et supposons que la photo soit prise de tellle sorte que chaque carré soit projeté sur exactement un pixel du capteur. La diffraction sera très marquée dès que la tache floue couvrira plus de 2 pixels, en effet, si un carré rouge est juste à côté d'un carré bleu, la tache floue du carré rouge couvrira le pixel du capteur destine au carré bleu et réciproquement. Du coup, les niveaux RVB mesurés par le capteur vont varier et les résultats seront faussés.
Une image avec beaucoup de transitions, contenant beaucoup d'information sera très affectée par la diffraction et en visionnant l'image à 100%, cela ne sera pas net, le renfort du contraste pourra aider, mais l'image finale ne comportera pas autant d'information (perte de résolution) que le sujet original. C'est un peu comme si on devait dessiner des lignes adjacentes avec une plume à l'encre rouge et à l'encre bleue sur un buvard... et c'est exactmeent ce que tes photos montrent.

C'est juste le fait d'agrandir encore plus l'image qui fait qu'on voit mieux les défauts (et non pas que les défauts augmentent intrinsèquement)...  ;-)

https://www.chassimages.com/forum/index.php/topic,288810.msg7185009.html#msg7185009
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 19:46:45
Je n'ai pas dis que les défauts augmentaient, la diffraction fait perdre de l'information dans l'image, et plus on ferme, plus on perd d'information, de ce fait, un capteur de 60 mp va à une certaine ouverture ne plus enregister que par ex 45 mp, si on ferme encore, ce sera par ex 36 mp, du coup, pour un paysagiste, un capteur de 60 mp ne donnera pas une image plus détaillée que par ex un capteur de 36 mp, voir 24 mp, mais l'image n'aura pas plus de défauts, c'est juste que le supplément de résolution ne donnera pas plus de détail.

Sans doute... mais tu peux constater, sur les crops 100% postés ci-dessus (développement par défaut sous Capture One), que l'image délivrée par le D850 ne souffre pas trop jusqu'à f/11 environ.

Le passage de 45 MPixels à 60 MPixels (+15%) est suffisamment anecdotique pour que le résultat final ne soit pas significativement différent, n'est-ce pas ?
Titre: Re : Re : Des rumeurs!
Posté par: al646 le février 26, 2020, 19:49:26
En fait, à partir d'une certaine ouverture, le résultat en 45 ou 60 MP sera le même ;)
Sans doute... mais tu peux constater, sur les crops 100% postés ci-dessus (développement par défaut sous Capture One), que l'image délivrée par le D850 ne souffre pas trop jusqu'à f/11 environ.

Le passage de 45 MPixels à 60 MPixels est suffisamment anecdotique pour que le résultat final ne soit pas significativement différent, n'est-ce pas ?
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 19:50:58
En fait, à partir d'une certaine ouverture, le résultat en 45 ou 60 MP sera le même ;)

Oui, vraisemblablement.
Titre: Re : Re : Des rumeurs!
Posté par: Alain Clément le février 26, 2020, 19:59:07
Si cette rumeur se confirme, cela renforcera pour moi ma confiance dans la pérennité des mes investissements en monture Z.
Toutefois, la rumeur ne précise pas si le premier boitier à sortir sera dans la gamme Z ou D.

Comme je change mes boitiers tous les 5-7 ans, je vais continuer à exploiter mon Z6 encore 3 ans et demi au minimum. Le firmware lui 3.0 a redonné un coup de lifting sur l'ergonomie et la performance, cela continuera avec de futurs Z. Ma chaine de production photo/vidéo informatique pourra évoluer tranquillement pour accueillir plus de pixels.
Je comprends les utilisateurs du D850 qui attendent aussi des améliorations du micro code mais je crois que la priorité de Nikon est de rester dans la course face à Canon.

Le choix, Z8 ou D880 et leur ordre de sortie va être important. 

Humour on :
J'aurais pensé que Nikon allait mettre 4 emplacements de carte ... 2XQD/Cfe, 1 SD, 1 CF pour satisfaire tout le monde coté sécurité/prix/existant et 2 poignées pour droitiers et gauchers.
Humour off.

hé pierock avec 60MPX tes modèles ont interet a etre bien épilé hein .... ;D
Titre: Re : Re : Re : Des rumeurs!
Posté par: doppelganger le février 26, 2020, 20:10:45
Je ne vois pas pourquoi.

"Juste avant sa mort, il était toujours vivant."  :D

"Je vais bien", qui disait  :D
Titre: Re : Re : Des rumeurs!
Posté par: al646 le février 26, 2020, 20:11:54
On est bien d'accord, je voulais juste souligner que le but de passer à un capteur plus pixelisé, par ex de 45 à 60 MP, c'est d'avoir plus d'information dans l'image, autrement dit, plus de détails, sinon, autant faire un rééchantillonage en photoshop pour passer de 45 à 60 MP sans ajouter d'information. Mais pour le format FF, la diffraction commence à limiter l'intérêt de monter en résolution, excepté aux grandes ouvertures: un portraitiste ou un animalier sera content d'avoir d'avoir plus de détails dans le plumage d'une photo prise à f/2.8 ou f/4 et/ou d'avoir plus de marge pour cropper, par contre, un paysagiste ne verra plus aucune différence et s'il veut monter encore en résolution, il devra alors passer à un format plus grand.

Oui, vraisemblablement.
Titre: Re : Re : Des rumeurs!
Posté par: big jim le février 26, 2020, 20:12:02
Le diffraction est liée à la nature ondulatoire de la lumière, et ne dépend pas de la définition du capteur.

Effectivement, mais c'est juste un raccourci pour dire que l'on ne pourra pas exploiter toute la définition du capteur en étant plus fermé que f/6.3, non ?

Edit : je n'avais été à la page 2 de la discussion, je vois que le débat fait rage  ;)  Bon, pour le f/6.3, pas fait le calcul moi-même, et comme d'hab, il faut aussi tenir compte des autres facteurs qui ne permettront pas de tirer tous le jus du capteur...
Titre: Re : Des rumeurs!
Posté par: ergodea le février 26, 2020, 20:13:33
Les sources?

https://nikonrumors.com/2020/02/25/nikon-z8-and-nikon-d850-replacement-rumored-to-have-a-60mp-sensor.aspx/

Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 20:16:20
Effectivement, mais c'est juste un raccourci pour dire que l'on ne pourra pas exploiter toute la définition du capteur en étant plus fermé que f/6.3, non ?

Je ne me prononcerai pas sur la valeur "f/6.3".


Après, ne pas perdre de vue qu'il n'y a pas forcément bijection entre définition du capteur et courbes FTM de l'objectif...
Titre: Re : Re : Des rumeurs!
Posté par: ergodea le février 26, 2020, 20:16:42
Si cette rumeur se confirme, cela renforcera pour moi ma confiance dans la pérennité des mes investissements en monture Z.

C'est bizarre comme logique...Evidemment que les z sont emmenés à durer...avec ou sans rumeur
Titre: Re : Des rumeurs!
Posté par: ergodea le février 26, 2020, 20:18:14
d880 : "maybe in 2021"
"Nikon D850 replacement is not expected in 2020, maybe in 2021

Read more: https://nikonrumors.com/2020/02/25/nikon-z8-and-nikon-d850-replacement-rumored-to-have-a-60mp-sensor.aspx/#ixzz6F5bq1sd6
"
Titre: Re : Re : Re : Des rumeurs!
Posté par: al646 le février 26, 2020, 20:26:35
Voici la formule qui permet de calculer le diamètre de la tâche floue due à la diffraction:
D = 2.44 x l x A (avec l = longueur d'onde et A = ouverture de l'objectif)
Pour une longeur d'onde de 0.54 µm, la diffraction apparaitra à partir d'une ouverture de f/6.3

Effectivement, mais c'est juste un raccourci pour dire que l'on ne pourra pas exploiter toute la définition du capteur en étant plus fermé que f/6.3, non ?

Edit : je n'avais été à la page 2 de la discussion, je vois que le débat fait rage  ;)  Bon, pour le f/6.3, pas fait le calcul moi-même, et comme d'hab, il faut aussi tenir compte des autres facteurs qui ne permettront pas de tirer tous le jus du capteur...
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: ergodea le février 26, 2020, 20:27:59
Ce n'était pas évident pour moi quand j'ai acheté le Z, il y a 1 an et demi comme je l'ai expliqué plus haut.

Ah oui! Il y a un an et demi on pouvait effectivement avoir des incertitudes mais là franchement je n'ai plus aucun doute. Ils ont eu sans doute beaucoup de mal à démarrer, du mal à trouver leur place mais là ils sont bien engagés...En espérant que Nikon soit plus réactif sur les maj . et qu'il investisse davantage dans le développement de ses z. D'ailleurs si la rumeur prévoit la sortie d'un z bien avant le successeur d'un d880, pour moi, ce n'est pas pour rien
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 20:29:44
Voici la formule qui permet de calculer le diamètre de la tâche floue due à la diffraction:
D = 2.44 x l x A (avec l = longueur d'onde et A = ouverture de l'objectif)
Pour une longeur d'onde de 0.54 µm, la diffraction apparaitra à partir d'une ouverture de f/6.3

En faisant ce calcul, tu n'abordes le problème que sur un axe*...


*pour prendre un exemple concret, l'augmentation de la définition diminuera de façon "mécanique" les effets néfastes de la matrice de Bayer/du dématriçage (mais je n'ai pas de formule sous la main, désolé !  ;-).
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: Alain Clément le février 26, 2020, 20:30:57
;D ;D
Je vais changer et photographier des bêtes à poils et à plumes comme toi ;)
N'empêche que je viens de faire imprimer une série de 10 photos en 85x60cm chez PICTO depuis mes 24Mpx et je suis hyper content du résultat.  C'était suite à une commande, je vais voir si l'acheteur aurait aimé plus de détails mais sur des portraits, je n'en veux pas plus pour le moment.
(Si je faisais de la photo dites "beauté" pour la cosmétique ou pour un chirurgien, je reverrais peut être mon besoin mais ce n'est pas mon truc aujourd'hui)

pareil , pas besoin de 60Mpx ou alors il faudrait le 500mm qui les " passent " correctement ...mais a quel prix  :o :o :o
Titre: Re : Re : Des rumeurs!
Posté par: ergodea le février 26, 2020, 20:33:21
C'est juste le fait d'agrandir encore plus l'image qui fait qu'on voit mieux les défauts (et non pas que les défauts augmentent intrinsèquement)...  ;-)

https://www.chassimages.com/forum/index.php/topic,288810.msg7185009.html#msg7185009

Mais quel intérêt d'avoir de la très haute définition si c'est pour voir les défauts des optiques? autant prendre un appareil moins défini ou une gamme optique (les z pour ne pas la nommer) pour bénéficier de la haute définition non?
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 20:34:30
Mais quel intérêt d'avoir de la très haute définition si c'est pour voir les défauts des optiques?

Demande-le à ceux qui font beaucoup de retouche, par exemple...


Je précise à toutes fins utiles que je me contenterais perso d'un 24 MPixels (non filtré) ou d'un 36 MPixels, par exemple, hein !

;-)

Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: ergodea le février 26, 2020, 20:37:13
;D ;D
Je vais changer et photographier des bêtes à poils et à plumes comme toi ;)
N'empêche que je viens de faire imprimer une série de 10 photos en 85x60cm chez PICTO depuis mes 24Mpx et je suis hyper content du résultat.  C'était suite à une commande, je vais voir si l'acheteur aurait aimé plus de détails mais sur des portraits, je n'en veux pas plus pour le moment.
(Si je faisais de la photo dites "beauté" pour la cosmétique ou pour un chirurgien, je reverrais peut être mon besoin mais ce n'est pas mon truc aujourd'hui)

Pour la photo studio, 35MP est très clairement plus appréciable que 24MP. Après, 45 ou 60mp, est ce que cela apporterait plus? Pour l'instant je n'ai pas été convaincue par le 45mp (vu que les 35mp me conviennent, mais 60mp attirent ma curiosité..)
Titre: Re : Re : Des rumeurs!
Posté par: kochka le février 26, 2020, 20:39:18
Ceux qui apprécient de se promener dans leurs images en zoomant à fond ;)
Ou utilisent un APS pour augmenter leur grandissement sans poids supplémentaire.
Titre: Re : Re : Des rumeurs!
Posté par: ergodea le février 26, 2020, 20:40:27
Demande-le à ceux qui font beaucoup de retouche, par exemple...  ;-)
Je précise à toutes fins utiles que je me contenterais perso d'un 24 MPixels (non filtré) ou d'un 36 MPixels, hein !

;-)


Oui bien sûr...Je ne remets pas en question l'utilité de la haute définition mais plutôt des défauts de certaines optiques qui deviennent plus visibles
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: kochka le février 26, 2020, 20:42:46
pareil , pas besoin de 60Mpx ou alors il faudrait le 500mm qui les " passent " correctement ...mais a quel prix  :o :o :o

Si on peut approcher avec un 300mm en 60mpx, les résultats d'un 30mpx avec un 500mm, le gain en poids et en tarif reste intéressant.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: Alain Clément le février 26, 2020, 20:48:51

Si on peut approcher avec un 300mm en 60mpx, les résultats d'un 30mpx avec un 500mm, le gain en poids et en tarif reste intéressant.

oui d'accord avec ça sauf que 300mm en animalier c'est court dans nos contrées .... ::)
Titre: Re : Re : Re : Des rumeurs!
Posté par: kochka le février 26, 2020, 20:50:07
Oui bien sûr...Je ne remets pas en question l'utilité de la haute définition mais plutôt des défauts de certaines optiques qui deviennent plus visibles

Les défaut de certaines optiques un peu/beaucoup âgées, certainement.
Mais les dernières, taillées pour des définition supérieures à 60mpx ?
Ps :
Depuis le début du siècle, on nous rebat les oreilles avec les limites de l'optique.
Mais pour l'instant, les dernières  sorties tiennent la route à 45-60mpx, alors que les Cassandres annonçaient un mur infranchissable vers le 12-20 mpx il n'y a pas si longtemps.
Titre: Re : Re : Des rumeurs!
Posté par: Jean-Claude le février 26, 2020, 20:50:31
Le diffraction est liée à la nature ondulatoire de la lumière, et ne dépend pas de la définition du capteur.
Mais qu'il est con  :D

Une longueur d'onde ne serait-elle plus exprimée en fractions de micron ?
Titre: Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: kochka le février 26, 2020, 20:53:17
oui d'accord avec ça6sauf que 300mm en animalier c'est court dans nos contrées .... ::)
Rien n'empêche de monter un 500 sur un 60mpx.
Titre: Re : Re : Re : Des rumeurs!
Posté par: Alain Clément le février 26, 2020, 20:58:13
Mais quel intérêt d'avoir de la très haute définition si c'est pour voir les défauts des optiques? autant prendre un appareil moins défini ou une gamme optique (les z pour ne pas la nommer) pour bénéficier de la haute définition non?

bravo pour cette illumination ergodea ...et rassure toi je pense la meme chose . a quoi sert d'avoir 60MPx si l'optique ne les passent pas , et puis qu'en sera t il de la montée en ISO dèjà qu'avec les 46Mpx c'est pas top ( heureusement DXO est là pour sauver les meubles hein ! )
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 20:59:30
a quoi sert d'avoir 60MPx si l'optique ne les passent pas [...]

Et pourquoi l'optique ne les passerait-elle pas ?


(à toutes fins utiles, je répète que le passage de 45 MPixels à 60, c'est anecdotique : +15%...)
Titre: Re : Re : Des rumeurs!
Posté par: Alain Clément le février 26, 2020, 21:08:46
Et pourquoi l'optique ne les passerait-elle pas ?
(à toutes fins utiles, je répète que le passage de 45 MPixels à 60, c'est anecdotique : +15%...)

le pouvoir séparateur de l'optique !
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 21:10:52
le pouvoir séparateur de l'optique !

Et ? tu le connais ?


Tu sais par avance que ma photo du post #47 (par exemple) ne pourrait pas bénéficier d'un léger surcroit de définition ?
Titre: Re : Re : Des rumeurs!
Posté par: Alain Clément le février 26, 2020, 21:18:50
Et ? tu le connais ?
Tu sais par avance que ma photo du post #47 (par exemple) ne pourrait pas bénéficier d'un léger surcroit de définition ?

mon 500mm a atteint son maximum avec les 24Mpx .....
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 21:21:14
mon 500mm a atteint son maximum avec les 24Mpx .....

Je ne te parle pas de ton 500mm, mais de ma photo du post #47...
Titre: Re : Re : Des rumeurs!
Posté par: ergodea le février 26, 2020, 21:35:34
Et pourquoi l'optique ne les passerait-elle pas ?
(à toutes fins utiles, je répète que le passage de 45 MPixels à 60, c'est anecdotique : +15%...)

et pourtant chez sony...

https://sonyalpha.blog/2019/11/10/which-lenses-to-maximise-the-potential-of-the-sony-a7riv/
Titre: Re : Re : Des rumeurs!
Posté par: JMS le février 26, 2020, 21:41:52
Je ne te parle pas de ton 500mm, mais de ma photo du post #47...

La photo du post #47 mériterait une définition plus grande si tu veux l'imprimer plus grand. En fait le vrai atout de la très haute def. même pour des formats raisonnables c'est la suppression du filtre anti-aliasing...mais il existe des 24 Mpxl sans filtre (et avec moiré dès que l'optique est top !).  Et la frustration de la très haute def. c'est que plein de détails que l'on voit à 100% écran seront mangés par l'imprimante sur le tirage papier (vérifié par un test avec le Fuji 100 Mpxl et tirage des crops sur Canon Pro 100).
Titre: Re : Re : Re : Des rumeurs!
Posté par: kochka le février 26, 2020, 21:55:27
et pourtant chez sony...

https://sonyalpha.blog/2019/11/10/which-lenses-to-maximise-the-potential-of-the-sony-a7riv/

Sans surprise ce sont les derniers GM que Sony , les dernières focales fixes Sigma spécialement conçues pour les hybrides

Traduction prosaïque :
Il faut des optiques adaptées aux capteurs, et pas d'anciennes gloire, pour tirer le max des derniers boitiers,
mais qui en aurait douté?
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 21:55:51
La photo du post #47 mériterait une définition plus grande si tu veux l'imprimer plus grand. En fait le vrai atout de la très haute def. même pour des formats raisonnables c'est la suppression du filtre anti-aliasing...mais il existe des 24 Mpxl sans filtre (et avec moiré dès que l'optique est top !).  Et la frustration de la très haute def. c'est que plein de détails que l'on voit à 100% écran seront mangés par l'imprimante sur le tirage papier (vérifié par un test avec le Fuji 100 Mpxl et tirage des crops sur Canon Pro 100).

Ne sois pas inquiet, Jean-Marie... j'ai déjà fait mes tests !

;-)

https://www.chassimages.com/forum/index.php/topic,293349.msg7048008.html#msg7048008
Titre: Re : Re : Re : Des rumeurs!
Posté par: kochka le février 26, 2020, 21:58:33
La photo du post #47 mériterait une définition plus grande si tu veux l'imprimer plus grand. En fait le vrai atout de la très haute def. même pour des formats raisonnables c'est la suppression du filtre anti-aliasing...mais il existe des 24 Mpxl sans filtre (et avec moiré dès que l'optique est top !).  Et la frustration de la très haute def. c'est que plein de détails que l'on voit à 100% écran seront mangés par l'imprimante sur le tirage papier (vérifié par un test avec le Fuji 100 Mpxl et tirage des crops sur Canon Pro 100).
Effectivement la définition doit être adaptée au format de sortie sous peine de perdre des détail.
Mais est-ce une nouveauté?
Titre: Re : Re : Des rumeurs!
Posté par: Greenforce le février 26, 2020, 22:07:38
(à toutes fins utiles, je répète que le passage de 45 MPixels à 60, c'est anecdotique : +15%...)

Heu, plutôt +35% non?
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 22:10:58
Heu, plutôt +35% non?

Tout dépend si tu imprimes à 300 dpi ou à 90 000 dpi^2...  ;-)


Un fichier 60 MPixels, c'est 9 504 pixels de large (Alpha 7rIV). Un fichier de D850, c'est 8 256 pixels de large. 9 504/8 256 = ?
Titre: Re : Re : Des rumeurs!
Posté par: ergodea le février 26, 2020, 22:12:00
Ne sois pas inquiet, Jean-Marie... j'ai déjà fait mes tests !

;-)

https://www.chassimages.com/forum/index.php/topic,293349.msg7048008.html#msg7048008

Merci pour ce lien. Intéressant!
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 26, 2020, 22:14:04
Merci pour ce lien. Intéressant!

Quand l’imprimante s'invite...  ;-)
Titre: Re : Re : Des rumeurs!
Posté par: Greenforce le février 26, 2020, 22:15:41
Tout dépend si tu imprimes à 300 dpi ou à 90 000 dpi^2...  ;-)
Un fichier 60 MPixels, c'est 9 504 pixels de large (Alpha 7rIV). Un fichier de D850, c'est 8 256 pixels de large. 9 504/8 256 = ?

Ah vu sous cet angle d'accord.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: ORION le février 27, 2020, 00:26:37

Les défaut de certaines optiques un peu/beaucoup âgées, certainement.
Mais les dernières, taillées pour des définition supérieures à 60mpx ?
Ps :
Depuis le début du siècle, on nous rebat les oreilles avec les limites de l'optique.
Mais pour l'instant, les dernières  sorties tiennent la route à 45-60mpx, alors que les Cassandres annonçaient un mur infranchissable vers le 12-20 mpx il n'y a pas si longtemps.

Oui, on s'en souvient, mais que le temps passe vite.

Le D2X avec ses 12 Mp, aller au-delà ne servait à rien disait-on.  ::)
Titre: Re : Des rumeurs!
Posté par: Fred_G le février 27, 2020, 06:10:43
Le D2X avec ses 12 Mp, aller au-delà ne servait à rien disait-on.  ::)
Sans surprise, ceux qui tenaient ce discours après avoir bien évalué leurs besoins n'ont pas changé d'avis.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: Alain Clément le février 27, 2020, 06:21:52
En plus la tolérance au flou de bougé avec 500mm est faible avec 60Mpx
Tu verras qu'un jour tu viendras au capteur stabilisé  ;)

Exactement pierock le flou de bougé se voit beaucoup plus avec un capteur plus pixéllisé.....le bruit Iso aussi.. ;D
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: Tonton-Bruno le février 27, 2020, 06:31:41
Voici la formule qui permet de calculer le diamètre de la tâche floue due à la diffraction:
D = 2.44 x l x A (avec l = longueur d'onde et A = ouverture de l'objectif)
Pour une longeur d'onde de 0.54 µm, la diffraction apparaitra à partir d'une ouverture de f/6.3
C'est ce que j'ai constaté depuis assez longtemps, disons depuis que j'ai acheté le D610 et que j'ai fait des essais minutieux.

J'ai encore constaté que f/6,3 était le diaphragme optimal au centre pour tous mes objectifs montés sur le D850.

Dans la pratique, néanmoins, la perte due à la diffraction reste négligeable jusqu'à f/11.

J'avais posté une vidéo sur ce sujet il y a presque 2 ans.

https://youtu.be/TYRjZP02YFY
Titre: Re : Re : Des rumeurs!
Posté par: Victor le février 27, 2020, 07:55:33
Et dire que 12 Mpix suffisent dans 90% des cas ...si ce n'est plus ... ^^

Entièrement d’accord, ça me suffit amplement.
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: al646 le février 27, 2020, 09:58:19
Et même si tu fermes encore d'un cran, la photo va simplement perdre des détails au niveau des transitions où les pixels adjacents seront affectés par la tache floue, mais dans une photo, les zones unies seront épargnées et les transitions entre 2 zones suffisamment larges (plusieurs pixels) pourront être corrigées en PT, ce sont les détails fins qui vont être perdus, par ex cheveux qui ne feraient que 2 ou 3 pixels de large, or dans une photo, on a rarement que des détails fins.
De toutes manières, quand la diffraction apparait, la photo n'a pas de défauts comme par ex des AC etc, elle perd simplement en résolution (les détails fins disparaissent progessivement en fermant) et c'est comme si on prenait la photo avec un capteur moins pixelisé. C'est pour cette raison que les contrcuterus devront un jour s'arrêter de nous mettre des capteurs de plus en plus pixelisés.
Attention que diffraction apparait plus vite pour les rouges et moins vite pour les bleus puisqu'elle dépend de la longeur d'onde.

C'est ce que j'ai constaté depuis assez longtemps, disons depuis que j'ai acheté le D610 et que j'ai fait des essais minutieux.

J'ai encore constaté que f/6,3 était le diaphragme optimal au centre pour tous mes objectifs montés sur le D850.

Dans la pratique, néanmoins, la perte due à la diffraction reste négligeable jusqu'à f/11.

J'avais posté une vidéo sur ce sujet il y a presque 2 ans.

https://youtu.be/TYRjZP02YFY
Titre: Re : Des rumeurs!
Posté par: Sebmansoros le février 27, 2020, 10:03:30
Être contre l'augmentation de la définition, mais penser à ceux qui au début de l'automobile, croyait que le corps humain ne pouvait pas supporter des vitesses de l'ordre de 100 km/h.
Perso, je fais encore des photos avec mon S5 de 8MP et mon D850, mais je ne serais pas contre 60MP qui me donnerait encore plus de souplesse. ;)
Titre: Re : Re : Des rumeurs!
Posté par: al646 le février 27, 2020, 10:20:59
Sauf que la diffraction est une loi physique incontournable et que l'intérêt de capteur de plus de 100 MP sera quasi nul (tant mieux pour le marketing si certains pensent le contraire), après on peut aussi nier que la terre est ronde, mais cela n'est pas sans risque ;)

Juste pour info, un capteur de 60 mp dispose de pixel de 3.76 microns, le calcul nous montre que la tache de diffraction à f/8 fait 10.7 microns, sur le futur z8, les 60 MP ne donneront aucun détail de plus qu'un d800e au delà de f/8, c'est une certitude

Être contre l'augmentation de la définition, mais penser à ceux qui au début de l'automobile, croyait que le corps humain ne pouvait pas supporter des vitesses de l'ordre de 100 km/h.
Perso, je fais encore des photos avec mon S5 de 8MP et mon D850, mais je ne serais pas contre 60MP qui me donnerait encore plus de souplesse. ;)
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 27, 2020, 11:02:24
Sauf que la diffraction est une loi physique incontournable et que l'intérêt de capteur de plus de 100 MP sera quasi nul (tant mieux pour le marketing si certains pensent le contraire), après on peut aussi nier que la terre est ronde, mais cela n'est pas sans risque ;)

Juste pour info, un capteur de 60 mp dispose de pixel de 3.76 microns, le calcul nous montre que la tache de diffraction à f/8 fait 10.7 microns, sur le futur z8, les 60 MP ne donneront aucun détail de plus qu'un d800e au delà de f/8, c'est une certitude

Il faut se méfier des raccourcis trop rapides...  ;-)
Titre: Re : Re : Des rumeurs!
Posté par: Fred_G le février 27, 2020, 11:13:52
Être contre l'augmentation de la définition, mais penser à ceux qui au début de l'automobile, croyait que le corps humain ne pouvait pas supporter des vitesses de l'ordre de 100 km/h.
Perso, je fais encore des photos avec mon S5 de 8MP et mon D850, mais je ne serais pas contre 60MP qui me donnerait encore plus de souplesse. ;)
Ah mais ce n'est pas parce qu'on se satisfait de 12 Mpix qu'on conteste aux autres d'en vouloir plus. Et je suis content pour ceux qui en veulent toujours plus si les futurs boitiers proposent 60 Mpix !

Mais ressortir le D2x avec un petit ton condescendant... Comment dire  ::)
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 27, 2020, 11:18:26
Ah mais ce n'est pas parce qu'on se satisfait de 12 Mpix qu'on conteste aux autres d'en vouloir plus. Et je suis content pour ceux qui en veulent toujours plus si les futurs boitiers proposent 60 Mpix !

Mais ressortir le D2x avec un petit ton condescendant... Comment dire  ::)

Je pense que c'est la façon dont certains viennent (sont venus) expliquer les limites au delà desquelles il était inutile/déraisonnable d'aller qui est amusante, pas le matériel en lui-même (matériel qui n'est que le reflet de la technologie disponible à un moment donné).

Certaines réactions liées à la sortie du dernier avatar du Leica M sont assez amusantes, également...  ;-)
Titre: Re : Des rumeurs!
Posté par: kochka le février 27, 2020, 14:26:32
Oui, on s'en souvient, mais que le temps passe vite.

Le D2X avec ses 12 Mp, aller au-delà ne servait à rien disait-on.  ::)
En pratique, c'est pire:
Plus le capteurs prennent de pixels et plus je prend de l'âge.
Pourtant, je n'arrive pas à déterminer le lien   :o
Titre: Re : Des rumeurs!
Posté par: foutografe le février 27, 2020, 14:51:23
Mon grand regret est de ne pas gagner autant d'années que de pixels, ne serait-ce que des kp plutôt que des Mp qui risquent de plafonner à 100
Titre: Re : Des rumeurs!
Posté par: foutografe le février 27, 2020, 15:26:15
al646, je partage ton raisonnement. D'après ton calcul du pouvoir séparateur, le capteur couleur utilise 4x4 pixels pour distinguer 2 points. En effet le pouvoir séparateur en géométrie vaut 0.61 l x A soit 4 fois moins : 2.68 µm.
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 27, 2020, 16:34:39
al646, je partage ton raisonnement. D'après ton calcul du pouvoir séparateur, le capteur couleur utilise 4x4 pixels pour distinguer 2 points. En effet le pouvoir séparateur en géométrie vaut 0.61 l x A soit 4 fois moins : 2.68 µm.

?
Titre: Re : Re : Re : Des rumeurs!
Posté par: restoc le février 27, 2020, 17:29:21
Sauf que la diffraction est une loi physique incontournable et que l'intérêt de capteur de plus de 100 MP sera quasi nul (tant mieux pour le marketing si certains pensent le contraire), après on peut aussi nier que la terre est ronde, mais cela n'est pas sans risque ;)

Juste pour info, un capteur de 60 mp dispose de pixel de 3.76 microns, le calcul nous montre que la tache de diffraction à f/8 fait 10.7 microns, sur le futur z8, les 60 MP ne donneront aucun détail de plus qu'un d800e au delà de f/8, c'est une certitude
Les smartphones sont déjà à 1 micron et vont passer en dessous ..Ils  ont donc déjà un pas d’échantillonnage proche de la longueur d'onde de la lumière dans le rouge /IRP). Autrement dit on ne devrait  voir que du flou dans ces longueurs d'onde si on considérait uniquement le calcul arithmétique sur le cdc vu unitairement. Or la physique s'amuse bp et souvent en se moquant de la seule l'arithmétique et déduction logique.

En fait l'erreur est de penser que le capteur voit une juxtaposition de cercles de diffraction contigus en mosaïque fixe. IL voit en réalité une image lisse ou continue ( une fonction composite plus exactement) des superposition des multiples  cercles de confusion arrivant selon les angles d'incidences des rayons incidents, les vibrations en x,y dans le temps d'intégration etc.

D'où le fait que de vielles optiques trés faibles calculées du temps des 6 ou 8 Mpix se trouvent améliorées sur 36 ou 45 Mpix au lieu d'être définitivement floues.

Et puis il serait un peu étonnant que les fabricants de capteurs et d’appareils avec leurs opticiens chevronnés investissent dans des résolutions non décelables le jour dé la mise sur le marché ....Le succés risquerait d'être limité à 2 ex par pays  ;) ;D ;D
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: al646 le février 27, 2020, 19:58:35
Totalement faux, les smartphones sont effectivement surpixelisés et souffrent de la diffraction, mais encore une fois, elles ne se manifeste que par une perte de détails fins qui se traduit uniquement par le fait que la pleine résolution du capteur n'est jamais exploitée, comme une image n'est pas faite que de détails fins, le marketing arrive à faire croire qu'un capteur de 48 MP est mieux qu'un capteur de 40 MP et ainsi de suite, après, si tu regardes une image de smartphone à 100%, tu comprendras mieux.
Simplement quand tu dis "on ne devrait  voir que du flou" signifie que tu ne sais pas ce qu'est la diffraction...
Les smartphones sont déjà à 1 micron et vont passer en dessous ..Ils  ont donc déjà un pas d’échantillonnage proche de la longueur d'onde de la lumière dans le rouge /IRP). Autrement dit on ne devrait  voir que du flou dans ces longueurs d'onde si on considérait uniquement le calcul arithmétique sur le cdc vu unitairement. Or la physique s'amuse bp et souvent en se moquant de la seule l'arithmétique et déduction logique.

En fait l'erreur est de penser que le capteur voit une juxtaposition de cercles de diffraction contigus en mosaïque fixe. IL voit en réalité une image lisse ou continue ( une fonction composite plus exactement) des superposition des multiples  cercles de confusion arrivant selon les angles d'incidences des rayons incidents, les vibrations en x,y dans le temps d'intégration etc.

D'où le fait que de vielles optiques trés faibles calculées du temps des 6 ou 8 Mpix se trouvent améliorées sur 36 ou 45 Mpix au lieu d'être définitivement floues.

Et puis il serait un peu étonnant que les fabricants de capteurs et d’appareils avec leurs opticiens chevronnés investissent dans des résolutions non décelables le jour dé la mise sur le marché ....Le succés risquerait d'être limité à 2 ex par pays  ;) ;D ;D
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 27, 2020, 20:08:08
Totalement faux, les smartphones sont effectivement surpixelisés et souffrent de la diffraction, mais encore une fois, elles ne se manifeste que par une perte de détails fins qui se traduit uniquement par le fait que la pleine résolution du capteur n'est jamais exploitée, comme une image n'est pas faite que de détails fins, le marketing arrive à faire croire qu'un capteur de 48 MP est mieux qu'un capteur de 40 MP et ainsi de suite, après, si tu regardes une image de smartphone à 100%, tu comprendras mieux.
Simplement quand tu dis "on ne devrait  voir que du flou" signifie que tu ne sais pas ce qu'est la diffraction...

Disons que restoc a raison sur un point, au moins : les modèles simplifiés sont... trop simplifiés !
Titre: Re : Re : Des rumeurs!
Posté par: al646 le février 27, 2020, 20:23:23
Absolument, je suis moi-même loin de maitriser le sujet, mais si on voit apparaitre un jour des capteurs de plus de 100 mp, ce sera amusant de comparer avec un capteur de 36 à diverses ouvertures...

Disons que restoc a raison sur un point, au moins : les modèles simplifiés sont... trop simplifiés !
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 27, 2020, 20:28:05
Absolument, je suis moi-même loin de maitriser le sujet, mais si on voit apparaitre un jour des capteurs de plus de 100 mp, ce sera amusant de comparer avec un capteur de 36 à diverses ouvertures...

Cela sera, sans doute, riche en enseignements... mais ne soyons pas impatients (on vieillit bien assez vite !) : profitons de l'instant présent !


Je ne suis pas non plus un spécialiste, loin de là. Mais quand je vois les différences entre les Bayer et les Foveon, etc, je me dis que tout ne se résume pas par des équations du premier degré...  ;-)
Titre: Re : Des rumeurs!
Posté par: kochka le février 27, 2020, 20:54:25
Il y a la théorie, et la pratique qui permet de revoir la théorie antérieure
Titre: Re : Des rumeurs!
Posté par: al646 le février 28, 2020, 09:10:42
En attendant, on peut déjà voir les effets de la diffraction sur un canon 5ds à 50mp:
https://prophotosupply.com/newsdesk/2015/06/canon-eos-5ds-r-review/
Il ne faut quand même pas confondre théorie et loi physique...
Titre: Re : Des rumeurs!
Posté par: kochka le février 28, 2020, 11:19:06
Et la qualité des "verres" n'y serait pour rien?
Titre: Re : Re : Des rumeurs!
Posté par: Alain Clément le février 28, 2020, 12:49:44
Et la qualité des "verres" n'y serait pour rien?

bien sur et ça va nous couter de plus en plus cher tout ça pour pouvoir tirer en 3m/4m  ;D ;D ;D
Titre: Re : Re : Des rumeurs!
Posté par: Fred_G le février 28, 2020, 14:26:38
Et la qualité des "verres" n'y serait pour rien?
La qualité, mais aussi la quantité.

Et même si les objectifs pour ML peuvent être moins lourds/encombrants que leurs équivalents reflex, on constate depuis des années que la course aux pixels mène inexorablement vers des optiques toujours plus grosses.
Titre: Re : Des rumeurs!
Posté par: foutografe le février 28, 2020, 17:34:10
Si la théorie contredit la loi physique, ou l'inverse, c'est que au moins l'une des deux est inexacte.

La formule du pouvoir séparateur est le résultat de considérations géométriques et ne tient pas compte de la géométrie pratique et des imperfections de l'optique : la résolution réelle de l'optique ne peut pas être meilleure.

Il n'est pas surprenant que les optiques calculées pour l'argentique, et pour les Foveons, à pixels superposés, soient utilisables sur des capteurs à matrices plus pixelisées, à pixels regroupés et comptabilisés.
La diffraction résulte des déphasages des rayons lumineux reçus sur le capteur : elle est permanente et ne devient visible que si l'image est suffisamment agrandie.
Avec un éclairage normal la diffraction diminue la netteté mais si l'éclairage est contrasté, en prime les anneaux des taches d'Airy peuvent créer des artefacts qui faussent l'image.
Titre: Re : Re : Re : Des rumeurs!
Posté par: kochka le février 28, 2020, 18:11:27
bien sur et ça va nous couter de plus en plus cher tout ça pour pouvoir tirer en 3m/4m  ;D ;D ;D
Uniquement à condition qu'un terroriste nous oblige à acheter.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: Fred_G le février 28, 2020, 18:35:31
Uniquement à condition qu'un terroriste nous oblige à acheter.
Tu noteras que, terroriste ou pas, il va devenir de plus en plus difficile d'acheter neuf un boitier "normal"de 20 Mpix ou moins... Par normal, je veux dire autre qu'un monobloc pro qui coûte 1 bras.
Titre: Re : Des rumeurs!
Posté par: Tonton-Bruno le février 28, 2020, 18:53:06
Le D780 vient tout juste d'être annoncé, et je serais surpris qu'il disparaisse avant 4 ou 5 ans, et je pense au contraire qu'il sera toujours là dans 5 ou 6.

Et bien franchement, le Z6 = bague FTZ permet de faire tout ce que le D780 fait, et dès sa sortie, ce kit a eu un prix tarif plus faible que celui du D780.
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: kochka le février 28, 2020, 18:57:17
Tu noteras que, terroriste ou pas, il va devenir de plus en plus difficile d'acheter neuf un boitier "normal"de 20 Mpix ou moins... Par normal, je veux dire autre qu'un monobloc pro qui coûte 1 bras.

Tu veux dire que tu supposes que le marché solvable va disparaitre?
A qui la faute?
Titre: Re : Des rumeurs!
Posté par: Fred_G le février 28, 2020, 19:13:00
Tu veux dire que tu supposes que le marché solvable va disparaitre?
A qui la faute?
Non, je répondais juste à ta remarque qui pouvait laisser entendre que personne n'était obligé d'acheter des boitiers permettant de faire des 4x3m. C'était bien ce que tu voulais dire ?

Mais effectivement, comme dit Tonton Bruno, il reste (encore) les 24 Mpix...
Je remarque quand même que les deux derniers pro monoblocs sortis font 20 Mpix. Encore une fois je ne conteste pas que certains ont besoin de la plus haute définition possible, mais ces D6 et 1Dx mk3 donnent quand même un indice sur ce qui est vraiment nécessaire sur un boitier polyvalent. Ça devrait relativiser l'importance des 60 Mpix rumorés.
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 28, 2020, 19:20:09
Non, je répondais juste à ta remarque qui pouvait laisser entendre que personne n'était obligé d'acheter des boitiers permettant de faire des 4x3m. C'était bien ce que tu voulais dire ?

Pour faire des 4x3, il faut (au minimum) un D2h(s).
Titre: Re : Re : Des rumeurs!
Posté par: kochka le février 28, 2020, 20:05:04
Non, je répondais juste à ta remarque qui pouvait laisser entendre que personne n'était obligé d'acheter des boitiers permettant de faire des 4x3m. C'était bien ce que tu voulais dire ?

Mais effectivement, comme dit Tonton Bruno, il reste (encore) les 24 Mpix...
Je remarque quand même que les deux derniers pro monoblocs sortis font 20 Mpix. Encore une fois je ne conteste pas que certains ont besoin de la plus haute définition possible, mais ces D6 et 1Dx mk3 donnent quand même un indice sur ce qui est vraiment nécessaire sur un boitier polyvalent. Ça devrait relativiser l'importance des 60 Mpix rumorés.
Chacun a son appréciation de ses besoins/envies.
Il se trouve que le marché a divergé il y a 20 ans avec l'arrivée du numérique et la disparition relativement rapide du renouvellement boitiers argentiques. Chacun s'est plus ou moins vite adapté, même si cela ne plaisait pas à tout le monde, avec de très bonnes raisons.
Vu de ma fenêtre, l'histoire recommence et je comprend très bien que cela puisse déranger, ne serait-ce que du point de vue financier.
Ce que je relève c'est, comme il y a 20 ans, la responsabilité des clients, car les constructeurs s'adaptent à la demande, fut-elle potentielle.
L'évolution est-elle réellement nécessaire?
Il faudrait d'abord dire pour qui, car chacun a une demande des souhaits, des besoins/envies différents de ceux du voisin?
Lorsque Nikon a retiré les flash incorporé, j'ai pesté un max, mais s'ils ont jugé que le marché ne le justifiait pas, c'est à moi de m'adapter si je ne peux plus acheter un boitier neuf avec flash, tout comme il peut pleuvoir le WE où j'avais décidé de me balader au soleil.
La vie est ainsi faite.  ;)
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 28, 2020, 20:08:56
Vu de ma fenêtre, l'histoire recommence [...]

Ah... c'est la fameuse révolution dont on nous rebat les oreilles ?
Titre: Re : Re : Des rumeurs!
Posté par: JMS le février 28, 2020, 20:13:09
...personne n'était obligé d'acheter des boitiers permettant de faire des 4x3m. C'était bien ce que tu voulais dire ?

Mais effectivement, comme dit Tonton Bruno, il reste (encore) les 24 Mpix...
Je remarque quand même que les deux derniers pro monoblocs sortis font 20 Mpix. Encore une fois je ne conteste pas que certains ont besoin de la plus haute définition possible, mais ces D6 et 1Dx mk3 donnent quand même un indice sur ce qui est vraiment nécessaire sur un boitier polyvalent.

1) si le 4 x 3 est vu à 5 mètres de distance il faut 6 Mpxl, s'il est vu de l'autre côté du quai du métro on peut en effet s'en sortir avec un D2hs comme dit Verso 92 ! S'il est dans ton salon et que tu regardes les détails le nez sur le tirage compte plutôt sur le Phase One 150 Mpxl...

2) la norme 20 Mpxl est une vieille histoire qui date presque de l'antiquité du numérique, quand de grandes agences de presse ont décidé qu'elles voulaient des fichiers permettant le A3 à 300 dpi...sinon rien...d'où des interpolations soignées avant livraison et l'heure de gloire des logiciels dédiés comme Genuine fractals...jusqu'au moment où certaines ont exigé les RAW pour être certaines que les fichiers n'étaient pas "trafiqués". D'où cette normalisation des boîtiers "presse" à 20 Mpxl, qu'ils soient plein format ( Eos 1dX etc, Nikon D5 etc) ou APS (Canon 7D, Nikon D500).
Titre: Re : Re : Des rumeurs!
Posté par: Alain Clément le février 28, 2020, 20:15:07
Non, je répondais juste à ta remarque qui pouvait laisser entendre que personne n'était obligé d'acheter des boitiers permettant de faire des 4x3m. C'était bien ce que tu voulais dire ?

Mais effectivement, comme dit Tonton Bruno, il reste (encore) les 24 Mpix...
Je remarque quand même que les deux derniers pro monoblocs sortis font 20 Mpix. Encore une fois je ne conteste pas que certains ont besoin de la plus haute définition possible, mais ces D6 et 1Dx mk3 donnent quand même un indice sur ce qui est vraiment nécessaire sur un boitier polyvalent. Ça devrait relativiser l'importance des 60 Mpix rumorés.

exactement !!!
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 28, 2020, 20:17:17
1) si le 4 x 3 est vu à 5 mètres de distance il faut 6 Mpxl, s'il est vu de l'autre côté du quai du métro on peut en effet s'en sortir avec un D2hs comme dit Verso 92 !

J'évoquais la fameuse affiche illustrant le prix de l'Arc de triomphe, il y a quelques années, dans le métro...  ;-)
Titre: Re : Des rumeurs!
Posté par: Fred_G le février 28, 2020, 20:20:39
Merci JMS. Pour résumer fidèlement, je peux dire que 20Mpix sont nécessaires et suffisants ?  ::) ;D

Bon, sauf pour le nez sur le 4x3 du salon (ou de l'expo, pour être un peu crédible), mais dans ce cas même les 150 Mpix ne donneront pas entière satisfaction à ceux qui veulent pouvoir compter le moindre poil sur l'arrière train des mouches  ;)
Titre: Re : Des rumeurs!
Posté par: cagire le février 28, 2020, 20:25:10
Avec n'importe quel boîtier, sur un sujet statique, on peut allègrement dépasser 150 mpix. ;-)
L'idéal serait même un aps-c avec des optiques fixes, celles-ci ayant une meilleure résolution que celles prévus pour de plus grands capteurs.
Titre: Re : Re : Des rumeurs!
Posté par: JMS le février 28, 2020, 20:28:16
Merci JMS. Pour résumer fidèlement, je peux dire que 20Mpix sont nécessaires et suffisants ?  ::) ;D

Pour la plupart des occupations photographiques courantes, évidemment...çà m'amuse aussi quand je soigne un test avec une optique de course sur un 47 Mpxl et que l'image exemple fait 10 cm de large maxi en publication presse dans la revue !

Mais il ne faut pas perdre de vue cependant que dans les grandes expos style Montier il est presque impossible de voir une photo à distance normale sans avoir devant soi 20 personnes qui veulent voir les détails à 20 cm  ;D ;D ;D
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 28, 2020, 20:28:29
Merci JMS. Pour résumer fidèlement, je peux dire que 20Mpix sont nécessaires et suffisants ?  ::) ;D

Heu... non : comme déjà évoqué, c'est beaucoup trop (une lubie des marketeux, rien de plus).
Titre: Re : Re : Des rumeurs!
Posté par: JMS le février 28, 2020, 20:29:11
Avec n'importe quel boîtier, sur un sujet statique, on peut allègrement dépasser 150 mpix. ;-)
L'idéal serait même un aps-c avec des optiques fixes, celles-ci ayant une meilleure résolution que celles prévus pour de plus grands capteurs.

Et un peu de montage sous Photoshop, n'est-il pas ?  ;)
Titre: Re : Re : Re : Des rumeurs!
Posté par: cagire le février 28, 2020, 20:30:26
Et un peu de montage sous Photoshop, n'est-il pas ?  ;)
La seule chose qui importe c'est le résultat.
Titre: Re : Re : Des rumeurs!
Posté par: kochka le février 28, 2020, 20:54:12
Ah... c'est la fameuse révolution dont on nous rebat les oreilles ?
Une révolution?
Je n'aurais jamais cru.
Mais cependant, en constatant la masse de protestations angoissées que génère une évolution pourtant bien limitées, je finirai presque par le croire.  :D
Titre: Re : Re : Des rumeurs!
Posté par: kochka le février 28, 2020, 20:56:22
Merci JMS. Pour résumer fidèlement, je peux dire que 20Mpix sont nécessaires et suffisants ?  ::) ;D

Bon, sauf pour le nez sur le 4x3 du salon (ou de l'expo, pour être un peu crédible), mais dans ce cas même les 150 Mpix ne donneront pas entière satisfaction à ceux qui veulent pouvoir compter le moindre poil sur l'arrière train des mouches  ;)

Cela dépend pour qui?
Et pour faire quoi ?
Titre: Re : Re : Re : Des rumeurs!
Posté par: Fred_G le février 28, 2020, 21:26:11

Cela dépend pour qui?
Et pour faire quoi ?
Voilà bien le fond de la discussion.

Personnellement, j'assume très bien que mes photos n'ont pas besoin de plus de 12, 16 ou même 20 Mpix.
Titre: Re : Re : Re : Des rumeurs!
Posté par: SergioK le février 28, 2020, 21:42:39
Une révolution?
Je n'aurais jamais cru.
Mais cependant, en constatant la masse de protestations angoissées que génère une évolution pourtant bien limitées, je finirai presque par le croire.  :D

révolution : ce mot était en italique dans le post de Verso92. Je pense qu'il fallait le lire plutôt pour sa définition exacte c-a-d en gros un tour sur soit-même. Ce qui colle assez bien avec le post initial : "Vu de ma fenêtre, l'histoire recommence [...]"
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: kochka le février 28, 2020, 23:33:54
Voilà bien le fond de la discussion.

Personnellement, j'assume très bien que mes photos n'ont pas besoin de plus de 12, 16 ou même 20 Mpix.
Je comprends.
D'un autre côté entre les différentes corrections plus ou moins automatiques, les redressements de perspective , et l'envie de voir au calme un peu plus de détail d'une scène capturée un poil rapidement, passer à 100mp seraient apprécié.
 Comme toujours c'est une question d'utilisation.
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: Rami le février 29, 2020, 09:43:25
Je comprends.
D'un autre côté entre les différentes corrections plus ou moins automatiques, les redressements de perspective , et l'envie de voir au calme un peu plus de détail d'une scène capturée un poil rapidement, passer à 100mp seraient apprécié.
 Comme toujours c'est une question d'utilisation.
Comme on est dans un fil de rumeur, bon anniversaire
Titre: Re : Des rumeurs!
Posté par: kochka le février 29, 2020, 11:28:25
Merci, pour mon 19-ième anniversaire.
Titre: Re : Des rumeurs!
Posté par: egtegt² le février 29, 2020, 12:26:47
Juste une question : si on a un boîtier 60 Mpix, on est obligé de l'exploiter à 100% en permanence ?  ;)
Parce que pour ce qui me concerne, quand je fais une photo de paysage ou une photo de famille, mes 24 Mpixels me suffisent largementn (ça me permet de recadrer ou de redresser un peu et d'avoir quand même 12 Mpixels), mais quand je fais une photo d'un animal un peu loin à plein ouverture, là j'aimerais bien avoir 60 Mpix pour pouvoir cropper tranquillement. Et dans ce cas, je me moque de la diffraction et des bords pas très piqués.
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 29, 2020, 12:29:05
Juste une question : si on a un boîtier 60 Mpix, on est obligé de l'exploiter à 100% en permanence ?  ;)

C'est toi qui choisis, en fait.


Pour le D850, par exemple, on a les choix suivants :
Titre: Re : Re : Des rumeurs!
Posté par: al646 le février 29, 2020, 13:20:18
Avec 60 mp, aucun souci de diffraction jusqu'à f6.3, tu pourra cropper tranquille dans ta photo d'animal en conservant tous les détails, et un boitier de 100 mp apportera encore plus de détail sur ce genre de photo à PO (f/2.8, f/4 et même f5.6),
Et pour le paysage ou la macro, tu pourras rester à 60 MP, ta photo n'aura simplement pas plus de détail qu'avec un capteur de 24 MP, mais ne sera jamais moins bonne vue à taille égale.
Il est par contre clair et indéniable, qu'une photo de paysage ou de macro où l'on ferme généralement au min à f/11 pour avoir une profondeur de champ importante risque fort de décevoir vue à 100%... et cropper aura alors ses limites.
Les paysagistes qui souhaiteront monter en résolution n'auront pas d'autre alternative que de passer au moyen format ou de combiner plusieurs photos

Articles intéressants:
https://www.slrlounge.com/lens-diffraction-understand-find-lens-sweet-spot-make-better-buys/
https://photographylife.com/what-is-diffraction-in-photography

Juste une question : si on a un boîtier 60 Mpix, on est obligé de l'exploiter à 100% en permanence ?  ;)
Parce que pour ce qui me concerne, quand je fais une photo de paysage ou une photo de famille, mes 24 Mpixels me suffisent largementn (ça me permet de recadrer ou de redresser un peu et d'avoir quand même 12 Mpixels), mais quand je fais une photo d'un animal un peu loin à plein ouverture, là j'aimerais bien avoir 60 Mpix pour pouvoir cropper tranquillement. Et dans ce cas, je me moque de la diffraction et des bords pas très piqués.
Titre: Re : Re : Re : Des rumeurs!
Posté par: JMS le février 29, 2020, 19:46:04

Et pour le paysage ou la macro, tu pourras rester à 60 MP, ta photo n'aura simplement pas plus de détail qu'avec un capteur de 24 MP, mais ne sera jamais moins bonne vue à taille égale.


C'est franchement n'importe quoi, si la diffraction se manifeste à 6,3 il suffit de rester à 5,6 pour avoir beaucoup plus de détails sur un capteur de 60 Mpx que sur un capteur de 24 Mpx dès lors que le pouvoir séparateur de l'objectif est supérieur à 100 paires de lignes/mm. Et pour la profondeur de champ un grand angle assez de profondeur de champ à 5,6 pour la plupart des photos classiques de paysages.
Titre: Re : Des rumeurs!
Posté par: kochka le février 29, 2020, 19:56:29
Ami, tu ne devrais pas dire le choses aussi brutalement.
Tu vas choquer les âmes sensibles et conduire à la perdition ceux qui sont pesuadés que hors de saint 24mp, il n'y a points de salut.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le février 29, 2020, 20:59:13
C'est franchement n'importe quoi, si la diffraction se manifeste à 6,3 il suffit de rester à 5,6 pour avoir beaucoup plus de détails sur un capteur de 60 Mpx que sur un capteur de 24 Mpx dès lors que le pouvoir séparateur de l'objectif est supérieur à 100 paires de lignes/mm. Et pour la profondeur de champ un grand angle assez de profondeur de champ à 5,6 pour la plupart des photos classiques de paysages.
En fait, les capteurs actuels sont loin d'exploiter à fond une optique ayant un pouvoir séparateur de 100 pdl/mm (ce qui correspond en effet à un objectif limité par la diffraction à f/5.6, un peu plus ou un peu moins selon le critère choisi pour définir le pouvoir séparateur).

Pour exploiter 100 pdl/mm, il faut au minimum 200 pixels par mm (critère de Shannon). En matrice de Bayer (1 pixel = 2x2 photosites), cela fait 400 photosites par mm.

400 photosites par mm font un total de 138 millions de photosites sur un capteur de 24x36 mm ("138 M pixels" selon les publicités des fabricants).

Comme on est encore en dessous, on continue de constater une amélioration de la résolution à mesure que la densité de photosites des capteurs augmente.
Titre: Re : Des rumeurs!
Posté par: Verso92 le février 29, 2020, 21:01:38
En fait, les capteurs actuels sont loin d'exploiter à fond une optique ayant un pouvoir séparateur de 100 pdl/mm (ce qui correspond en effet à un objectif limité par la diffraction à f/5.6, un peu plus ou un peu moins selon le critère choisi pour définir le pouvoir séparateur).

Pour exploiter 100 pdl/mm, il faut au minimum 200 pixels par mm (critère de Shannon). En matrice de Bayer (1 pixel = 2x2 photosites), cela fait 400 photosites par mm.

400 photosites par mm font un total de 138 millions de photosites sur un capteur de 24x36 mm ("138 M pixels" selon les publicités des fabricants).

Comme on est encore en dessous, on continue de constater une amélioration de la résolution à mesure que la densité de photosites des capteurs augmente.

Ce n'est pas tout à fait ça (heureusement !), mais ces aspects sont à prendre en compte, bien sûr.
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le février 29, 2020, 22:26:20
Pour exploiter 100 pdl/mm, il faut au minimum 200 pixels par mm (critère de Shannon). En matrice de Bayer (1 pixel = 2x2 photosites), cela fait 400 photosites par mm.

400 photosites par mm font un total de 138 millions de photosites sur un capteur de 24x36 mm ("138 M pixels" selon les publicités des fabricants).

Comme on est encore en dessous, on continue de constater une amélioration de la résolution à mesure que la densité de photosites des capteurs augmente.
Les tests effectués sur mire montrent très clairement que la définition des capteurs actuels (typiquement 20 à 50 Msites en 24x36) est insuffisante pour exploiter de bons objectifs:

Voir par exemple, le D850, dont la résolution est assez élevée selon les standards actuels (45 M sites) mais nettement inférieure aux valeurs nécessaires pour exploiter les détails délivrés par un bon objectif (test DPreview https://www.dpreview.com/reviews/nikon-d850/8 ):
(https://i.goopics.net/K1JoY.jpg)

Le signal étant sous-échantillonné, l'interpolateur qui construit les pixels [RVB] à partir des photosites colorés invente des traits et des couleurs qui n'existent pas dans la réalité.

NB: le D850 est évidemment un excellent appareil, et c'est pour cela que je l'ai pris comme exemple.
Mais la physique et le traitement du signal ne peuvent pas reconstruire correctement l'image réelle à partir d'une acquisition sous-échantillonnée.
Titre: Re : Des rumeurs!
Posté par: bretillien le mars 01, 2020, 04:16:44
L' Avantage avec un 60 ou mieux 100mpix c'est qu'il suffira d'un très bon 14-15mm pour croper jusqu’à 300mm. Le cadrage n'aura plus d'importance il se fera en post production et avec un super grand angle la Pdc sera infinie. Donc 1 boitier+ 1 objectif suffiront.
Titre: Re : Re : Des rumeurs!
Posté par: AlainNx le mars 01, 2020, 07:50:20
L' Avantage avec un 60 ou mieux 100mpix c'est qu'il suffira d'un très bon 14-15mm pour croper jusqu’à 300mm. Le cadrage n'aura plus d'importance il se fera en post production et avec un super grand angle la Pdc sera infinie. Donc 1 boitier+ 1 objectif suffiront.

Les informaticiens vont pouvoir s'éclater sur des softs supprimant les AC !
Bon courage ...
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 01, 2020, 08:45:14
Les smartphones sont déjà à 1 micron et vont passer en dessous ..Ils  ont donc déjà un pas d’échantillonnage proche de la longueur d'onde de la lumière dans le rouge /IRP).

Je crois que la longueur d'onde n'est pas directement une limite à la résolution.
En effet la résolution des objectifs de microscope (pour ceux avec une grande ouverture numérique) est inférieure à la longueur d'onde.
Titre: Re : Re : Re : Des rumeurs!
Posté par: bretillien le mars 01, 2020, 09:02:59
Les informaticiens vont pouvoir s'éclater sur des softs supprimant les AC !
Bon courage ...
Il n'y aura plus d'AC elles seront traitées directement logiciellement par le boîtier  ;D bon tout ça ce sont des rumeurs !
Titre: Re : Re : Des rumeurs!
Posté par: seba le mars 01, 2020, 09:11:26
...et avec un super grand angle la Pdc sera infinie.

Mais en croppant non.
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: Manu_14 le mars 01, 2020, 09:36:51
En fait, les capteurs actuels sont loin d'exploiter à fond une optique ayant un pouvoir séparateur de 100 pdl/mm (ce qui correspond en effet à un objectif limité par la diffraction à f/5.6, un peu plus ou un peu moins selon le critère choisi pour définir le pouvoir séparateur).

Pour exploiter 100 pdl/mm, il faut au minimum 200 pixels par mm (critère de Shannon). En matrice de Bayer (1 pixel = 2x2 photosites), cela fait 400 photosites par mm.

400 photosites par mm font un total de 138 millions de photosites sur un capteur de 24x36 mm ("138 M pixels" selon les publicités des fabricants).

Comme on est encore en dessous, on continue de constater une amélioration de la résolution à mesure que la densité de photosites des capteurs augmente.

La matrice de Bayer réduit la résolution en chrominance mais pas en luminance, pour cette dernière on a bien un pixel= un photosite. C'est à elle que correspond la résolution du capteur.
Ai-je loupé quelque chose ?
Titre: Re : Re : Des rumeurs!
Posté par: Aria le mars 01, 2020, 09:42:13
L' Avantage avec un 60 ou mieux 100mpix c'est qu'il suffira d'un très bon 14-15mm pour croper jusqu’à 300mm. Le cadrage n'aura plus d'importance il se fera en post production et avec un super grand angle la Pdc sera infinie. Donc 1 boitier+ 1 objectif suffiront.

J'ai du mal à imaginer la photo de cette manière.

Sinon de façon plus légère, 36 mpx représentent l'équilibre parfait :
- 3x6 = 18 et 1+8=9
- 3+6 = 9
9 étant divin car 3 fois la trinité, là on touche le Nirvana ultime...les champs Elyséens sans aucune mauvaise herbe  ;D ;D ;D

Voilà c'est parfait, Nikon ne touchez plus à rien et revenez en arrière  ;D
Titre: Re : Des rumeurs!
Posté par: ergodea le mars 01, 2020, 09:42:39
Quand le 45mp est sorti, j'ai lu que la différence en définition est loin d'être conséquente et que les optiques étaient "meilleures". Et là tout à coup ce serait moins bon alors que le passage n'est pas moins conséquent? pas sûre de bien comprendre!
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 01, 2020, 09:45:12
L' Avantage avec un 60 ou mieux 100mpix c'est qu'il suffira d'un très bon 14-15mm pour croper jusqu’à 300mm. Le cadrage n'aura plus d'importance il se fera en post production et avec un super grand angle la Pdc sera infinie. Donc 1 boitier+ 1 objectif suffiront.

En fait, non.
Titre: Re : Re : Re : Des rumeurs!
Posté par: Sebmansoros le mars 01, 2020, 10:19:28
J'ai du mal à imaginer la photo de cette manière.

Sinon de façon plus légère, 36 mpx représentent l'équilibre parfait :
- 3x6 = 18 et 1+8=9
- 3+6 = 9
9 étant divin car 3 fois la trinité, là on touche le Nirvana ultime...les champs Elyséens sans aucune mauvaise herbe  ;D ;D ;D

Voilà c'est parfait, Nikon ne touchez plus à rien et revenez en arrière  ;D

Divin, trinité, ça existe encore ça?
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: GLR30 le mars 01, 2020, 10:47:05
En fait, les capteurs actuels sont loin d'exploiter à fond une optique ayant un pouvoir séparateur de 100 pdl/mm (ce qui correspond en effet à un objectif limité par la diffraction à f/5.6, un peu plus ou un peu moins selon le critère choisi pour définir le pouvoir séparateur).

Pour exploiter 100 pdl/mm, il faut au minimum 200 pixels par mm (critère de Shannon). En matrice de Bayer (1 pixel = 2x2 photosites), cela fait 400 photosites par mm.

400 photosites par mm font un total de 138 millions de photosites sur un capteur de 24x36 mm ("138 M pixels" selon les publicités des fabricants).

Comme on est encore en dessous, on continue de constater une amélioration de la résolution à mesure que la densité de photosites des capteurs augmente.

Je suis bien d’accord sur le fait que les performances des objectifs ne sont pas entièrement exploitées actuellement, même sur les capteurs ayant la plus grande définition.
Il en avait été question dans ce fil où j’évoquais que mes téléobjectifs utilisés en lunettes d’observation (avec oculaire et prisme redresseur) montraient bien plus de détails que n’en révélait le visionnement à 100% des images fournies par les D810/7200 :
https://www.chassimages.com/forum/index.php?topic=274345.0
D’ailleurs l’observation de l’image en live view à 100% montre déjà bien plus de détails que la photo finale traitée et observée à 100% des pixels*. Il y a beaucoup de pertes en bout de chaîne.
*il est vrai que mon écran est un « standard » en 1920px/96dpi
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: al646 le mars 01, 2020, 10:59:54
Il va juste falloir changer ses habitudes, (on n'est pas toujours en GA pour du paysage et si on a un sujet en avant plan, à f/5.6 la PDC n'est pas suffisante)  et enfin pour la macro, cela risque d'être plus compliqué à f/5.6
Ceci-dit, le focus stacking peut aider pour certains

C'est franchement n'importe quoi, si la diffraction se manifeste à 6,3 il suffit de rester à 5,6 pour avoir beaucoup plus de détails sur un capteur de 60 Mpx que sur un capteur de 24 Mpx dès lors que le pouvoir séparateur de l'objectif est supérieur à 100 paires de lignes/mm. Et pour la profondeur de champ un grand angle assez de profondeur de champ à 5,6 pour la plupart des photos classiques de paysages.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 01, 2020, 11:08:09
Pour exploiter 100 pdl/mm, il faut au minimum 200 pixels par mm (critère de Shannon). En matrice de Bayer (1 pixel = 2x2 photosites), cela fait 400 photosites par mm.

Heureusement, non.

C'est vrai dans l'hypothèse où tu viendrais superposer au motif du capteur un motif géométrique répétitif : là, il faudrait respecter Shannon, effectivement.

Dans le cas d'un motif non répétitif (ou, du moins, à fréquence faible), tu arrives sans problème à discriminer un détail qui fait 1 pixel de large...


Ci-dessous, image non dématricée à gauche, et dématricée à droite (visualisation 300%).
Titre: Re : Re : Re : Des rumeurs!
Posté par: seba le mars 01, 2020, 11:36:21
Mais qu'il est con  :D

Une longueur d'onde ne serait-elle plus exprimée en fractions de micron ?

Il est toujours savoureux de voir Jean-Claude parler de ce qu'il ne connaît pas (en l'occurrence la diffraction).

Les rayons des étoiles proviennent des angles entre deux lamelles, plus cet angle est net et petit plus le rayon de diffraction deviemt précis et visible. Les diaphs modernes à angles arrondis ne font que dificilement des étoiles, des diaphs à l'ancienne avec des angles bien net en font facilement
Titre: Re : Re : Re : Des rumeurs!
Posté par: 55micro le mars 01, 2020, 11:40:05
J'ai du mal à imaginer la photo de cette manière.

Sinon de façon plus légère, 36 mpx représentent l'équilibre parfait :
- 3x6 = 18 et 1+8=9
- 3+6 = 9
9 étant divin car 3 fois la trinité, là on touche le Nirvana ultime...les champs Elyséens sans aucune mauvaise herbe  ;D ;D ;D

Voilà c'est parfait, Nikon ne touchez plus à rien et revenez en arrière  ;D

Encore mieux, le D750, 7+5=12, 2+1=3, la Trinité direct!

Alors que le D780... 7+8=15, 5+1=6, trois D780=666, vade retro Satanas  :D
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 01, 2020, 12:11:32
Je suis bien d’accord sur le fait que les performances des objectifs ne sont pas entièrement exploitées actuellement, même sur les capteurs ayant la plus grande définition.
Il en avait été question dans ce fil où j’évoquais que mes téléobjectifs utilisés en lunettes d’observation (avec oculaire et prisme redresseur) montraient bien plus de détails que n’en révélait le visionnement à 100% des images fournies par les D810/7200.

On peut voir ça ci-dessous par exemple.
Attention : l'ouverture de l'objectif de reprise doit être au moins aussi grande que celle de l'objectif primaire (et il doit être de bien meilleure qualité).
Titre: Re : Re : Des rumeurs!
Posté par: bretillien le mars 01, 2020, 19:15:21
En fait, non.
;)
Mais en croppant non.
Bien sûr je plaisantais ;) je ne pense pas que l'on puisse faire beaucoup mieux qu'avec ce qui existe déjà
Titre: Re : Re : Re : Des rumeurs!
Posté par: Fred_G le mars 01, 2020, 19:53:35
;)Bien sûr je plaisantais ;) je ne pense pas que l'on puisse faire beaucoup mieux qu'avec ce qui existe déjà
Dis pas ça malheureux : y' en a plein qui pensent encore que leurs photos seront meilleures avec le prochain boîtier qui sortira !
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 01, 2020, 19:56:20
Dis pas ça malheureux : y' en a plein qui pensent encore que leurs photos seront meilleures avec le prochain boîtier qui sortira !

Encore heureux qu'elles le seront !
Titre: Re : Re : Des rumeurs!
Posté par: Fred_G le mars 01, 2020, 19:59:34
Encore heureux qu'elles le seront !
Mais bien sûr 😁
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 01, 2020, 20:03:31
Mais bien sûr 😁

C'est inévitable, et c'est valable aussi bien chez Nikon que chez Leica, etc.

(regarde l'enthousiasme de Benaparis avec son tout nouveau M10 monochrome, par exemple)
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 01, 2020, 20:12:09
La matrice de Bayer réduit la résolution en chrominance mais pas en luminance, pour cette dernière on a bien un pixel= un photosite. C'est à elle que correspond la résolution du capteur.
Ai-je loupé quelque chose ?
Non, un photosite n'est jamais égal à un pixel.

Suppose que tu connaisses la valeur d'un photosite, par exemple le site Bleu au milieu du capteur est illuminé à 18%. Cela ne te donne pas la valeur de luminance au milieu du capteur:


Une image bleue sombre saturée et une image jaune très clair quasi saturé produisent exactement la même valeur sur le photosite bleu, et ont des luminances (et des chroma) très différentes.

D'un point de vue numérique, la luminance (de l'espace luminance/chrominance YUV) se calcule à partir des valeurs RVB de la façon suivante:

L= 0.299 R + 0.587 V + 0.114 B

On voit bien qu'il est impossible de calculer la luminance sans connaître R, V et B.
Titre: Re : Des rumeurs!
Posté par: Fred_G le mars 01, 2020, 20:15:11
C'est inévitable, et c'est valable aussi bien chez Nikon que chez Leica, etc.

(regarde l'enthousiasme de Benaparis avec son tout nouveau M10 monochrome, par exemple)
Oui, mais Ben maîtrisait déjà la génération N-1, donc il est capable d'exploiter le gain "marginal" apporté par la nouveauté.

Personnellement, j'ai plus à gagner à m'améliorer qu'à changer de matériel (quelle que soit la marque). Je ne suis certainement un cas isolé 😁
Titre: Re : Des rumeurs!
Posté par: namzip le mars 01, 2020, 20:25:36
Je suis largué avec cette histoire de 4 photo-sites pour 1 pxiel. ???
Mon boitier a un capteur de 20 Mp c’est à dire 80 Mp de photo-sites?
Quand on parle de la taille d’un photo site en micron, c’est bien la largeur du capteur divisée par le nombre.
Par exemple mon boitier c’est 6000 pixels sur 36 mm soit des photo-sites d’environ 6 microns ou pour 4 ps pour 1 pix un ps de 1,5 micron.
Titre: Re : Des rumeurs!
Posté par: kochka le mars 01, 2020, 20:36:08
¨Pour simplifier, chaque "cellule de capture" est utilisée pour 1/4 des 4 pixels restitués grâce à elle et aux trois autres "cellules de capture" adjacentes.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 01, 2020, 20:39:34
Je suis largué avec cette histoire de 4 photo-sites pour 1 pxiel. ???
Mon boitier a un capteur de 20 Mp c’est à dire 80 Mp de photo-sites?
Quand on parle de la taille d’un photo site en micron, c’est bien la largeur du capteur divisée par le nombre.
Par exemple mon boitier c’est 6000 pixels sur 36 mm soit des photo-sites d’environ 6 microns ou pour 4 ps pour 1 pix un ps de 1,5 micron.

Sur les APN à matrice de Bayer, 1 photosite = 1 pixel.

Pour un APN monochrome comme le tout dernier Leica M10m, c'est rigoureusement le cas (bijection). Quand il s'agit d'un appareil couleur, chaque photosite n'enregistre la luminance que derrière un filtre R, V ou B (c'est la matrice de Bayer). La couleur devra donc être reconstituée logiciellement, par voisinage.



Bien sûr, il ne faut pas quatre photosites pour constituer un pixel (en luminance, c'est faux, et en chrominance aussi, d'ailleurs). La copie d'écran que j'ai montrée au post #145 montre clairement que l'appareil est capable de reproduire sans problème un motif de 1 pixel de large.
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 01, 2020, 23:12:10
Je suis largué avec cette histoire de 4 photo-sites pour 1 pxiel. ???
Mon boitier a un capteur de 20 Mp c’est à dire 80 Mp de photo-sites?
Quand on parle de la taille d’un photo site en micron, c’est bien la largeur du capteur divisée par le nombre.
Par exemple mon boitier c’est 6000 pixels sur 36 mm soit des photo-sites d’environ 6 microns ou pour 4 ps pour 1 pix un ps de 1,5 micron.

Ton boîtier a 20 millions de photosites: 5 millions rouges, 5 millions bleus et  10 millions verts (il y a davantage de verts pour améliorer la sensibilité dans les verts-jaunes, plus importants pour la vision humaine).

Un pixel trichrome (la discussion ne porte pas sur les capteurs monochromes) est composé des trois informations Rouge, Vert, Bleu, ou de façon équivalente des 3 informations TSL, ou des 3 informations YUV, etc.

Un photosite rouge ou vert ou bleu (1 seule information) n'est donc pas un pixel trichrome (trois informations).

Luminance
On passe de RVB à la luminance L par:
L= 0.299 R + 0.587 V + 0.114 B

Il faut donc bien les trois informations R et V et B pour calculer la luminance d'un pixel.

Intuitivement, il suffit de réaliser qu'une valeur basse de photosite Bleu peut correspondre à une couleur couleur jaune assez saturée et très lumineuse, ou bien à une couleur bleue sombre complètement saturée, ou encore à n'importe quelle intermédiaire.

Ou encore, une valeur basse sur les verts peut correspondre à une couleur magenta assez saturée très lumineuse ou à un vert saturé sombre, etc..

Par conséquent, la connaissance d'un photosite ne donne pas la connaissance d'un pixel. Il ne peut  pas y avoir plus de pixels indépendants que de photosites R indépendants (ou de photosites B ou V). Ton capteur a donc 5 millions de pixels et c'est très suffisant dans la plupart des cas.

Interpolation
Les fabricants de capteurs prétendent que chaque photosite est équivalent à un pixel, donc nomment "20 Mpix" un capteur de 20 M sites, ce qui permet de multiplier la spec par 4 pour pas cher, mais n'a évidemment aucun sens physique.
En conséquence, ils interpolent les 5 millions de vrais pixels à 20 millions pour sortir le nombre de pixels annoncé, mais bien sûr ce n'est que de l'interpolation: les détails de taille inférieure au vrai pixel (2x2 photosites) sont soit perdus soit mal restitués, ce qui crée des artefacts comme ceux du post #132.

Remarque
La visualisation sur écran pourrait souffir du même problème: un pixel écran étant constitué de 3 points lumineux R V B, les fabricants pourraient gonfler la spec en prétendant par exemple qu'un écran HD (1920 x 1080 pixels) a 1920x3= 5760 pixels en largeur.
Heureusement, ils ne sont pas tombés dans le même travers.

Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 01, 2020, 23:15:39

Bien sûr, il ne faut pas quatre photosites pour constituer un pixel (en luminance, c'est faux, et en chrominance aussi, d'ailleurs). La copie d'écran que j'ai montrée au post #145 montre clairement que l'appareil est capable de reproduire sans problème un motif de 1 pixel de large.
Bien sûr que si.
La luminance, par exemple, est égale à: L= 0.299 R + 0.587 V + 0.114 B.
Sauf à inventer de l'information, la connaissance d'un photosite (R ou V ou B) ne donne donc pas la luminance à cet endroit (ni la chrominance, évidemment).

Ton exemple #145 ne démontre certainement pas la reproduction d'un motif d'un photosite de large.

D'une part, tu as escamoté les deux tiers du problème en convertissant l'image finale (à droite) en noir et blanc  ;D ;D, ce qui élimine tous les artefacts colorés... mais on n'a plus d'information de teinte ni de saturation, donc exit la reproduction de la scène.

Même comme cela, les traits verticaux noir sur fond blanc dans la partie inférieure gauche de l'image finale ne sont certainement pas la reproduction de la scène réelle:

Cette copie d'écran n'est donc pas une reproduction, même en se ramenant au noir et blanc qui nécessite trois fois moins d'information.

On peut bien sûr détecter des détails aussi petits qu'on veut, il suffit qu'ils émettent quelques photons vers un photosite. Mais pour reproduire une scène, il faut respecter le critère de Shannon, comme dans n'importe quel système échantillonné.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 01, 2020, 23:17:16
Je reprends le test du D850 avec des valeurs numériques qui illustrent bien la différence entre photosite et pixel. (test DPreview https://www.dpreview.com/reviews/nikon-d850/8 ):
(https://i.goopics.net/K1JoY.jpg)

La mire de DP Review est constituée de 9 traits noirs sur fond blanc (soit 9 paires de lignes) qui se resserrent. Le nombre de paires de lignes par mm est à peu près égal au double du nombre affiché.

(par exemple, à la graduation 44, les 9 paires de lignes s'étendent sur une hauteur de 25 pixels de l'image totale de 5500 pixels de haut. (voir https://www.dpreview.com/reviews/nikon-d850/8 ). Puisque 5500 pixels représentent 24 mm (hauteur du capteur), 25 pixels représentent environ 0.1 mm).

A la graduation 44, nous avons donc 9 paires de lignes pour 0.1 mm, soit 90 paires de lignes par mm.

Le D850 a des photosites de 4,35 microns, soit 230 photosites par mm.

Si on avait "1 photosite = 1 pixel", le D850 aurait 230 pixels par mm; il pourrait donc reproduire une structure ayant 230/2 = 115 paires de lignes par mm. On voit bien que ce n'est pas le cas, il y a déjà beaucoup de moiré à 90 pdl/mm.

Titre: Re : Des rumeurs!
Posté par: jenga le mars 01, 2020, 23:23:52
Merci!
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 00:28:59
Bien sûr que si.
La luminance, par exemple, est égale à: L= 0.299 R + 0.587 V + 0.114 B.
Sauf à inventer de l'information, la connaissance d'un photosite (R ou V ou B) ne donne donc pas la luminance à cet endroit (ni la chrominance, évidemment).

Ton exemple #145 ne démontre certainement pas la reproduction d'un motif d'un photosite de large.

D'une part, tu as escamoté les deux tiers du problème en convertissant l'image finale (à droite) en noir et blanc  ;D ;D, ce qui élimine tous les artefacts colorés... mais on n'a plus d'information de teinte ni de saturation, donc exit la reproduction de la scène.

Même comme cela, les traits verticaux noir sur fond blanc dans la partie inférieure gauche de l'image finale ne sont certainement pas la reproduction de la scène réelle:
  • le premier trait est dédoublé en bas avec un trait fin à gauche, puis, en montant, est dédoublé avec un trait fin à droite, puis se regroupe
  • le trait suivant est initialement simple, puis se dédouble
  • etc.

Cette copie d'écran n'est donc pas une reproduction, même en se ramenant au noir et blanc qui nécessite trois fois moins d'information.

On peut bien sûr détecter des détails aussi petits qu'on veut, il suffit qu'ils émettent quelques photons vers un photosite. Mais pour reproduire une scène, il faut respecter le critère de Shannon, comme dans n'importe quel système échantillonné.

Une image vaut mieux qu'un long discours.

Elle ne date pas d'hier : c'est une photo faite au D810, illustrant une discussion dans laquelle certains intervenants essayaient de convaincre l'auditoire que le boitier avait une définition de 36/4 = 9 MPixels... on voit clairement des détails faisant 1 pixel de large*, que tu le veuilles ou non. Ce qui montre clairement la non pertinence d'évoquer Shannon ici, entre autre.

Et pas d'escamotage lié au côté monochrome de l'image (lié à l'utilisation de IRIS). Demain midi, si j'ai le temps, je posterai la version couleur (l'image est sur les DD du club photo).


*et aucun hasard : les lignes verticales, on les voit toutes.
Titre: Re : Re : Re : Des rumeurs!
Posté par: seba le mars 02, 2020, 07:47:52
Interpolation
Les fabricants de capteurs prétendent que chaque photosite est équivalent à un pixel, donc nomment "20 Mpix" un capteur de 20 M sites, ce qui permet de multiplier la spec par 4 pour pas cher, mais n'a évidemment aucun sens physique.
En conséquence, ils interpolent les 5 millions de vrais pixels à 20 millions pour sortir le nombre de pixels annoncé, mais bien sûr ce n'est que de l'interpolation: les détails de taille inférieure au vrai pixel (2x2 photosites) sont soit perdus soit mal restitués, ce qui crée des artefacts comme ceux du post #132.

Je ne pense pas que ce soit aussi basique. Le dématriçage fait appel à des algorithmes très évolués.
Et les différents dématriceurs n'arrivent pas aux mêmes résultats (certains donneront des artefacts dans cerrtains cas, d'autres non).
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 08:14:30
Je ne pense pas que ce soit aussi basique. Le dématriçage fait appel à des algorithmes très évolués.

Bien évidemment.

(jenga nous mélange un peu tout, là...)
Titre: Re : Des rumeurs!
Posté par: namzip le mars 02, 2020, 09:25:01
Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n’aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n’aurait que 6 Mp.
Et mon D800 seulement 9 Mp.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 09:43:24
Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n’aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n’aurait que 6 Mp.
Et mon D800 seulement 9 Mp.

Sois rassuré : ton D500 a bien 20 MPixels, ton D600 24 MPixels et ton D800 36 MPixels...  ;-)


Pour faire simple, on dira juste que les couleurs sont un peu chahutées : en effet, chaque photosite n'en voit qu'une à chaque fois (R, V ou B), mais c'est un inconvénient mineur, l’œil étant beaucoup moins sensible à la chrominance qu'à la luminance (c'est en partie là-dessus que repose les algorithmes Jpeg).
Titre: Re : Des rumeurs!
Posté par: Rami le mars 02, 2020, 09:58:57
Pour faire simple pour manzip.
A la fin, on a bien un pixel par photosite.
Au départ, pour chaque photosite, on n'a qu'une information, R, V ou B.
Pour avoir l'information complète, et donc autant de pixels que de photosites, on reconstitue les deux canaux manquants à partir des photosites voisins.
Par exemple, pour un photosite R, on reconstitue la valeur de V (ou de B) à partir des valeurs des photosites V (ou B) voisins.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 10:11:49
Pour faire simple, on dira juste que les couleurs sont un peu chahutées : en effet, chaque photosite n'en voit qu'une à chaque fois (R, V ou B), mais c'est un inconvénient mineur, l’œil étant beaucoup moins sensible à la chrominance qu'à la luminance (c'est en partie là-dessus que repose les algorithmes Jpeg).

Oups... que reposent, bien sûr.
Titre: Re : Re : Des rumeurs!
Posté par: restoc le mars 02, 2020, 10:13:39
Bien évidemment.

(jenga nous mélange un peu tout, là...)

C'est effectivement le danger de penser qu'on résout  la Fonction globale de Transfert ( PSP Point Spread Function) d'un système ( optique+ boîtier) à un comptage arithmétique de photosites vs pixels ( ou de photons vs ADC  en oubliant les opérations d'offset et d'amplification );D ;D).

Pour le photographe il faudrait ne parler que de  PSP Point Spread Function globale qui est la convolution le la lumière de la scène entrante par un ensemble d'avatars - échantillonnage en photosites discrets, diffraction et transmission de l'optique, flitres, flous de focus et flous de bougé et résidus de dématriçage -  pour faire trés simple ;D ;D

Globalement en photo on a bien au total dans les conditions ad hoc: nb de photosites=nb depixel=nb d'information différentes d'un pixel à l'autre. Si ce n'était pas le cas les procés seraient nombreux .... Reste le cas des moirés prés de Nyquist qui peuvent être plus ou moins bien traités par un dématriceur standard. Se référer à un seul dématriceur ( DPR ou autre) ne permet pas de qualifier un capteur aux conditions limites : les dématriceurs ne sont volontairement pas optimisés pour le seul gain en FTM ( sauf peut être pour les Monochromes Leica) : on change juste les fréquences de moirés et on créerait d'autres interférences visibles.

Actuellement les constructeurs n'utilisent pas l'arme lourde de la déconvolution et se contentent du seul dématriçage disons arithmétique. 
Reconstituer la PSP d'un système optique capteur pour faire la déconvolution du raw et retrouver à peu prés exactement l'image  de la source ponctuelle -si on aime l'image du CDC- est monnaie courante: couramment en microscopie, métrologie, médical surtout,  remote sensing satellite, ... Le seul pb étant 1/ il faut qualifier chaque couple optique -boîtier individuellement si possible) 2/ Il faut qq part ( boitier ou logiciel en PT) une grosse puissance de calcul.
Plus le capteur échantillonne finement l'image convoluée plus le résultat de la déconvolution restituera de résolution à une FTM donnée.

Bref on tirera bénéfice de 100 Mpix et plus sans pb avec les bons outils.
Titre: Re : Re : Des rumeurs!
Posté par: JMS le mars 02, 2020, 11:53:50
Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n’aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n’aurait que 6 Mp.
Et mon D800 seulement 9 Mp.

Si ton D800 n'avait que 9 "vrais" megapixels il ne pourrait pas voir plus de détails qu'un film argentique de bonne qualité dont le pouvoir séparateur des détails équivaut à environ 8 Mpxl en 24 x 36. Si tel est le cas ce n'est parce qu'il a un capteur bridé...mais parce que l'objectif est une poubelle  ;D ;D ;D
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 02, 2020, 12:00:53
.
Titre: Re : Re : Des rumeurs!
Posté par: bretillien le mars 02, 2020, 12:01:25
Oui, mais Ben maîtrisait déjà la génération N-1, donc il est capable d'exploiter le gain "marginal" apporté par la nouveauté.

Personnellement, j'ai plus à gagner à m'améliorer qu'à changer de matériel (quelle que soit la marque). Je ne suis certainement un cas isolé 😁
En tous cas pour moi aussi ma marge d’amélioration personnelle est supérieure à ce que pourrait m'apporter un matériel dernier cri.

Je vais utiliser une métaphore en cyclisme: si l'on à 10kg de trop par rapport à son poids de forme optimal rien ne sert de remplacer son vélo déjà performant par un vélo dernier cri l'amélioration chronos serait à la marge!
Titre: Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 02, 2020, 12:04:39
Si ton D800 n'avait que 9 "vrais" megapixels il ne pourrait pas voir plus de détails qu'un film argentique de bonne qualité dont le pouvoir séparateur des détails équivaut à environ 8 Mpxl en 24 x 36. Si tel est le cas ce n'est parce qu'il a un capteur bridé...mais parce que l'objectif est une poubelle  ;D ;D ;D
J'imagine qu'avec la même "logique" le D850 a 45 Mpx selon toi, soit 230 pixels par mm.

Peux-tu alors m'expliquer pourquoi il ne reproduit pas correctement un motif ayant seulement 90 paires de lignes par mm?


https://www.dpreview.com/reviews/nikon-d850/8 ):
(https://i.goopics.net/K1JoY.jpg)

Les faits sont têtus.
Titre: Re : Des rumeurs!
Posté par: Tonton-Bruno le mars 02, 2020, 12:07:13
Moi c'est le contraire.
Cela fait plus de dix ans maintenant que je constate que non seulement je ne m'améliore pas, mais que je régresse.
Je suis moins attentif à ce qui m'entoure, moins motivé, moins curieux, plus distrait et plus négligent quand je photographie, moins précis dans mes gestes.
Pour le moment l'excellence du matériel compense la médiocrité de son utilisateur, mais je sens bien que ça ne va pas durer !
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 02, 2020, 12:11:08
Je ne pense pas que ce soit aussi basique. Le dématriçage fait appel à des algorithmes très évolués.
Et les différents dématriceurs n'arrivent pas aux mêmes résultats (certains donneront des artefacts dans cerrtains cas, d'autres non).

L'interpolation n'est pas basique, je n'ai jamais dit ça. En revanche, aucune interpolation ne permet de retrouver une information perdue à cause du sous-échantillonnage. C'est pour cela que les photosites ne sont pas des pixels et que des artefacts surviennent lorsque l'image comporte des structures plus fines que 2x2 photosites.
Titre: Re : Re : Des rumeurs!
Posté par: bretillien le mars 02, 2020, 12:11:14
Je suis encore plus noyé.  ??? ??? ???
Mon Nikon D500 n’aurait donc que 5 Mp.
Mon D600 qui prétend avoir une résolution capteur de 6000 pix x 4000 n’aurait que 6 Mp.
Et mon D800 seulement 9 Mp.

Effectivement c'est une désillusion pour nous comme pour ceux qui croyaient que la terre était ronde 10% seulement (les platistes) connaissent la réalité des choses https://www.nationalgeographic.fr/sciences/un-francais-sur-10-pense-que-la-terre-est-plate
 
Un américain meurt en tentant de prouver que la terre est plate https://www.20minutes.fr/monde/2725375-20200224-americain-meurt-voulant-prouver-terre-plate   c'est un peu idiot car tout le monde le sait ;D
Titre: Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 02, 2020, 12:16:40
Effectivement c'est une désillusion pour nous comme pour ceux qui croyaient que la terre était ronde 10% seulement (les platistes) connaissent la réalité des choses https://www.nationalgeographic.fr/sciences/un-francais-sur-10-pense-que-la-terre-est-plate
 
Un américain meurt en tentant de prouver que la terre est plate https://www.20minutes.fr/monde/2725375-20200224-americain-meurt-voulant-prouver-terre-plate   c'est un peu idiot car tout le monde le sait ;D
En qualité de grand scientifique, tu vas sans doute pouvoir m'expliquer comment un capteur à 230 "pixels" par mm moire sur une mire de 90 paire de lignes par mm?

https://www.dpreview.com/reviews/nikon-d850/8 ):
(https://i.goopics.net/K1JoY.jpg)

Sinon, tu peux garder tes comparaisons injurieuses pour toi, histoire de garder un peu de dignité.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 12:33:24
Et pas d'escamotage lié au côté monochrome de l'image (lié à l'utilisation de IRIS). Demain midi, si j'ai le temps, je posterai la version couleur (l'image est sur les DD du club photo).

Comme promis, la version couleur (visualisation 300%), non escamotée, donc :


(et on voit toujours les motifs de 1 pixel de large, bien sûr)
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 12:36:05
J'imagine qu'avec la même "logique" le D850 a 45 Mpx selon toi, soit 230 pixels par mm.

Peux-tu alors m'expliquer pourquoi il ne reproduit pas correctement un motif ayant seulement 90 paires de lignes par mm?


https://www.dpreview.com/reviews/nikon-d850/8 ):
(https://i.goopics.net/K1JoY.jpg)

Les faits sont têtus.

Tu n'as donc pas entendu parler de la matrice de Bayer ?

Ce que tu vois là, c'est le "repliement" de l'interpolation en chrominance. Et, comme déjà évoqué, rien à voir avec une matrice de 2x2...
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 02, 2020, 13:17:47
L'interpolation n'est pas basique, je n'ai jamais dit ça. En revanche, aucune interpolation ne permet de retrouver une information perdue à cause du sous-échantillonnage. C'est pour cela que les photosites ne sont pas des pixels et que des artefacts surviennent lorsque l'image comporte des structures plus fines que 2x2 photosites.

Pourquoi alors avec certaines méthodes on a des artefacts et avec d'autres non, pour une même image ?
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: JMS le mars 02, 2020, 13:39:24
J'imagine qu'avec la même "logique" le D850 a 45 Mpx selon toi, soit 230 pixels par mm.
(...)
Les faits sont têtus.

Le D850 a zéro pixel au millimètre, car le pixel est une unité d'image informatique. En revanche il a bien 230 photosites au millimètre linéaire, soit une Ropt (résolution optique) de 115 paires de lignes au mm, dont les informations du luminance après dématriçage fourniront 45 millions de pixels dans le fichier. Or le moiré se produit si le pouvoir séparateur de l'objectif est trop élévé pour le capteur, rien ne permet d'affirmer que l'objectif utilisé sur un sujet à haut contraste (du noir et du blanc epicétou du mire style USAF) n'a pas un pouvoir séparateur supérieur à 115 paires de lignes au mm, en argentique sur film Technical Pan certains arrivaient au maxi du film, soit 160 paires de lignes quand un film diapo en contraste moyen calait autour de 50 paires de lignes. Quand du moiré se produit, certains logiciels arrivent à le contourner, d'autres non.
Titre: Re : Des rumeurs!
Posté par: JMS le mars 02, 2020, 13:41:37
Sinon je confirme que grâce aux derniers traitements de correction des grands angles il est possible de prouver que la terre est plate...quand je photographiais un horizon sur la mer dans les années 60 avec mon 24 mm, l'objectif me prouvait la rotondité de la terre. Maintenant avec mon dernier zoom 14-24, je vois bien qu'elle est plate...les faits sont tétus  ;D ;D ;D
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 13:44:43
Le D850 a zéro pixel au millimètre, car le pixel est une unité d'image informatique.

C'est une notion qui, en effet, échappe à beaucoup de monde.

Le pixel est une unité abstraite, la brique de base de l'image numérique (contraction de Pixel + Element).

Or le moiré se produit si le pouvoir séparateur de l'objectif est trop élévé pour le capteur, rien ne permet d'affirmer que l'objectif utilisé sur un sujet à haut contraste (du noir et du blanc epicétou du mire style USAF) n'a pas un pouvoir séparateur supérieur à 115 paires de lignes au mm, en argentique sur film Technical Pan certains arrivaient au maxi du film, soit 160 paires de lignes quand un film diapo en contraste moyen calait autour de 50 paires de lignes. Quand du moiré se produit, certains logiciels arrivent à le contourner, d'autres non.

En ce qui concerne le moiré, il convient, pour plus de clarté, de discerner celui en luminance de celui en chrominance.

Le moiré en luminance est intrinsèque au numérique : avec un motif périodique ayant une fréquence supérieure à fe/2* (fe étant la fréquence d'échantillonnage spatiale du capteur, la "grille" composée par les photosites), il se produira invariablement, quelle que soit la technologie du capteur (Bayer, Foveon, Monochrome, etc).

Le moiré en chrominance est celui provoqué par l'interpolation des couleurs pour la matrice de Bayer. C'est, je trouve, le plus gênant. Par contre, comme le montrent les exemples postés par seba au post #182, il dépendra fortement de l'algorithme utilisé pour le dématriçage (l'interpolation couleur). J'imagine qu'il est difficile de trouver un algorithme qui soit le plus efficace possible sur tous les critères...

Le moiré en chrominance n'existe pas pour les capteurs Foveon ou monochromes.


*fréquence de Nyquist.
Titre: Re : Des rumeurs!
Posté par: jdm le mars 02, 2020, 14:14:26
 Moi ce que je remarque dans les test DPR, pour des capteurs à peu près équivalent, Aps-c et environ 24 MPx, c'est que certains engendre une espèce de bavure en chrominance et d'autre pas.

 Après je n'ai pas d'explications, peut-être quelqu’un en a une, et puis dans la réalité hors test je ne suis pas sûr qu'il y ait une grosse importance non plus, mais bon ...

(https://i.imgur.com/poySg3I.png)
Titre: Re : Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 14:17:02
Moi ce que je remarque dans les test DPR, pour des capteurs à peu près équivalent, Aps-c et environ 24 MPx, c'est que certains engendre une espèce de bavure en chrominance et d'autre pas ...

 Après je n'ai pas d'explications, peut-être quelqu’un en a une, et puis dans la réalité hors test je ne suis pas sûr qu'il y ait une grosse importance non plus .

(https://i.imgur.com/poySg3I.png)

Difficile à dire... dans le cas du D7200, on dirait de l'AC (cf chiffres) ?


Après, il faut peut-être voir du côté de la matrice du X-T3 (X-Trans), fondamentalement différente de celle du D7200 ?

(Fuji a toujours vanté les qualités du X-Trans face au moiré...)
Titre: Re : Des rumeurs!
Posté par: jdm le mars 02, 2020, 14:20:03

 C'est possible ...
Titre: Re : Des rumeurs!
Posté par: Col Hanzaplast le mars 02, 2020, 14:22:01
Officiellement le X-TRAN réduit le moiré par absence de filtre passe-bas. On gagne juste un peu de moquette à la Saint Médard...  :laugh:
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 14:25:04
Officiellement le X-TRAN réduit le moiré par absence de filtre passe-bas.

Heu... l'absence de filtre passe-bas ne peut qu’augmenter le moiré, par définition.

(le rôle du filtre passe-bas, c'est justement de diminuer le moiré : il s'appelle aussi anti-aliasing...)

On gagne juste un peu de moquette à la Saint Médard...  :laugh:

C'est un peu ce que j'évoquais plus haut : on ne gagne pas toujours sur tous les critères...
Titre: Re : Des rumeurs!
Posté par: Col Hanzaplast le mars 02, 2020, 14:26:20
C'est exactement ce que j'étais en train de me dire en écrivant mon message, donc c'est l'inverse...  8)
Titre: Re : Des rumeurs!
Posté par: jdm le mars 02, 2020, 14:30:44
 Aucuns n'ont de filtre passe-bas, il me semble ... J'ai comme l'impression que ça vient d'un traitement du moiré .

(https://i.imgur.com/7T6SAVY.png)

 Le Z n'y échappe pas ...
Titre: Re : Des rumeurs!
Posté par: namzip le mars 02, 2020, 14:35:36
Merci pour toutes ces précisions. :)
Pixel pour Picture Element sans doute...
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 02, 2020, 14:41:08
Pixel pour Picture Element sans doute...

Oui, bien sûr...  ;-)
Titre: Re : Re : Re : Des rumeurs!
Posté par: kochka le mars 02, 2020, 15:00:03
Effectivement c'est une désillusion pour nous comme pour ceux qui croyaient que la terre était ronde 10% seulement (les platistes) connaissent la réalité des choses https://www.nationalgeographic.fr/sciences/un-francais-sur-10-pense-que-la-terre-est-plate
 
Un américain meurt en tentant de prouver que la terre est plate https://www.20minutes.fr/monde/2725375-20200224-americain-meurt-voulant-prouver-terre-plate   c'est un peu idiot car tout le monde le sait ;D
Les grandes découvertes ont toujours eu leurs héros malheureux.  ;)
Titre: Re : Re : Re : Des rumeurs!
Posté par: namzip le mars 02, 2020, 15:13:57
Effectivement c'est une désillusion pour nous comme pour ceux qui croyaient que la terre était ronde 10% seulement (les platistes) connaissent la réalité des choses https://www.nationalgeographic.fr/sciences/un-francais-sur-10-pense-que-la-terre-est-plate
 
Un américain meurt en tentant de prouver que la terre est plate https://www.20minutes.fr/monde/2725375-20200224-americain-meurt-voulant-prouver-terre-plate   c'est un peu idiot car tout le monde le sait ;D

Je n’ai pas compris ton intervention, tu me prends pour un débile ?
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: bretillien le mars 02, 2020, 15:59:33
Je n’ai pas compris ton intervention, tu me prends pour un débile ?
Mais bien sûr que non, un peu d'humour ne nuit pas comme dirait un ancien président ;)
Titre: Re : Re : Des rumeurs!
Posté par: Alain Clément le mars 02, 2020, 18:03:05
Moi c'est le contraire.
Cela fait plus de dix ans maintenant que je constate que non seulement je ne m'améliore pas, mais que je régresse.
Je suis moins attentif à ce qui m'entoure, moins motivé, moins curieux, plus distrait et plus négligent quand je photographie, moins précis dans mes gestes.
Pour le moment l'excellence du matériel compense la médiocrité de son utilisateur, mais je sens bien que ça ne va pas durer !

ha ouai quand meme .... :o :o :o
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 03, 2020, 08:42:05
Comme promis, la version couleur (visualisation 300%), non escamotée, donc :

(et on voit toujours les motifs de 1 pixel de large, bien sûr)
Oui, on voit des traits qui se dédoublent, qui se tripliquent puis se resserrent, caractéristiques d'une acquisition sous-échantillonnée. Cette image n'est en aucun cas la reproduction de l'image qui était formée par l'optique sur le capteur.

On peut détecter sans aucun problème une structure aussi petite qu'on veut, il suffit qu'elle ait suffisamment d'énergie pour envoyer quelques photons sur un photosite. Sa taille ne compte pas, seule sont énergie importe.

Pour reproduire, c'est-à-dire obtenir une image identique à l'image formée sur le capteur, il faut respecter les conditions de Shannon; ce n'est pas le cas de cette image.
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 03, 2020, 08:45:07
J'imagine qu'avec la même "logique" le D850 a 45 Mpx selon toi, soit 230 pixels par mm.

Peux-tu alors m'expliquer pourquoi il ne reproduit pas correctement un motif ayant seulement 90 paires de lignes par mm?


https://www.dpreview.com/reviews/nikon-d850/8 ):
(https://i.goopics.net/K1JoY.jpg)
.
.
Tu n'as donc pas entendu parler de la matrice de Bayer ?

Ce que tu vois là, c'est le "repliement" de l'interpolation en chrominance. Et, comme déjà évoqué, rien à voir avec une matrice de 2x2...

S'il y a repliement, comme tu l'écris, c'est par définition parce que l'acquisition n'a pas respecté le critère de Shannon.

Cette mire, de 90 traits par mm, est acquise correctement si le capteur possède plus de 2x90 = 180 pixels par mm.

Cela prouve que le capteur (D850, 230 photosites par mm) a moins de 180 pixels par mm.

Résultat sans surprise, puisque ce capteur a 230 photosite par mm et qu'il faut 2x2 photosites (en matrice de Bayer) pour composer un pixel trichrome.
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 03, 2020, 08:47:58
Le D850 a zéro pixel au millimètre, car le pixel est une unité d'image informatique. En revanche il a bien 230 photosites au millimètre linéaire, soit une Ropt (résolution optique) de 115 paires de lignes au mm, dont les informations du luminance après dématriçage fourniront 45 millions de pixels dans le fichier. Or le moiré se produit si le pouvoir séparateur de l'objectif est trop élévé pour le capteur, rien ne permet d'affirmer que l'objectif utilisé sur un sujet à haut contraste (du noir et du blanc epicétou du mire style USAF) n'a pas un pouvoir séparateur supérieur à 115 paires de lignes au mm, en argentique sur film Technical Pan certains arrivaient au maxi du film, soit 160 paires de lignes quand un film diapo en contraste moyen calait autour de 50 paires de lignes. Quand du moiré se produit, certains logiciels arrivent à le contourner, d'autres non.
Le pixel n'est pas une unité informatique, c'est l'élément de base de toute image échantillonnée.
Il est défini par trois informations indépendantes, que l'on peut exprimer dans différents systèmes de coordonnées RVB, LCH, YUV, etc., de façon complètement équivalente.

Un photosite n'apporte qu'une information, ce n'est pas un pixel. Il n'a en particulier pas d'information de luminance puisque la luminance est la somme pondérée des trois informations de couleur.

Par exemple, un photosite "bleu" illuminé à 18% peut très bien correspondre à une couleur bleue sombre (luminance faible) ou à un jaune très clair et quasi-saturé (luminance très élevée).
La connaissance d'un photosite ne donne donc ni luminance ni chrominance de la couleur locale.

Il faut donc plusieurs photosites pour composer un pixel, ce qui signifie qu'il y a moins de pixels que de photosites.

C'est pour cette raison que la mire ci-dessus (90 pdl/mm) n'est pas reproduite correctement par un capteur qui possède 230 photosites /mm. Elle serait reproduite correctement si c'était 230 pixels/mm.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 03, 2020, 08:48:40
L'interpolation n'est pas basique, je n'ai jamais dit ça. En revanche, aucune interpolation ne permet de retrouver une information perdue à cause du sous-échantillonnage. C'est pour cela que les photosites ne sont pas des pixels et que des artefacts surviennent lorsque l'image comporte des structures plus fines que 2x2 photosites.

Pourquoi alors avec certaines méthodes on a des artefacts et avec d'autres non, pour une même image ?
Il y a des artefacts dans toutes les images de la planche que tu montres. Les interpolateurs qui tentent de conserver la couleur au delà des fréquences de Nyquist produisent des artefacts colorés très visibles, les autres ont plutôt des artefacts d'intensité, que l'on voit bien en suivant les traits verticaux.

Dans tous les cas, l'image interpolée n'est pas fidèle à la réalité.
Titre: Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 03, 2020, 08:59:11
Il y a des artefacts dans toutes les images de la planche que tu montres. Les interpolateurs qui tentent de conserver la couleur au delà des fréquences de Nyquist produisent des artefacts colorés très visibles, les autres ont plutôt des artefacts d'intensité, que l'on voit bien en suivant les traits verticaux.

Dans tous les cas, l'image interpolée n'est pas fidèle à la réalité.

Ca me donne une idée.
Je ferai des comparaisons avec des images sous- et sur-échantillonnées.
Titre: Re : Des rumeurs!
Posté par: jeandemi le mars 03, 2020, 09:54:59
En fait, si je comprends bien, un capteur qui a 36 millions de photosites (Bayer) produit une image de 9 mégapixels savamment interpolée à 36.

Quand je regarde à 100% une image produite par mon Df, je vois des artefacts de de dématriçage, tandis qu'une issue de mon M246 n'en montre pas, même à 200% (c'est de la pixelisation qui apparaît)
On a même l'impression de voir (découvrir) plus de détails à 200%

Il faudrait, pour comparer, prendre une photo en trichromie avec un Monochrom, et la comparer à une image issue d'un capteur Bayer ayant 4x le nombre de photosites
Titre: Re : Re : Re : Des rumeurs!
Posté par: Verso92 le mars 03, 2020, 10:09:47
Oui, on voit des traits qui se dédoublent, qui se tripliquent puis se resserrent, caractéristiques d'une acquisition sous-échantillonnée. Cette image n'est en aucun cas la reproduction de l'image qui était formée par l'optique sur le capteur.

On peut détecter sans aucun problème une structure aussi petite qu'on veut, il suffit qu'elle ait suffisamment d'énergie pour envoyer quelques photons sur un photosite. Sa taille ne compte pas, seule sont énergie importe.

Pour reproduire, c'est-à-dire obtenir une image identique à l'image formée sur le capteur, il faut respecter les conditions de Shannon; ce n'est pas le cas de cette image.

C'est amusant, la mauvaise foi.

Mébon, chacun voit l'image et peut donc se faire sa propre opinion (c'est le but du propos).


Pour rappel, la "largeur" du pixel est donnée par l'illustration du post #164 (image de gauche, non dématricée), qu'il suffit de comparer avec la largeur du motif sur l'image dématricée (visualisation à 300% dans tous les cas).
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 03, 2020, 10:16:11
S'il y a repliement, comme tu l'écris, c'est par définition parce que l'acquisition n'a pas respecté le critère de Shannon.

Non.


Tu confonds tout : la matrice de Bayer a un motif de 2x2 photosites, c'est exact. Mais les algorithmes de dématriçage ne travaillent pas sur 2x2 pixels (beaucoup plus, en fait : ce qui fait que le moiré (de chrominance) se produira bien avant le critère de Shannon en cas de motif répétitif).

Ça fait plusieurs fois qu'on l'explique, avec des illustrations à la clé. Mais il n'y a pas plus sourd que celui qui ne veut pas entendre...

Résultat sans surprise, puisque ce capteur a 230 photosite par mm et qu'il faut 2x2 photosites (en matrice de Bayer) pour composer un pixel trichrome.

Non, non et non !!!
Titre: Re : Re : Re : Des rumeurs!
Posté par: seba le mars 03, 2020, 11:12:46
Résultat sans surprise, puisque ce capteur a 230 photosite par mm et qu'il faut 2x2 photosites (en matrice de Bayer) pour composer un pixel trichrome.

C'est beaucoup plus complexe.
il y a de nombreuses méthodes différentes et pour calculer la couleur d'un pixel, en général il est tenu compte d'un nombre assez élevé de photosites autour du pixel en question (pas seulement 4 photosites).
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 03, 2020, 11:18:14
En fait, si je comprends bien, un capteur qui a 36 millions de photosites (Bayer) produit une image de 9 mégapixels savamment interpolée à 36.

Oui : et la marmotte elle emballe le capteur dans le papier alu...  ;-)
Titre: Re : Des rumeurs!
Posté par: jdm le mars 03, 2020, 11:24:27

 Quelle évolution, avant on avait le crop syndical, maintenant on a le crop 1000% !

 L'étape d'après c'est le braille ou peut-être le chien pour jenga !   8) ;D
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 03, 2020, 11:25:45
Quelle évolution, avant on avait le crop syndical, maintenant on a le crop 1000% !

 L'étape d'après c'est le braille ou peut-être le chien pour jenga !   8) ;D

;-)
Titre: Re : Re : Des rumeurs!
Posté par: vernhet le mars 03, 2020, 11:33:11
Moi c'est le contraire.
Cela fait plus de dix ans maintenant que je constate que non seulement je ne m'améliore pas, mais que je régresse.
Je suis moins attentif à ce qui m'entoure, moins motivé, moins curieux, plus distrait et plus négligent quand je photographie, moins précis dans mes gestes.
Pour le moment l'excellence du matériel compense la médiocrité de son utilisateur, mais je sens bien que ça ne va pas durer !
+1
et en plus, je deviens de plus en plus rebuté par la lecture des mode d'emploi des nouveaux matos, ce qui arrange pas mes affaires! ;D
Titre: Re : Re : Des rumeurs!
Posté par: JMS le mars 03, 2020, 12:03:11
Tu confonds tout : la matrice de Bayer a un motif de 2x2 photosites, c'est exact. Mais les algorithmes de dématriçage ne travaillent pas sur 2x2 pixels (beaucoup plus, en fait : ce qui fait que le moiré (de chrominance) se produira bien avant le critère de Shannon en cas de motif répétitif).
Ça fait plusieurs fois qu'on l'explique, avec des illustrations à la clé. Mais il n'y a pas plus sourd que celui qui ne veut pas entendre...

Et il y a mieux : avec cette théorie de motifs pour faire un pixel, un Fuji Xtrans qui décode par groupe de 36 photosites n'aurait plus une définition de 26 Mpxl, mais seulement de 26/36 = 0,7 million de pixel, de quoi faire un tirage de 24 x 36...millimètres...autour de 240 dpi !!! Comment diable arrivent-ils à faire des tirages nickel en 50 x 75 cm comme une expo urbex que nous avons présenté ce week end dans notre club photo ? En réalité, c'est parce que le photographe a prétendu que c'était du numérique, mais en réalité c'était à la chambre argentique ! ;D ;D ;D

Ce beau débat a le mérite de nous rajeunir de 20 ans ...au début du siècle certains prétendaient avec le même aplomb que le capteur CCD Kodak State of the Art de 6 Mpxl du DCS 760 n'avait que 1,5 Mpxl comme capacité du fait de la matrice de Bayer alors que le Kodachrome disposait lui de 25 millions de grains...il faudrait sans doute 50 ans pour que le numérique atteigne ces performances...

Titre: Re : Re : Re : Des rumeurs!
Posté par: jdm le mars 03, 2020, 12:39:38
...

Ce beau débat a le mérite de nous rajeunir de 20 ans ...


 A ce propos, il y en a un qui t'attend avec une brique !  :)  https://www.chassimages.com/forum/index.php/topic,305231.0.html (https://www.chassimages.com/forum/index.php/topic,305231.0.html)
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 03, 2020, 13:12:53
Et il y a mieux : avec cette théorie de motifs pour faire un pixel, un Fuji Xtrans qui décode par groupe de 36 photosites n'aurait plus une définition de 26 Mpxl, mais seulement de 26/36 = 0,7 million de pixel, de quoi faire un tirage de 24 x 36...millimètres...autour de 240 dpi !!!

C'est vrai, je n'avais pas pensé à cette matrice X-Trans de 6x6... 0,7 MPixels, ça commence à faire léger, en effet !

;-)
Titre: Re : Des rumeurs!
Posté par: kochka le mars 03, 2020, 17:00:37
Sony avait tenté la matrice avec deux verts différents, mais n'a pas persévéré.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 04, 2020, 10:18:09
C'est amusant, la mauvaise foi.
Oui, il en faut beaucoup pour ne pas voir les artefacts sur les traits verticaux de ton image,
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 04, 2020, 10:19:06
Tu confonds tout : la matrice de Bayer a un motif de 2x2 photosites, c'est exact. Mais les algorithmes de dématriçage ne travaillent pas sur 2x2 pixels (beaucoup plus, en fait : ce qui fait que le moiré (de chrominance) se produira bien avant le critère de Shannon en cas de motif répétitif).
Hum.
Tu confonds:

Dès qu'une composante couleur R ou V ou B est sous-échantillonnée, tout ce qui est calculé à partir d'elle (pixels RVB ou pixels luminance/chrominance) est irréversiblement faux. Que le motif soit répétitif ou pas.

Titre: Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 04, 2020, 10:20:50
Et il y a mieux : avec cette théorie de motifs pour faire un pixel, un Fuji Xtrans qui décode par groupe de 36 photosites n'aurait plus une définition de 26 Mpxl, mais seulement de 26/36 = 0,7 million
(...)
...au début du siècle certains prétendaient avec le même aplomb

Dommage que tu choisisses de te gausser et d'attaquer ad personam.

Tu confonds deux notions différentes:
Le nombre de points pris en compte dans l'interpolation est un compromis entre la performance et la précision de l'image finale. Mais l'interpolation n'ajoute aucune information, elle ne fait que la reproduire. Qu'elle soit faite sur 8 ou 36 points ou davantage ou moins dégrade plus ou moins la précision, mais en aucun cas l'interpolation n'ajoutera de l'information.

Il ne peut donc pas y avoir plus de pixels RVB indépendants que de photosites "rouges" par exemple, soit 9M de pixels RVB pour un capteur de 36M.site.

On peut interpoler à 36 Mpixels (jpeg boitier ou dématriçage usuel), ou davantage en redimensionnant ou visualisant l'image à 400% ou X%, il n'y a toujours pas plus d'information que 9M pixels RVB.
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 04, 2020, 10:21:30
En fait, si je comprends bien, un capteur qui a 36 millions de photosites (Bayer) produit une image de 9 mégapixels savamment interpolée à 36.

Exactement.
Sans préjuger de l'ordre effectif des opérations, il faut :
-interpoler chaque composante R, V, B pour passer de la grille 2x2 à la grille 1x1
-composer les pixels finaux RVB avec ces composantes interpolées

Le "savamment" est le choix du constructeur (ou du concepteur d'un logiciel tiers, ou de l'amateur intéressé par le sujet, ou du chercheur utilisant le capteur pour des besoins autres que la photo usuelle, etc.).
L'interpolateur optimal du point de vue du traitement du signal nécessite trop de calculs pour être utilisé en photo usuelle, il y a donc des compromis à faire entre la performance et la qualité d'image.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 04, 2020, 10:22:19
Résultat sans surprise, puisque ce capteur a 230 photosite par mm et qu'il faut 2x2 photosites (en matrice de Bayer) pour composer un pixel trichrome.

C'est beaucoup plus complexe.
il y a de nombreuses méthodes différentes et pour calculer la couleur d'un pixel, en général il est tenu compte d'un nombre assez élevé de photosites autour du pixel en question (pas seulement 4 photosites).

Remarque intéressante et importante. En fait, ce sont deux aspects différents:
L'ordre n'a pas d'importance tant qu'il s'agit d'opérations linéaires: soit interpoler chaque composante couleur puis constituer les pixels RVB, soit constituer les pixels puis interpoler.

C'est pourquoi j'ai mentionné uniquement la deuxième opération, suffisante pour comprendre le problème en termes de quantité d'information. Comme on a au départ (pour un capteur 36 M sites) 9 millions d'informations "rouges" (par exemple), on ne pourra jamais, quoi qu'on fasse, constituer plus de 9 millions de pixels RVB indépendants.

Cela n'empêche pas d'interpoler à 36 Mpixels RVB, ou davantage via n'importe quel logiciel de traitement ou de visualisation (rien n'empêche de redimensionner à 800% par exemple), mais jamais on n'aura davantage d'information que celle contenue dans 9 M pixels RVB.

L'interpolation est l'opération clé du dématriçage. On cherche à obtenir un pixel RVB en chaque point de la grille des photosites. Or, la composante rouge, par exemple, est présente uniquement dans une sous-grille 4 fois moins dense.
Il faut donc calculer la valeur "rouge" sur les trois quarts des points de la grille, à partir des valeurs connues (un quart de la grille): c'est l'opération d'interpolation.

Sans entrer dans les détails de traitement du signal (faciles à trouver, je te donnerai des pointeurs si tu veux), l'interpolateur idéal est un filtre passe-bas à pente très raide, de réponse 1 entre 0 et la fréquence de Shannon, de réponse 0 au-delà; sa phase caractérise l'emplacement auquel on cherche à reconstituer la valeur.

Cet interpolateur idéal permet, en particulier, de reconstituer exactement l'image "analogique" présentée au capteur, si et seulement si la condition de Shannon a été respectée (dans le cas contraire l'information est définitivement détruite).

Problème: ce filtre idéal (de pente très raide) nécessite trop de calculs.
Chaque point interpolé est la somme pondérée de tous les points de l'image de base, avec des coefficient en sinus cardinal sin(x) / x, où x caractérise la position du point interpolé.
Pour un capteur 36 M, cette interpolation nécessite 9 millions d'opérations pour chacun des points à calculer. Comme il faut calculer 3x27 millions de points, cela fait environ 700 000 milliards d'opérations, ce qui est trop pour nos ordinateurs.

Les interpolateurs travaillent donc sur un nombre de points beaucoup plus réduit autour du point à reconstituer, par exemple 8. La conséquence est bien sûr une perte de précision de l'image interpolée.

En pratique, puisque l'interpolation est un filtrage, on en profite pour effectuer un réhaussement des transitions pour que l'image soit plus plaisante, et tout autre filtrage jugé adéquat par le concepteur du dématriceur. D'où les différences entre dématriceurs que tu as illustrées plus haut.

En conclusion:

Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 04, 2020, 10:31:08
En fait, si je comprends bien, un capteur qui a 36 millions de photosites (Bayer) produit une image de 9 mégapixels savamment interpolée à 36.
Exactement.

Le comique de répétition est un genre...



Ce n'est pourtant pas compliqué de comprendre que l’œil est très sensible à la luminance, et peu à la chrominance. C'est d'ailleurs ce qui est exploité dans les algorithmes Jpeg (sous-échantillonnage de la chrominance).

https://fr.wikipedia.org/wiki/JPEG


Pour résumer, un APN de 36 MPixels a bien une définition de 36 MPixels. Et on peut tout à fait distinguer des détails qui font 1 pixel de large (cf post #208).

En ce qui concerne les artefacts, on les a aussi sur le Foveon (qui n'a pas d'interpolation en chrominance), comme illustré ci-dessous (crop 1 600% de DP2m, 15 MPixels) :
Titre: Re : Re : Re : Des rumeurs!
Posté par: jaric le mars 04, 2020, 11:25:59
Exactement.

Tu es fatigant !
Si tu refuses d'écouter les autres intervenants, examine au moins comment fonctionne l'algorithme de dématriçage du filtre de Bayer. Tu finiras par comprendre que s'il est vrai que le calcul de chaque pixel utilise un voisinage de 4 photosites, le processus est effectué de manière glissante pour chacun d'entre eux (et non pas par groupe), ce qui permet au final d'obtenir autant de pixels calculés que de photosites !
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 04, 2020, 11:33:48
Il ne peut donc pas y avoir plus de pixels RVB indépendants que de photosites "rouges" par exemple, soit 9M de pixels RVB pour un capteur de 36M.site.

On peut interpoler à 36 Mpixels (jpeg boitier ou dématriçage usuel), ou davantage en redimensionnant ou visualisant l'image à 400% ou X%, il n'y a toujours pas plus d'information que 9M pixels RVB.

De haut en bas :
Image dématricée de 230x150 photosites qui deviennent 230x150 pixels
Image de 115x75 pixels (toujours à partir de 230x150 photosites)
Image interpolée de 230x150 pixels à partir de la deuxième

Il y a quand même une sacrée différence entre la première et la troisième.
Titre: Re : Re : Re : Des rumeurs!
Posté par: Manu_14 le mars 04, 2020, 13:09:20
Exactement.
Sans préjuger de l'ordre effectif des opérations, il faut :
-interpoler chaque composante R, V, B pour passer de la grille 2x2 à la grille 1x1
-composer les pixels finaux RVB avec ces composantes interpolées

Le "savamment" est le choix du constructeur (ou du concepteur d'un logiciel tiers, ou de l'amateur intéressé par le sujet, ou du chercheur utilisant le capteur pour des besoins autres que la photo usuelle, etc.).
L'interpolateur optimal du point de vue du traitement du signal nécessite trop de calculs pour être utilisé en photo usuelle, il y a donc des compromis à faire entre la performance et la qualité d'image.

Jenga, ce qui t'échappe, c'est que la résolution spatiale du capteur est indépendante de la couleur. Pour calculer la résolution spatiale d'un capteur, on part du principe raisonnable qu'il faut deux photosites pour distinguer le plus fin détail d'une scène, ce que montent les images publiées ci-avant.  Un capteur de D750 à des pixels de 6 microns de coté donc une résolution de 83 cycles/mm ce qui est d'ailleurs trop proche de la résolution d'un bon objectif. Il lui faut donc un filtre passe-bas si on veut éviter l'aliasing (dit "en luminance").
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: Rami le mars 04, 2020, 14:50:33
l'interpolateur idéal est un filtre passe-bas à pente très raide
Celle-là, j'aurai jamais osé la faire  ;D
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 04, 2020, 14:56:27
Tu es fatigant !
Si tu refuses d'écouter les autres intervenants, examine au moins comment fonctionne l'algorithme de dématriçage du filtre de Bayer. Tu finiras par comprendre que s'il est vrai que le calcul de chaque pixel utilise un voisinage de 4 photosites, le processus est effectué de manière glissante pour chacun d'entre eux (et non pas par groupe), ce qui permet au final d'obtenir autant de pixels calculés que de photosites !

Pas facile de trouver de la littérature sur le sujet (sensible pour les fabricants et les éditeurs de logiciel, apparemment), mais je pense que le calcul d'interpolation se fait sur un voisinage plus large...
Titre: Re : Des rumeurs!
Posté par: seba le mars 04, 2020, 15:12:28
On peut déjà potasser ça par exemple.

https://hal.archives-ouvertes.fr/hal-00683233/document
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 04, 2020, 15:23:47
On peut déjà potasser ça par exemple.

https://hal.archives-ouvertes.fr/hal-00683233/document

Ah oui...
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 05, 2020, 00:02:46
Un autre (en français) :

https://pastel.archives-ouvertes.fr/tel-00499252/document
Titre: Re : Re : Des rumeurs!
Posté par: seba le mars 05, 2020, 09:13:58
Un autre (en français) :

https://pastel.archives-ouvertes.fr/tel-00499252/document

Y a plus qu'à lire (facile) et à comprendre (difficile).
Titre: Re : Des rumeurs!
Posté par: Rami le mars 05, 2020, 09:17:42
Page 148

La nouvelle fenêtre de convolution de taille 8×8 et son noyau de convolution sont montrées sur la figure9.4.

Ça répond en partie à des discussions précédentes, quoique cela ne prouve pas que ce soit pareil dans nos boitiers.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 05, 2020, 09:58:59
Page 148

La nouvelle fenêtre de convolution de taille 8×8 et son noyau de convolution sont montrées sur la figure9.4.

Ça répond en partie à des discussions précédentes, quoique cela ne prouve pas que ce soit pareil dans nos boitiers.

A l'époque, par curiosité, je m'étais amusé à faire un dématriçage bilinéaire (Bayer) sous Excel... c'était pas terrible !

;-)
Titre: Re : Des rumeurs!
Posté par: Rami le mars 05, 2020, 10:06:34
Peu surprenant.
As-tu essayé des ordres plus élevés ?
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 05, 2020, 10:08:55
Peu surprenant.
As-tu essayé des ordres plus élevés ?

Heu... vu le temps que ça prend (Excel + Photoshop, en l'occurrence), je n'ai pas poussé plus loin l'expérimentation (après, ça demanderait automatisation & programmation, et ça dépasse mon domaine de compétences...  ;-).
Titre: Re : Des rumeurs!
Posté par: Bernard2 le mars 05, 2020, 10:41:59
Pour info document Nikon cocernant le premier reflex numérique Nikon (D1) le travail de reconstruction se faisait alors sur 12x12
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 05, 2020, 10:51:16
Pour info document Nikon cocernant le premier reflex numérique Nikon (D1) le travail de reconstruction se faisait alors sur 12x12

Ah oui, quand même...  ;-)
Titre: Re : Re : Des rumeurs!
Posté par: JMS le mars 05, 2020, 12:07:50
Ah oui, quand même...  ;-)

Bernard 2 vient de démontrer à un aimable intervenant de ce topic qu'en réalité la définition réelle du D1 n'était que de 18 750 pixels (2,7 Mpxl/144) et quand je pense que des crétins ont essayé de faire des affiches 4 x 3 m avec ...

...sinon l'utilisation de larges zones autour du photosite destiné à devenir un pixel sur le fichier est aussi la méthode de débruitage "Prime" de DxO.  ;)
Titre: Re : Re : Re : Des rumeurs!
Posté par: bretillien le mars 05, 2020, 12:19:06
Bernard 2 vient de démontrer à un aimable intervenant de ce topic qu'en réalité la définition réelle du D1 n'était que de 18 750 pixels (2,7 Mpxl/144) et quand je pense que des crétins ont essayé de faire des affiches 4 x 3 m avec ...

...sinon l'utilisation de larges zones autour du photosite destiné à devenir un pixel sur le fichier est aussi la méthode de débruitage "Prime" de DxO.  ;)
Normalement avec les critères actuels c'est du A4 maxi voir du A5 sinon pourquoi ils se décarcasseraient à vouloir sortir des 60 mpix? ;D
Mais si l'on doit regarder à la loupe une affiche de 4 x 3 m il en faudra beaucoup plus  ;)
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 05, 2020, 12:20:38
Le comique de répétition est un genre...

Ce n'est pourtant pas compliqué de comprendre que l’œil est très sensible à la luminance, et peu à la chrominance. C'est d'ailleurs ce qui est exploité dans les algorithmes Jpeg (sous-échantillonnage de la chrominance).

Nous discutons de la capacité de tel ou tel traitement mathématique à reproduire ou non des détails de telle ou telle taille. Pas des caractéristiques de l’œil.
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 05, 2020, 12:20:59

En ce qui concerne les artefacts, on les a aussi sur le Foveon (qui n'a pas d'interpolation en chrominance), comme illustré ci-dessous (crop 1 600% de DP2m, 15 MPixels)
Bien évidemment, dès lors que l'on forme sur le capteur une image contenant des structures de taille inférieure à 2 pixels il y  a repliement, donc destruction irréversible d'information, et artefacts à la restitution.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 05, 2020, 12:21:30
Tu es fatigant !
Si tu refuses d'écouter les autres intervenants, examine au moins comment fonctionne l'algorithme de dématriçage du filtre de Bayer. Tu finiras par comprendre que s'il est vrai que le calcul de chaque pixel utilise un voisinage de 4 photosites, le processus est effectué de manière glissante pour chacun d'entre eux (et non pas par groupe), ce qui permet au final d'obtenir autant de pixels calculés que de photosites !
Inutile d'être insultant.

C'est ce que j'ai écrit: le calcul de chaque point interpolé utilise un certain nombre de points autour de lui, affectés de coefficients. C'est donc bien sûr un calcul glissant, un produit de convolution.

Le nombre de points pris en compte dans ce voisinage glissant définit la précision de l'interpolation, et n'a strictement rien à voir avec le nombre de points interpolés.

On peut interpoler 1 point entre chaque point réel en faisant le calcul sur un voisinage de 4, 12, 128, etc.

On peut aussi interpoler 2, 4 ou plus points entre chaque points réel ("crop à 400%...") en faisant le calcul sur le même voisinage de 4, 12, 128, etc.

On bien a au final autant de pixels interpolés, calculés que l'on veut. Mais la quantité d'information dans l'image finale ne dépassera jamais la quantité d'information acquise par le capteur. Les pixels calculés ne contiennent pas plus d'information que ce que le capteur a fourni

En fait ils en contiennent moins, à cause des pertes dues à l'interpolation qui est forcément imparfaite compte tenu du voisinage limité sur lequel elle porte.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 05, 2020, 12:21:51
Tu es fatigant !
Si tu refuses d'écouter les autres intervenants, examine au moins comment fonctionne l'algorithme de dématriçage du filtre de Bayer. Tu finiras par comprendre que s'il est vrai que le calcul de chaque pixel utilise un voisinage de 4 photosites, le processus est effectué de manière glissante pour chacun d'entre eux (et non pas par groupe), ce qui permet au final d'obtenir autant de pixels calculés que de photosites !

Remarque en passant: le voisinage pris en compte par le dématriceur ne peut pas être réduit à 4 points comme tu l'écris, au moins pour les dématriceurs associé aux APN récents.
Prendre 4 points, c'est faire une interpolation linéaire (à deux dimensions).

Or, l'interpolateur linéaire a une réponse en fréquence quasiment nulle (0.0003) aux 3/4 de la fréquence de Shannon. Il gommerait donc presque complètement les structures de dimension 1,5 pixel, ce qui n'est pas le cas.
Ce n'est donc pas cet interpolateur qui est utilisé par les dématriceurs (heureusement).
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 05, 2020, 12:22:58
De haut en bas :
Image dématricée de 230x150 photosites qui deviennent 230x150 pixels
Image de 115x75 pixels (toujours à partir de 230x150 photosites)
Image interpolée de 230x150 pixels à partir de la deuxième

Il y a quand même une sacrée différence entre la première et la troisième.
Peux-tu expliciter les traitements effectués sur chaque image?

Au vu des seuls résultats, c'est impossible de se prononcer.

Il est très facile de perdre toute la précision avec un mauvais interpolateur. Par exemple, comme indiqué ci-avant, l'interpolateur linéaire (que proposent certains logiciels de traitement) a une réponse en fréquence quasiment nulle (0.0003) aux 3/4 de la fréquence de Shannon. Il gomme donc presque complètement les structures de dimension 1,5 pixel.

Si c'est un interpolateur de ce type qui a fourni la 3ème image, il n'y a rien de surprenant à ce qu'elle soit molle. Mais ce n'est pas représentatif de l'information contenue dans l'image qui a été fournie à l'interpolateur.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 05, 2020, 12:24:59
Jenga, ce qui t'échappe, c'est que la résolution spatiale du capteur est indépendante de la couleur.
Il faut préciser ce qu'on entend par "résolution". Si c'est le nombre de points par mm: un 24*36 de 45 Mphotosites, par exemple, a une résolution dans le rouge de 115 points par mm, idem dans le bleu, et 230 points par mm dans le vert.

Pour calculer la résolution spatiale d'un capteur, on part du principe raisonnable qu'il faut deux photosites pour distinguer le plus fin détail d'une scène, ce que montent les images publiées ci-avant. 
Distinguer est une chose, reproduire avec une précision suffisante pour les usages photographiques en est une autre.

On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.

Un capteur de D750 à des pixels de 6 microns de coté donc une résolution de 83 cycles/mm ce qui est d'ailleurs trop proche de la résolution d'un bon objectif. Il lui faut donc un filtre passe-bas si on veut éviter l'aliasing (dit "en luminance").

Je ne suis pas sûr de bien comprendre ce que tu entends par "trop proche". Je comprends: "pas suffisamment grande par rapport à celle de l'objectif", est-ce bien cela?

L'aliasing se produit si la résolution du capteur est trop faible (comparée à celle de l'objectif).
Si tu considères un bon objectif à 80 cycles/mm (donc, en gros, limité par la diffraction à f/6.7) il faut un capteur à 160 pixels par mm pour l'utiliser sans aliasing sur n'importe quelle scène.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 05, 2020, 12:35:59
Nous discutons de la capacité de tel ou tel traitement mathématique à reproduire ou non des détails de telle ou telle taille. Pas des caractéristiques de l’œil.

Et bien si tu mets devant le capteur une ligne (suffisamment contrastée) qui fait moins d'un pixel de large, tu auras une ligne d'un pixel de large sur l'image.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 05, 2020, 13:01:15
Peux-tu expliciter les traitements effectués sur chaque image?

Au vu des seuls résultats, c'est impossible de se prononcer.

Il est très facile de perdre toute la précision avec un mauvais interpolateur. Par exemple, comme indiqué ci-avant, l'interpolateur linéaire (que proposent certains logiciels de traitement) a une réponse en fréquence quasiment nulle (0.0003) aux 3/4 de la fréquence de Shannon. Il gomme donc presque complètement les structures de dimension 1,5 pixel.

Si c'est un interpolateur de ce type qui a fourni la 3ème image, il n'y a rien de surprenant à ce qu'elle soit molle. Mais ce n'est pas représentatif de l'information contenue dans l'image qui a été fournie à l'interpolateur.

La première image est celle fournie par l'appareil photo.
La deuxième est réduite (au plus proche) à partir de la première pour avoir 4x moins de pixels.
La troisième est interpolée (bicubique) à partir de la deuxième.
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 05, 2020, 13:04:03
On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.

Et un détail sombre sur fond clair ?
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: Manu_14 le mars 05, 2020, 17:11:25
Il faut préciser ce qu'on entend par "résolution". Si c'est le nombre de points par mm: un 24*36 de 45 Mphotosites, par exemple, a une résolution dans le rouge de 115 points par mm, idem dans le bleu, et 230 points par mm dans le vert.
Oui, c'est ce que je veux dire par résolution spatiale et encore une fois cela n'a rien à voir avec la couleur. un photosite donne un pixel sur l'image, c'est à dire une information.

Distinguer est une chose, reproduire avec une précision suffisante pour les usages photographiques en est une autre.

On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.
Là je ne te suis pas

Je ne suis pas sûr de bien comprendre ce que tu entends par "trop proche". Je comprends: "pas suffisamment grande par rapport à celle de l'objectif", est-ce bien cela?

L'aliasing se produit si la résolution du capteur est trop faible (comparée à celle de l'objectif).
Si tu considères un bon objectif à 80 cycles/mm (donc, en gros, limité par la diffraction à f/6.7) il faut un capteur à 160 pixels par mm pour l'utiliser sans aliasing sur n'importe quelle scène.
Oui, je suis d'accord. Et tu constates que ce qui te permet de calculer cette fréquence limite (qui doit être le double la fréquence la plus haute que permet l'objectif pour éviter l'aliasing en luminance) ce sont bien deux photosites, ni 4 ni 12, ni 20. L'interpolation n'intervient que pour restituer l'information colorée et n'affecte pas la précision spatiale de ton image. Un capteur de 45M de photosites donne bien une image de 45M de pixels c'est à dire 45M d'informations spatiales, sans aucune interpolation.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 05, 2020, 19:02:42
Oui, je suis d'accord. Et tu constates que ce qui te permet de calculer cette fréquence limite (qui doit être le double la fréquence la plus haute que permet l'objectif pour éviter l'aliasing en luminance) ce sont bien deux photosites, ni 4 ni 12, ni 20.

De toute façon, avec un Bayer, rares seront les fois où on pourra distinguer cet aliasing en luminance (sur un motif répétitif) : les artefacts générés par le dématriçage viendront pourrir l'image bien avant...


Sur l'exemple ci-dessous, on voit bien comment ça s’affole quand la fréquence du motif devient trop élevée par rapport à celle du couple capteur/dématriçage :
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 05, 2020, 19:07:53
Un exemple de moiré en luminance (Sigma DP2m) :



(sur le panneau "Les Raverdis")
Titre: Re : Re : Des rumeurs!
Posté par: Manu_14 le mars 05, 2020, 20:21:10
Un exemple de moiré en luminance (Sigma DP2m) :

(sur le panneau "Les Raverdis")

Bel exemple
Titre: Re : Des rumeurs!
Posté par: egtegt² le mars 06, 2020, 11:16:31
Jenga, tu te trompes au moins sur un point : sur 4 photosites, il y en a deux verts, donc même en supposant ta démonstration juste, on a au moins deux valeurs de luminance pertinentes pour le vert. Donc au pire on est un peu mieux qu'un quart de la définition.

Sinon bien évidemment que c'est interpolé et que mathématiquement, on recrée une information qui est potentiellement fausse. Ton raisonnement se tiendrait si on photographiait du bruit, dans ce cas effectivement on n'aurait une résolution divisée par 4 (en fait un peu moins grâce aux deux verts). Mais il se trouve que ça n'est pas du bruit qu'on photographie mais la réalité et ça permet d'avoir des algorithmes qui permettent de reconstruire quelque chose de réaliste. Il y a quelques rares cas où ces algorithmes se plantent, par exemple des étoiles qui disparaissent sur un photo astronomique parce qu'elles sont interprétées comme des artefacts, ou quand on a du moiré, mais dans la majeure partie des cas, ils fonctionnent bien.

Donc même si on ne peut pas écrire qu'un capteur 36 Mpix fait vraiment 36 Mpix, il est aussi faux d'écrire qu'il n'en fait que 9. Et le dématriçage reste largement supérieur à une simple interpolation parce qu'il peut tenir compte du fait que les 4 photorécepteurs sont décalés et utiliser cette information pour affiner les calculs.
Titre: Re : Re : Des rumeurs!
Posté par: JMS le mars 06, 2020, 12:12:53
Donc même si on ne peut pas écrire qu'un capteur 36 Mpix fait vraiment 36 Mpix, il est aussi faux d'écrire qu'il n'en fait que 9. Et le dématriçage reste largement supérieur à une simple interpolation parce qu'il peut tenir compte du fait que les 4 photorécepteurs sont décalés et utiliser cette information pour affiner les calculs.

Et moi j'écris sans trembler qu'un capteur 36 Mpxl  comporte 36 millions de photosites donnant 36 millions de valeur de luminance précise, et au final interprétées par le logiciel interne ou externe comme 36 millions de pîxels RVB en reconstituant les couleurs grâce aux variations de luminance induites par la filtration en couleurs des photosites voisins. Plus ou moins nombreux selon les algos de métratiçage...
Titre: Re : Des rumeurs!
Posté par: rascal le mars 06, 2020, 13:38:32
c'est pas faux.
Titre: Re : Des rumeurs!
Posté par: Sebmansoros le mars 06, 2020, 13:40:26
Je suis largué. Je crois que je vais arrêter la photo. :P ::)
Titre: Re : Des rumeurs!
Posté par: Rami le mars 06, 2020, 13:41:39
Je crains que ce le soit légèrement.
Du fait du filtre, a-t-on réellement la luminance ou sa convolution par le filtre R, V ou B ?

Je dirai plutôt qu'on a la bonne valeur sur un des trois canaux, et rien directement sur les deux autres.
Et que l'interpolation permet de reconstruire les deux autres canaux. 
Titre: Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 06, 2020, 14:16:04
La première image est celle fournie par l'appareil photo.
La deuxième est réduite (au plus proche) à partir de la première pour avoir 4x moins de pixels.
La troisième est interpolée (bicubique) à partir de la deuxième.
Merci pour ces précisions.

Si je comprends bien, le fichier jpg que tu montres est un crop à 200% de la première image et de la troisième (fichier de 460 pixels pour des images de 230), et donc un crop à 400% de la deuxième.

L'image de départ (la première) contient des structures dont la taille est inférieure à 2 pixels (de l'image, pas du crop), les cils et le cheveu isolé par exemple. Il n'est donc pas possible de réduire sa taille sans perdre définitivement d'information.

Quelle que soit la précision de l'interpolateur utilisé pour recréer les pixels de l'image 3, celle-ci ne peut pas contenir l'information perdue lors du passage de 1 à 2. C'est pourquoi l'image 3 a moins de détail que la 1.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 06, 2020, 14:16:40
On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.

Et un détail sombre sur fond clair ?

C'est identique du point de vue du traitement du signal.

Du point de vue technologique, il faut bien sûr que le fond clair ne sature pas les photosites. Il peut y avoir une différence de pouvoir ultime de détection, dans un sens ou dans l'autre, selon la variation du bruit de lecture en fonction du niveau d'éclairement. Cela dépasse de loin mes connaissances.
Cela dit, comme usuellement les photosites sont préchargés en électrons avant l'exposition et déchargés par la capture des photons pendant l'expo, la situation la plus favorable  n'est pas nécessairement celle qu'on croirait a priori.

En pratique, je sais faire la première expérience avec une led (source suffisamment ponctuelle) ou un ciel nocturne. Pour la deuxième, il me semble qu'il faut davantage de matériel (ou d'imagination, c'est ce me manque le plus!).
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 06, 2020, 14:17:26
On distingue la présence d'un détail dès qu'il a suffisamment d'énergie pour envoyer quelques photons sur un photosite, même s'il est dix fois plus petit que le photosite. Mais on ne sait pas le reproduire correctement pour autant.

Là je ne te suis pas
Voici ce que j'ai voulu dire:

avec un objectif performant (ou un capteur de faible résolution), tu peux former sur le capteur l'image d'un objet de petite taille. Par exemple, une led dans une pièce sombre, à plusieurs mètres, avec un grand angle.
L'image de la led sur le capteur est plus petite que la taille d'un photosite. Cela n'empêche pas le photosite d'accumuler des charges pendant l'exposition, donc il y aura quelque chose dans l'image produite -> on détecte la présence d'on objet clair.
Mais cela ne permettra pas de reconstituer la forme de la surface émettrice de la led.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 06, 2020, 14:18:35
Oui, je suis d'accord. Et tu constates que ce qui te permet de calculer cette fréquence limite (qui doit être le double la fréquence la plus haute que permet l'objectif pour éviter l'aliasing en luminance)
(merci pour cette discussion)
en fait: pour éviter l'aliasing tout court.

Le capteur acquiert des informations R, V et B.

La luminance et les 2 informations de chrominance sont chacune calculées à partir des 3 composantes R, V et B; par exemple, en YUV:
Y = 0.299 R + 0.587 V + 0.114 B
U= -0.147 R - 0.289 V + 0.436 B
V= 0.615 R - 0.515 V - 0.1 B

Donc, si une seule des composantes R ou V ou B est fausse, par aliasing, les trois composantes (luminance Y et chrominance U et V) sont fausses.

L'interpolation n'intervient que pour restituer l'information colorée
Non, elle est indispensable également pour calculer la luminance.

Comme indiqué ci-avant, pour calculer la luminance en un point, il faut connaître R et V et B en ce point.
Or la matrice de Bayer fournit des informations R, V et B à des emplacements différents.

Il serait complètement faux de combiner directement 3 sites R V B pour calculer une luminance (ou une chrominance): sur les transitions, le résultat serait catastrophique.

Il est donc indispensable d'interpoler pour disposer des valeurs calculées de R V et B aux mêmes endroits.
Ensuite, on peut calculer YUV, LCH, etc. tant qu'on veut.

Un capteur de 45M de photosites donne bien une image de 45M de pixels c'est à dire 45M d'informations spatiales, sans aucune interpolation.
Un capteur de 45 M sites donne 45 millions d'informations. Chacune de ces informations est un et un seul nombre. Par exemple, le niveau de Bleu en ce point.

Un pixel est défini par 3 nombres (bleu, vert, rouge), pas par un seul. 45 M pixels représentent donc  3x45 millions d'informations.

Il ne peut définitivement pas y avoir équivalence entre les deux.
On ne peut pas passer de 45 millions d'informations à 3x45 millions: les 2x45 M nombres ajoutés par interpolation ne sont pas des informations nouvelles, ce ne sont que la réécriture dans une base différente des 45 initiales.

Un capteur de 45 M sites peut donc fournir 45 M pixels interpolés, mais pas 45 M pixels indépendants.

 
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 06, 2020, 14:19:23
Jenga, tu te trompes au moins sur un point : sur 4 photosites, il y en a deux verts, donc même en supposant ta démonstration juste, on a au moins deux valeurs de luminance pertinentes pour le vert. Donc au pire on est un peu mieux qu'un quart de la définition.
(Merci pour ton intervention)

Oui, une matrice de Bayer a une résolution double dans le vert. En revanche, cela ne donne pas davantage d'information de luminance. Comme indiqué ci-avant, il faut connaître les trois composantes RVB pour déterminer la luminance. Ce sont donc les composantes échantillonnées selon la grille la moins dense (R et B) qui limitent.

Sinon bien évidemment que c'est interpolé et que mathématiquement, on recrée une information qui est potentiellement fausse.
Non, les valeurs interpolées sont exactes (si l'acquisition a respecté le critère de fréquence, bien sûr).

En revanche, elles ne créent pas d'information. Elles ne font que traduire l'information acquise par le capteur.

Mais il se trouve que ça n'est pas du bruit qu'on photographie mais la réalité et ça permet d'avoir des algorithmes qui permettent de reconstruire quelque chose de réaliste. Il y a quelques rares cas où ces algorithmes se plantent, par exemple des étoiles qui disparaissent sur un photo astronomique parce qu'elles sont interprétées comme des artefacts, ou quand on a du moiré, mais dans la majeure partie des cas, ils fonctionnent bien.
Très intéressant. Je suis d'accord avec le principe mentionné au début de ce paragraphe: en faisant des hypothèses sur l'image, on ajoute de l'information (pertinente ou non pour l'image considérée).

On pense immédiatement à l'IA, qui permettra de reconstituer des images "réalistes" à partir de prises de vue insuffisantes.

Dans la seconde partie, cependant, tu mentionnes des cas de filtrage classique. Connais-tu des exemples d'IA ou de techniques autres que le traitement de signal classique appliquées aux APN?
Je ne connais rien à la téléphonie, mais j'imagine que les smartphones ont déjà exploré cette voie.

Donc même si on ne peut pas écrire qu'un capteur 36 Mpix fait vraiment 36 Mpix, il est aussi faux d'écrire qu'il n'en fait que 9. Et le dématriçage reste largement supérieur à une simple interpolation parce qu'il peut tenir compte du fait que les 4 photorécepteurs sont décalés et utiliser cette information pour affiner les calculs.

Les informations R, V et B sont acquises sur des grilles décalées. Il est indispensable de les interpoler pour les ramener sur une même grille, sinon il est impossible de constituer des pixels corrects.
Les sites ainsi décalés par interpolation ont exactement la même quantité d'information que les sites d'origine. Ni plus, ni moins.
Titre: Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 06, 2020, 14:22:16
Et moi j'écris sans trembler qu'un capteur 36 Mpxl  comporte 36 millions de photosites donnant 36 millions de valeur de luminance précise, et au final interprétées par le logiciel...
Comme indiqué ci-avant, la luminance est égale à une combinaison des informations R V B, par exemple en YUV (c'est similaire quoique plus compliqué dans d'autres modèles comme LCH):

Luminance = 0.299 R + 0.587 V + 0.114 B

Si tu connais la valeur d'un photosite, par exemple tel photosite Bleu est à 10%, tu ne connais absolument pas la luminance de l'image réelle en ce point. Elle peut aussi bien valoir 1% que 90%.

Donc, 36 M sites ne sont pas 36 M infos de luminance de l'image.
Titre: Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: Rami le mars 06, 2020, 14:22:39
Un capteur de 45 M sites peut donc fournir 45 M pixels interpolés, mais pas 45 M pixels indépendants.

Cela dépend ce qu'on sous-entend par indépendants
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 06, 2020, 14:23:31
Cela dépend ce qu'on sous-entend par indépendants
Très juste.
-> que l'on ne peut pas calculer les uns à partir des autres.
Titre: Re : Des rumeurs!
Posté par: Rami le mars 06, 2020, 14:25:57
Je pense que si on veut inverser l'interpolation, on aura besoin des 45M  photosites de base.
Donc, pour moi, les 45M pixels restent indépendants.
Titre: Re : Re : Re : Des rumeurs!
Posté par: egtegt² le mars 06, 2020, 15:08:30
[…]
Les informations R, V et B sont acquises sur des grilles décalées. Il est indispensable de les interpoler pour les ramener sur une même grille, sinon il est impossible de constituer des pixels corrects.
Les sites ainsi décalés par interpolation ont exactement la même quantité d'information que les sites d'origine. Ni plus, ni moins.
Oui mais justement ils sont décalés, si les 4 photosites étaient superposés (cas du capteur Sigma), on n'aurait effectivement qu'une seule information par photosite, c'est à dire la luminance en ce point pour chaque canal, avec d'ailleurs deux valeurs identiques pour le vert.
Mais le fait qu'ils soient décalés permet de déduire d'autres informations.
Si je photographie un bruit parfaitement aléatoire, je ne peux rien déduire, mais si je photographie un objet, j'ai des continuités sur la scène tant en luminance qu'en chrominance et ces continuités permettent d'avoir une interpolation bien plus juste.

Si j'ai du bruit, le fait que deux pixels séparés par un troisième soient rouges ne veut strictement rien dire sur la couleur du pixel intermédiaire. Si je photographie une scène réelle, la plupart du temps le pixel intermédiaire sera d'une couleur proche de ce rouge, ce qui signifie que si j'ai une variation importante de la luminance sur le photosite intermédiaire, je peux me permettre de l'interpréter comme une variation de luminance en restant dans les mêmes tons. Alors que si je suis dans la pure interpolation comme l'a fait Seba dans sa seconde photo, je ne peux que faire la moyenne entre deux pixels adjacents.

Dans l'exemple que montre Verso, tu as un trait noir sur fond clair, le dématriceur a considéré que ce trait était plus sombre que ce qui l'entoure. Sur un seul pixel c'est impossible mais en regardant les pixels adjacents, il a obligatoirement vu que d'autres pixels adjacents avaient la même luminance mais dans d'autres couleurs en fonction de la position sur la matrice de bayer, ce qui lui a permis de le considérer comme un trait d'une couleur continue et pas comme des pixels de couleurs variables. Ce qui aurait été impossible en photographiant du bruit.

C'est justement ce qui provoque le moiré et c'est la limite du système : si tu as une ligne d'un pixel de large, comme elle n'est captée que par un photosite et pas par plusieurs, l'appareil est incapable de déterminer sa couleur exacte. Si elle est seule, le dématriceur s'en sort en la comparant aux pixels adjacents, mais si on a plusieurs lignes adjacentes, le dématriceur n'est plus capable de savoir ce qui appartient à chaque ligne et il interprète ça avec des couleurs aléatoires.

Et ne me fais pas dire ce que je n'ai pas dit, il n'y a aucune IA dans ce que j'ai écrit, juste des algorithmes de traitement du signal tout ce qu'il y a de plus banal. J'en utilisais déjà il y a 30 ans pendant mes études alors que le terme IA apparaissait à peine.
Titre: Re : Re : Des rumeurs!
Posté par: restoc le mars 06, 2020, 15:14:17
Donc même si on ne peut pas écrire qu'un capteur 36 Mpix fait vraiment 36 Mpix, il est aussi faux d'écrire qu'il n'en fait que 9. Et le dématriçage reste largement supérieur à une simple interpolation parce qu'il peut tenir compte du fait que les 4 photorécepteurs sont décalés et utiliser cette information pour affiner les calculs.

Tout à fait.
Le pb vient du fait que l'on croit que le dématriçage = une interpolation. C'est bp plus complexe que çà : les meilleurs dématriceurs analysent d'abord les directions ( des détails, des lignes, des dégradés pour faire simple) et vont interpoler ( ou seulement pondérer les canaux rvb quand c'est possible en absence de directions)  selon un arbre de décision devenu trés complexe complexe pour les meilleurs dématriceurs.

Ici la thèse déjà ancienne de Harold Phelippeau mais qui illustre avec des images  toute la différence entre une panoplie de dématriçeurs plus ou moins sophistiqués  et des interpolations simples  en terme visuel ( donc numérique au passage).

http://tel.archives-ouvertes.fr/docs/00/49/92/52/PDF/2009PEST1002_0_0.pdf

Et çà date de 2010. Depuis un DXO et même ACR ont encore bien progressé et on peut dire dans 99% des cas 1 pixel de fichier raw= 1 pixel (photosite) en terme de résolution. Les moirés avec la texture de l'image n'ont pas de rapport direct évidemment.
Les constructeurs ne sont donc pas devant le tribunal  en vendant 36 Mp pour 36 Mp. C'est une autre façon de vérifier  ;) ;D
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 06, 2020, 15:21:53
(merci pour cette discussion)
en fait: pour éviter l'aliasing tout court.

Le capteur acquiert des informations R, V et B.

La luminance et les 2 informations de chrominance sont chacune calculées à partir des 3 composantes R, V et B; par exemple, en YUV:
Y = 0.299 R + 0.587 V + 0.114 B
U= -0.147 R - 0.289 V + 0.436 B
V= 0.615 R - 0.515 V - 0.1 B

Donc, si une seule des composantes R ou V ou B est fausse, par aliasing, les trois composantes (luminance Y et chrominance U et V) sont fausses.
Non, elle est indispensable également pour calculer la luminance.

Comme indiqué ci-avant, pour calculer la luminance en un point, il faut connaître R et V et B en ce point.
Or la matrice de Bayer fournit des informations R, V et B à des emplacements différents.

Il serait complètement faux de combiner directement 3 sites R V B pour calculer une luminance (ou une chrominance): sur les transitions, le résultat serait catastrophique.

Il est donc indispensable d'interpoler pour disposer des valeurs calculées de R V et B aux mêmes endroits.
Ensuite, on peut calculer YUV, LCH, etc. tant qu'on veut.
Un capteur de 45 M sites donne 45 millions d'informations. Chacune de ces informations est un et un seul nombre. Par exemple, le niveau de Bleu en ce point.

Un pixel est défini par 3 nombres (bleu, vert, rouge), pas par un seul. 45 M pixels représentent donc  3x45 millions d'informations.

Il ne peut définitivement pas y avoir équivalence entre les deux.
On ne peut pas passer de 45 millions d'informations à 3x45 millions: les 2x45 M nombres ajoutés par interpolation ne sont pas des informations nouvelles, ce ne sont que la réécriture dans une base différente des 45 initiales.

Un capteur de 45 M sites peut donc fournir 45 M pixels interpolés, mais pas 45 M pixels indépendants.

On rappellera à toutes fins utiles que l’œil est beaucoup plus sensible à la luminance qu'à la chrominance...

JPEG est capable de coder les couleurs sous n’importe quel format, toutefois les meilleurs taux de compression sont obtenus avec des codages de couleur de type luminance/chrominance car l’œil humain est assez sensible à la luminance (la luminosité) mais peu à la chrominance (la teinte) d'une image. Afin de pouvoir exploiter cette propriété, l'algorithme convertit l'image d'origine depuis son modèle colorimétrique initial (en général RVB) vers le modèle de type chrominance/luminance YCbCr. Dans ce modèle, Y est l'information de luminance, et Cb et Cr sont deux informations de chrominance, respectivement le bleu moins Y et le rouge moins Y.

Pour exploiter cette faible sensibilité de l’œil humain à la chrominance, on peut procéder à un sous-échantillonnage de ses signaux.

https://fr.wikipedia.org/wiki/JPEG


Ici la thèse déjà ancienne de Harold Phelippeau mais qui illustre avec des images  toute la différence entre une panoplie de dématriçeurs plus ou moins sophistiqués  et des interpolations simples  en terme visuel ( donc numérique au passage).

http://tel.archives-ouvertes.fr/docs/00/49/92/52/PDF/2009PEST1002_0_0.pdf

Oui, voir post #230.

Et çà date de 2010. Depuis un DXO et même ACR ont encore bien progressé et on peut dire dans 99% des cas 1 pixel de fichier raw= 1 pixel (photosite) en terme de résolution. Les moirés avec la texture de l'image n'ont pas de rapport direct évidemment.
Les constructeurs ne sont donc pas devant le tribunal  en vendant 36 Mp pour 36 Mp. C'est une autre façon de vérifier  ;) ;D

Oui.

D'ailleurs, j'ai posté plusieurs exemples le montrant sans ambiguïté.


Après, pour avoir une bonne idée de ce qu'on perd avec un Bayer, il suffit de comparer avec un Foveon de définition équivalente, par exemple. Ronan Loaëc, avec qui j'en avais longuement discuté à l'époque, estimait la différence à ~30%.
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 06, 2020, 17:06:12
Si je comprends bien, le fichier jpg que tu montres est un crop à 200% de la première image et de la troisième (fichier de 460 pixels pour des images de 230), et donc un crop à 400% de la deuxième.

L'image de départ (la première) contient des structures dont la taille est inférieure à 2 pixels (de l'image, pas du crop), les cils et le cheveu isolé par exemple. Il n'est donc pas possible de réduire sa taille sans perdre définitivement d'information.

Quelle que soit la précision de l'interpolateur utilisé pour recréer les pixels de l'image 3, celle-ci ne peut pas contenir l'information perdue lors du passage de 1 à 2. C'est pourquoi l'image 3 a moins de détail que la 1.

Je ne comprends pas ces histoires de crops.
C'était pour montrer ce qu'on obtient de 230x150 photosites après dématriçage (qui est beaucoup mieux que 115x75 pixels) et que à partir de 115x75 pixels, si on fait une interpolation bicubique, les 230x150 pixels résultants n'arrivent pas à la qualité des 230x150 photosites dématricés.
Titre: Re : Re : Des rumeurs!
Posté par: Lautla le mars 09, 2020, 09:27:53
Sinon je confirme que grâce aux derniers traitements de correction des grands angles il est possible de prouver que la terre est plate...quand je photographiais un horizon sur la mer dans les années 60 avec mon 24 mm, l'objectif me prouvait la rotondité de la terre. Maintenant avec mon dernier zoom 14-24, je vois bien qu'elle est plate...les faits sont tétus  ;D ;D ;D

Excellent, autrement dit la technologie au service de la platitude  :D  ;D
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 09, 2020, 09:57:32
Sinon je confirme que grâce aux derniers traitements de correction des grands angles il est possible de prouver que la terre est plate...quand je photographiais un horizon sur la mer dans les années 60 avec mon 24 mm, l'objectif me prouvait la rotondité de la terre. Maintenant avec mon dernier zoom 14-24, je vois bien qu'elle est plate...les faits sont tétus  ;D ;D ;D
Si tu prends la photo allongé sur la plage, peut-être.
Si tu la prends depuis le haut d'une falaise et que ton zoom te montre un horizon droit, une révision s'impose.
Et si tu vois apparaître la coque d'un bateau en approche au même instant que le mât, c'est qu'il photographie à travers l'eau en lumière rasante, ce qui démontre l'utilisation de verres ayant des indices de réfraction très spéciaux  ;)
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 09, 2020, 09:58:49
Je ne comprends pas ces histoires de crops.
C'était pour montrer ce qu'on obtient de 230x150 photosites après dématriçage (qui est beaucoup mieux que 115x75 pixels) et que à partir de 115x75 pixels, si on fait une interpolation bicubique, les 230x150 pixels résultants n'arrivent pas à la qualité des 230x150 photosites dématricés.
L'image initiale de 230x150 contient des structures de fréquences élevées, de l'ordre de 2 pixels dans l'image de 230 pixels, même s'ils paraissent -forcément- plus larges dans le crop 200% (largeur 460) que tu as posté.

Tu réduis cette image d'un facteur 2, à 115x75, puis à partir de là, tu essaies de retrouver l'image initiale, y compris ces structures de 2 pixels. Il est donc essentiel que cette réduction préserve les fréquences élevées.

Or, tu l'effectues avec l'interpolateur "au plus proche", qui a une réponse nulle à la fréquence de Nyquist (correspondant à des structures de largeur 2 pixels), ce qui fait définitivement perdre l'information à cette fréquence), alors que la réponse devrait valoir 1 à cette fréquence pour préserver l'information contenue dans l'image de départ.
De plus, cet interpolateur introduit du repliement de spectre, ce qui dégrade encore l'image.

Le procédé de réduction de l'image de 230 pixels la dégrade donc de façon irréversible, ce qui empêche toute restitution ultérieure. Cela ne prouve pas du tout que l'image de 230 pixels ne contient pas d'information redondante.
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 09, 2020, 10:00:05
Je pense que si on veut inverser l'interpolation, on aura besoin des 45M  photosites de base.
Donc, pour moi, les 45M pixels restent indépendants.
Comment serait-il possible de générer 45x3 informations indépendantes (qu'on ne peut pas calculer les unes à partir des autres) en disposant seulement de 45 informations au départ?

Si je connais les positions de deux coins opposés d'un rectangle dans le plan, j'ai 4 informations indépendantes, les positions en x et y des deux coins. Il est impossible de déduire l'une de ces informations des autres.

A partir de là, je peux calculer les positions des deux autres coins, ce qui fournit 4 coordonnées.

J'ai alors 8 nombres au total, mais ce ne sont pas des informations indépendantes, puisque les uns se déduisent des autres.

A partir de 45M informations, on ne peut pas constituer 3x45M informations indépendantes.
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 09, 2020, 10:01:12
Le procédé de réduction de l'image de 230 pixels la dégrade donc de façon irréversible, ce qui empêche toute restitution ultérieure. Cela ne prouve pas du tout que l'image de 230 pixels ne contient pas d'information redondante.

Dans mon esprit, ça correspondait à un pixel à partir de 4 photosites.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 09, 2020, 10:02:28
Oui mais justement ils sont décalés, si les 4 photosites étaient superposés (cas du capteur Sigma), on n'aurait effectivement qu'une seule information par photosite, c'est à dire la luminance en ce point pour chaque canal, avec d'ailleurs deux valeurs identiques pour le vert.
Mais le fait qu'ils soient décalés permet de déduire d'autres informations.
Non, c'est strictement équivalent. Si l'échantillonnage est correct au sens de Shannon, l'image échantillonnée contient toute l'information de l'image réelle formée sur le capteur.
On peut donc reconstruire l'image de départ avec un interpolateur correct, c'est-à-dire retrouver tous ses points. En particulier, on retrouve tous ses points sur une grille décalée par rapport à la grille d'échantillonnage.
La connaissance des échantillons sur une grille est donc strictement équivalente à la connaissance des échantillons sur une autre (heureusement, car sinon la matrice de Bayer ne permettrait pas de reconstituer des pixels corrects).

Voir par exemple ce document:
https://perso.limsi.fr/vezien/pdf_cours_ima_jmv.pdf (https://perso.limsi.fr/vezien/pdf_cours_ima_jmv.pdf)
Son chapitre 1.4 expose de façon simple mais à peu près exacte les principes de l'échantillonnage et de la reconstruction d'image à partir des échantillons.

Si j'ai du bruit, le fait que deux pixels séparés par un troisième soient rouges ne veut strictement rien dire sur la couleur du pixel intermédiaire. Si je photographie une scène réelle, la plupart du temps le pixel intermédiaire sera d'une couleur proche de ce rouge, ce qui signifie que si j'ai une variation importante de la luminance sur le photosite intermédiaire, je peux me permettre de l'interpréter comme une variation de luminance en restant dans les mêmes tons.
Si je comprends bien, tu te places dans un cas où l'image ne contient pas de variations rapides de couleur, ce qui permet de déduire certaines caractéristiques d'un pixel par continuité d'une composante (chrominance, par exemple) ?
Cette dépendance réduit encore le nombre de pixels indépendants dans l'image, par définition.

Et ce n'est pas une hypothèse réaliste. En regardant autour de moi, je vois à cet instant même un coin de bâtiment rouge/ocre sur fond de ciel bleu. Un carnet de couleur bleue sur fond de bureau couleur chêne. Un stylo vert sur ce même fond. Etc.

Autant de variations très rapides de chrominance, aussi rapides que les variations de luminance.

Alors que si je suis dans la pure interpolation comme l'a fait Seba dans sa seconde photo, je ne peux que faire la moyenne entre deux pixels adjacents.
Certainement pas.
L'interpolateur idéal reconstruit chaque point à partir de tous les points de l'image. Mais il nécessite trop de calculs.
On se limite donc en pratique à des interpolateurs travaillant sur des voisinages de 3x3, 5x5, etc.

Mais travailler sur un voisinage de 2 par interpolation linéaire est vraiment mauvais, et heureusement on peut faire autrement.

C'est justement ce qui provoque le moiré et c'est la limite du système : si tu as une ligne d'un pixel de large, comme elle n'est captée que par un photosite et pas par plusieurs, l'appareil est incapable de déterminer sa couleur exacte. Si elle est seule, le dématriceur s'en sort en la comparant aux pixels adjacents, mais si on a plusieurs lignes adjacentes, le dématriceur n'est plus capable de savoir ce qui appartient à chaque ligne et il interprète ça avec des couleurs aléatoires.
Oui, l'ajout d'hypothèses simplistes pour essayer de reconstituer plus d'information que le capteur n'en fournit ne fonctionne pas dès que le signal est un peu complexe.

Soit l'image ne contient pas de fréquences élevées, et tout va bien (mais l'hypothèse ne sert pas à grand chose).
Soit elle en contient et le résultat est faux...
De façon flagrante sur les motifs répétitifs (moirés...), mais aussi sur les structures isolées avec des halos, des dédoublements, des traits qui font par miracle la largeur exacte d'un photosite, etc.

Et ne me fais pas dire ce que je n'ai pas dit, il n'y a aucune IA dans ce que j'ai écrit, juste des algorithmes de traitement du signal tout ce qu'il y a de plus banal. J'en utilisais déjà il y a 30 ans pendant mes études alors que le terme IA apparaissait à peine.
Tu parlais d'ajouter de l'information à l'image échantillonnée pour reconstruire quelque chose de réaliste. Je dis simplement que cela fait penser immédiatement à l'IA, qui permettra (ou permet déjà dans les smartphones?) d'aller vers cet objectif.

Dans les cas discutés ci-dessus, relevant effectivement du traitement de signal banal, on ajoute implicitement des hypothèses simples comme la corrélation entre les photosites de "couleurs" différentes; cela conduit à des artefacts de type moirés, halos, etc. dès que le signal ne vérifie pas ces hypothèses. C'est trop simpliste.
Titre: Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 09, 2020, 10:04:08
Tout à fait.
Le pb vient du fait que l'on croit que le dématriçage = une interpolation.
On a au départ une grille qui donne, en chaque point, R ou V ou B.
On a au final la même grille avec en chaque point R et V et B.

Les valeurs de la grille finale sont déduites des valeurs existantes dans la grille iniitale. C'est par définition de l'interpolation, quelle que soit la méthode utilisée.

C'est bp plus complexe que çà : les meilleurs dématriceurs analysent d'abord les directions ( des détails, des lignes, des dégradés pour faire simple) et vont interpoler ( ou seulement pondérer les canaux rvb quand c'est possible en absence de directions)  selon un arbre de décision devenu trés complexe complexe pour les meilleurs dématriceurs.

De deux choses l'une, le traitement est globalement linéaire ou il ne l'est pas.

S'il est linéaire
Le traitement est alors équivalent à un produit de convolution, et tout ce qui est dit ci-avant s'applique.
On peut bien sûr l'analyser en termes de fréquences spatiales (définies par un ombre de cycles/mm et une orientation).

S'il n'est pas linéaire
Le débat porte sur la capacité du traitement à reproduire l'image réelle; s'il n'est pas linéaire, la réponse est non.
Cela peut être acceptable pour obtenir des images réalistes, mais pas des images fidèles à la réalité.
Donc plutôt typé smartphone qu'APN.

Titre: Re : Des rumeurs!
Posté par: jeandemi le mars 09, 2020, 22:57:00
Je me dis que, si l'illuminant a une dominante de couleur (exemple: un spot bleu pour un spectacle) qui sature complètement ou pas le canal couleur correspondant, et que les autres canaux couleur sont vides, le résolution du capteur est fatalement divisée, par 4 si c'est un illuminant rouge ou bleu, par 2 s'il est vert.

Ce qui m'a fait me tourner vers un Leica Monochrom M246 plutôt qu'un M240 ou M10, ce sont des artefacts de dématriçage dûs à des spots bleus, qui faisaient des taches sur les visages des musiciens, irrattrapables même en convertissant l'image en noir et blanc (par désaturation ou conservation d'un canal). Le Monochrom n'est pas sujet à ce type de problème. Je posterai un exemple quand je serai sur mon ordi
Titre: Re : Des rumeurs!
Posté par: jdm le mars 10, 2020, 06:57:47

 Si une once de bon sens pouvait linéariser le raisonnement de Jenga ...
Titre: Re : Re : Des rumeurs!
Posté par: jdm le mars 10, 2020, 06:59:04
Je me dis que, si l'illuminant a une dominante de couleur (exemple: un spot bleu pour un spectacle) qui sature complètement ou pas le canal couleur correspondant, et que les autres canaux couleur sont vides, le résolution du capteur est fatalement divisée, par 4 si c'est un illuminant rouge ou bleu, par 2 s'il est vert.

....

 C'est contagieux  ... ?  :(
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 10, 2020, 07:35:58
Si une once de bon sens pouvait linéariser le raisonnement de Jenga ...
Tu veux dire, pour me faire rentrer dans le droit chemin?  :)
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 10, 2020, 07:46:11
Je me dis que, si l'illuminant a une dominante de couleur (exemple: un spot bleu pour un spectacle) qui sature complètement ou pas le canal couleur correspondant, et que les autres canaux couleur sont vides, le résolution du capteur est fatalement divisée, par 4 si c'est un illuminant rouge ou bleu, par 2 s'il est vert.

Ce qui m'a fait me tourner vers un Leica Monochrom M246 plutôt qu'un M240 ou M10, ce sont des artefacts de dématriçage dûs à des spots bleus, qui faisaient des taches sur les visages des musiciens, irrattrapables même en convertissant l'image en noir et blanc (par désaturation ou conservation d'un canal). Le Monochrom n'est pas sujet à ce type de problème. Je posterai un exemple quand je serai sur mon ordi
En effet, la résolution d'un capteur monochrome n'est pas du tout équivalente à celle d'un capteur couleur ayant le même nombre de sites, même en ne considérant que la luminance.

Chaque site du capteur monochrome enregistre effectivement la luminance en ce point puisqu'il n'y a pas de filtre coloré. On a donc autant d'informations de luminance que de sites monochromes.
Ce n'est pas le cas en Bayer, comme indiqué plus haut, puisque le calcul de la luminance nécessite de connaître R et V et B en un même point, donc interpolés.

Donc, un capteur monochrome de 24 M produit une image de 24 M pixels monochromes sans interpolation.
Le capteur couleur de 24 M sites produit une image de 24 M pixels couleur au prix d'une interpolation.

Lorsque des fréquences spatiales élevées sont présentes, l'image couleur interpolée est définitivement faussée en chrominance et en luminance; c'est pourquoi, même en la convertissant en monochrome, on n'obtient pas un bon résultat.
Titre: Re : Re : Re : Des rumeurs!
Posté par: jdm le mars 10, 2020, 08:17:50
Tu veux dire, pour me faire rentrer dans le droit chemin?  :)

 Déjà concernant le dématriçage, si tu abandonnait le concept d'interpolation qui est le principe crasse de ton raisonnement simpliste depuis le début du fil pour celui d'interprétation, on ferait une grosse avancée, voire même on pourrait clore le débat ...
Titre: Re : Des rumeurs!
Posté par: namzip le mars 10, 2020, 09:11:44
Bonjour jdm,

Le concept d’interprétation induit une notion de comparaison aussi je pense qu’interpolation est le terme juste.
Il s’agit en effet d’obtenir les infos manquantes par calcul.  :)

Depuis mon intervention où je m’étonnais de la disparition des trois quart des pixels de mes capteurs, je suis ce fil avec délectation.
Titre: Re : Des rumeurs!
Posté par: Rami le mars 10, 2020, 09:22:16
+1 pour interpolation qui sous-entend un algorithme, pas forcément linéaire ni local.
Interprétation sous-entend plutôt de l'IA, ce qui n'est pas le cas.

Sinon, on peut employer le terme de reconstruction (au sens mathématique du terme).
Titre: Re : Des rumeurs!
Posté par: jdm le mars 10, 2020, 10:18:34
 Reconstruction me va sans problème, mais pas réduire le principe à un simple calcul de d'interpolation de la mesure d'un signal ...
 
 Un petit coup d’œil sur une proposition de dématriçage (parmi de nombreuses) avec des comparaisons à la fin :

https://www.groundai.com/project/joint-demosaicing-and-denoising-with-perceptual-optimization-on-a-generative-adversarial-network/ (https://www.groundai.com/project/joint-demosaicing-and-denoising-with-perceptual-optimization-on-a-generative-adversarial-network/)
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 10, 2020, 10:30:01
Je me dis que, si l'illuminant a une dominante de couleur (exemple: un spot bleu pour un spectacle) qui sature complètement ou pas le canal couleur correspondant, et que les autres canaux couleur sont vides, le résolution du capteur est fatalement divisée, par 4 si c'est un illuminant rouge ou bleu, par 2 s'il est vert.

Configuration qu'on ne rencontrera pas dans la réalité, de toute façon...
Titre: Re : Re : Re : Des rumeurs!
Posté par: jeandemi le mars 10, 2020, 10:33:19
 
Configuration qu'on ne rencontrera pas dans la réalité, de toute façon...
Très rarement en tout cas, mais ça peut arriver avec les éclairages de scènes
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: AlainNx le mars 10, 2020, 10:35:54
Très rarement en tout cas, mais ça peut arriver avec les éclairages de scènes

Les éclairages de scène sont rarement calés à 5000K ;-)
Au contraire, les rouges y sont envahissants, et pourrissent tout.
Titre: Re : Des rumeurs!
Posté par: namzip le mars 10, 2020, 10:45:44
J’ai rencontré ce phénomène en concert avec un éclairage bleu. —-> images poubelle.  :(
Titre: Re : Re : Des rumeurs!
Posté par: AlainNx le mars 10, 2020, 14:01:27
J’ai rencontré ce phénomène en concert avec un éclairage bleu. —-> images poubelle.  :(

Moi itou, avec des éclairages rouges : poubelle direct, car intraitable sauf passage en N&B.
Titre: Re : Des rumeurs!
Posté par: cagire le mars 10, 2020, 20:20:45
En photo de spectacle pour quelle raison tenez-vous à changer la couleur des éclairages ?
Titre: Re : Des rumeurs!
Posté par: jeandemi le mars 10, 2020, 20:29:50
pour ça:
Titre: Re : Des rumeurs!
Posté par: jeandemi le mars 10, 2020, 20:31:39
et ça:
(Tony "TC" Coleman, l'ex batteur de B.B. King, au Leica M240)
Titre: Re : Des rumeurs!
Posté par: cagire le mars 10, 2020, 20:41:41
En raw, il est possible d'atténuer fortement ces taches inopportunes, me semble-t-il.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 10, 2020, 20:42:49
pour ça:

En même temps, c'est plus ou moins la lumière qu'a voulu le chef éclairagiste...
Titre: Re : Des rumeurs!
Posté par: kochka le mars 10, 2020, 20:51:09
Pour les faire ressembler à des martiens de série B?
Titre: Re : Des rumeurs!
Posté par: jdm le mars 10, 2020, 22:44:15

 Quand c'est bleu, c'est bleu !  ;D

(https://i.imgur.com/eWSwDRn.jpg)
Titre: Re : Re : Des rumeurs!
Posté par: AlainNx le mars 10, 2020, 22:54:22
Quand c'est bleu, c'est bleu !  ;D

(https://i.imgur.com/eWSwDRn.jpg)

Tiens ! des Schtroumpfettes !
Titre: Re : Des rumeurs!
Posté par: jdm le mars 10, 2020, 23:09:35
Yep ! 😉
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: egtegt² le mars 11, 2020, 14:40:03
[…]Si je comprends bien, tu te places dans un cas où l'image ne contient pas de variations rapides de couleur, ce qui permet de déduire certaines caractéristiques d'un pixel par continuité d'une composante (chrominance, par exemple) ?
Cette dépendance réduit encore le nombre de pixels indépendants dans l'image, par définition.

Et ce n'est pas une hypothèse réaliste. En regardant autour de moi, je vois à cet instant même un coin de bâtiment rouge/ocre sur fond de ciel bleu. Un carnet de couleur bleue sur fond de bureau couleur chêne. Un stylo vert sur ce même fond. Etc.
[…]

Non tu n'as pas compris ce que je voulais dire. Si je prends ton exemple un coin de bâtiment rouge sur fond de ciel bleu, ta photo n'est pas composée d'un assemblage de pixels aléatoirement rouges ou bleus (ce que j'appelle du bruit), elle est composée d'une plage de couleur globalement rouge et d'une plage de couleur globalement bleue. Pour les parties relativement uniformes, la résolution a peu d'importance, on a quelques variations de couleur mais l'œil est fait de telle façon qu'il ne détectera pas de variation légère entre deux pixels.
Ce qui est intéressant et qui va déterminer la définition du capteur, c'est la façon dont il va pouvoir rendre la transition entre le rouge et le bleu. Et dans ce cas, la luminance des photosites adjacents va permettre de faire une extrapolation bien plus fine que si on n'avait effectivement qu'un pixel par bloc de 4 photosites.

Cela dit, j'ai fait il y a longtemps l'essai de prendre une photo avec mon appareil exactement à 1/4 de la définition (en mpix soit la moitié en résolution), donc avec strictement 1 pixel pour 4 photosites, quand on zoome à 100%, la différence est notable.

Mais au bout du compte, comme l'a démontré seba, la photo à définition nominale reste plus détaillée que la photo au quart de la définition, et elle est sans commune mesure avec la photo prise au quart de la définition puis rééchantillonnée à la définition nominale.

Car c'est ce qui me dérange dans ton argumentaire : si j'ai bien compris, pour toi un appareil 36 Mpix ne propose en fin de compte que 9 vrais Mpix et le quadruplement de la définition n'apporte aucune information supplémentaire. Et pourtant tout démontre le contraire.
Titre: Re : Des rumeurs!
Posté par: namzip le mars 11, 2020, 15:34:41
J'ai retrouvé une image avec un éclairage mono bien chiant pour un post traitement.
Là c'est à peu près rattrapable mais toutes celles sous les spots bleus c'est chaud.
Pour Hugues Aufrey la seule solution c'est de passer en BW.
Titre: Re : Re : Des rumeurs!
Posté par: seba le mars 11, 2020, 15:48:09
Pour Hugues Aufrey la seule solution c'est de passer en BW.

Qui est cet imposteur ?
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 11, 2020, 17:24:23
Car c'est ce qui me dérange dans ton argumentaire : si j'ai bien compris, pour toi un appareil 36 Mpix ne propose en fin de compte que 9 vrais Mpix et le quadruplement de la définition n'apporte aucune information supplémentaire. Et pourtant tout démontre le contraire.

De toute façon, les faits son têtus.


Déjà postés, les crops à 300% entre le D810 (36 MPixels Bayer) et le Sigma DP2m (15 MPixels Foveon) sur le même sujet :
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 11, 2020, 19:41:31
Déjà postés, les crops à 300% entre le D810 (36 MPixels Bayer) et le Sigma DP2m (15 MPixels Foveon) sur le même sujet :

Oups... chacun aura rectifié : crops à 1 600%, bien sûr.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 11, 2020, 20:02:12
Une autre façon d'aborder la chose : avec IRIS* (image non dématricée).


1 - l'image entière (36 MPixels, donc), crop 100% (on arrive à distinguer la matrice),

2 - une seule composante (R, V, V ou B(?), 9 MPixels, donc), crop 100% également.



*j'ai fortement éclairci l'image, pour plus de lisibilité.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 11, 2020, 22:32:19
Ce qui est intéressant et qui va déterminer la définition du capteur, c'est la façon dont il va pouvoir rendre la transition entre le rouge et le bleu. Et dans ce cas, la luminance des photosites adjacents va permettre de faire une extrapolation bien plus fine que si on n'avait effectivement qu'un pixel par bloc de 4 photosites.
Ce terme ne désigne pas un attribut existant. Un photosite ne donne pas d'information de luminance. Connaître la luminance nécessite de connaître les intensités des 3 couleurs. 

Pour un même site bleu illuminé à 10%, la luminance de l'image réelle en ce point peut varier de 1% à 90%, comme je l'ai montré plus haut dans ce fil.

Je sais bien que le noyau d'interpolation de certains dématriceurs néglige cette réalité, en mixant des sites de couleurs différentes. C'est pour cela qu'ils produisent des résultats faux lorsque l'image contient des fréquences proches de celle de Nyquist.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 11, 2020, 22:34:29
Car c'est ce qui me dérange dans ton argumentaire : si j'ai bien compris, pour toi un appareil 36 Mpix ne propose en fin de compte que 9 vrais Mpix et le quadruplement de la définition n'apporte aucune information supplémentaire. Et pourtant tout démontre le contraire.

Un capteur (couleur) de 36 Msites délivre... 36 M informations indépendantes, d'une seule couleur chacune. Indépendantes signifie qu'il n'est pas possible de déduire l'une des autres.

Pour avoir 36 M pixels couleur indépendants, il faut 3x36 M informations indépendantes.

Comme on ne peut pas déduire 3x36M infos indépendantes de seulement 36M, un capteur de 36M sites ne peut pas fournir 36 Mpx indépendants.

Et pourtant tout démontre le contraire.
Pas le traitement du signal, en tout cas, ni l'analyse des quantités d'information.

Ni l'expérimentation sur cible connue dans des conditions maîtrisées (fournir une image sans connaître la scène réelle ne permet pas de savoir si on a reproduit cette dernière).

Rappel:
-le D850 moire sur des cibles de fréquence nettement inférieure à la moitié de sa densité de "pixels" (DP Review)

-idem pour les capteurs 24 "Mpixels" dont les tests DP Review ont été postés dans ce fil.

Ces résultats sont inexplicables... sauf si on admet que le nombre de pixels indépendants n'est pas égal au nombre de sites monochromes, auquel cas tout rentre dans l'ordre.  :)
Titre: Re : Des rumeurs!
Posté par: jdm le mars 11, 2020, 23:02:46

Et la terre, elle est plate...?  :)
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 12, 2020, 01:21:48
Un capteur (couleur) de 36 Msites délivre... 36 M informations indépendantes, d'une seule couleur chacune. Indépendantes signifie qu'il n'est pas possible de déduire l'une des autres.

Pour avoir 36 M pixels couleur indépendants, il faut 3x36 M informations indépendantes.

Comme on ne peut pas déduire 3x36M infos indépendantes de seulement 36M, un capteur de 36M sites ne peut pas fournir 36 Mpx indépendants.
Pas le traitement du signal, en tout cas, ni l'analyse des quantités d'information.

Ni l'expérimentation sur cible connue dans des conditions maîtrisées (fournir une image sans connaître la scène réelle ne permet pas de savoir si on a reproduit cette dernière).

Rappel:
-le D850 moire sur des cibles de fréquence nettement inférieure à la moitié de sa densité de "pixels" (DP Review)

-idem pour les capteurs 24 "Mpixels" dont les tests DP Review ont été postés dans ce fil.

Ces résultats sont inexplicables... sauf si on admet que le nombre de pixels indépendants n'est pas égal au nombre de sites monochromes, auquel cas tout rentre dans l'ordre.  :)

Il n'y a pas plus sourd etc...
Titre: Re : Des rumeurs!
Posté par: seba le mars 12, 2020, 06:51:52
Jenga, tu es quand même d'accord pour dire que l'image de 36 MP dématricée est bien meilleure que l'image du Foveon de 15 MP ?
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 12, 2020, 22:37:59
Jenga, tu es quand même d'accord pour dire que l'image de 36 MP dématricée est bien meilleure que l'image du Foveon de 15 MP ?
On compare des copies d'écran de crops 1600% de photos prises dans des conditions inconnues, l'une venant d'un compact APS-C Foveon et l'autre d'un reflex 24x36 Bayer?

Quel rapport avec le fait que 36 Méga informations ne contiennent pas 3x36 Méga informations?

Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 12, 2020, 22:39:07
Certains intervenants semblent être persuadés que 36 M sites = 36 M pixels, ce qui signifie que l'on pourrait, sans ambiguïté, reconstruire une image de 36 M pixels vrais à partir des 36 M photosites.

Voici un exemple d'informations couleur issues des photosites.

En rouge, les valeurs des sites "rouges", en vert celles des sites "verts", etc. Les valeurs sont normalisées entre 0 et 100.

10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10

La question est simple: quelles sont les 3 composantes RVB du 4ème pixel de chaque ligne?

Si j'en crois ces intervenants, elles peuvent être déterminées sans ambiguïté à partir des informations délivrées par les photosites.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 12, 2020, 22:45:29
On compare des copies d'écran de crops 1600% de photos prises dans des conditions inconnues, l'une venant d'un compact APS-C Foveon et l'autre d'un reflex 24x36 Bayer?

Elles ne sont absolument pas "inconnues" : faites dans des conditions très similaires, sur trépied, avec un Nikon D810 + Nikkor f/2.8 45 PC-E d'une part, et Sigma DP2m (avec f/2.8 30*, donc) d'autre part, sur le même sujet...

Sauf mauvaise foi délibérée, impossible de ne pas voir la différence (alors, bien sûr, tu vas essayer d'enrhumer l'assistance avec tes développement théoriques mal maitrisés... dans quel but ?).


*équivalent 45mm en 24x36.

Quel rapport avec le fait que 36 Méga informations ne contiennent pas 3x36 Méga informations?

Ta prose est incompréhensible... le D810, c'est 36 MPixels, point barre.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 12, 2020, 23:00:17
Certains intervenants semblent être persuadés que 36 M sites = 36 M pixels, ce qui signifie que l'on pourrait, sans ambiguïté, reconstruire une image de 36 M pixels vrais à partir des 36 M photosites.

Voici un exemple d'informations couleur issues des photosites.

En rouge, les valeurs des sites "rouges", en vert celles des sites "verts", etc. Les valeurs sont normalisées entre 0 et 100.

10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10

La question est simple: quelles sont les 3 composantes RVB du 4ème pixel de chaque ligne?

Si j'en crois ces intervenants, elles peuvent être déterminées sans ambiguïté à partir des informations délivrées par les photosites.

Qu'est-ce que tu ne comprends pas dans cette phrase ?

L’œil humain est assez sensible à la luminance (la luminosité) mais peu à la chrominance (la teinte) d'une image.

https://fr.wikipedia.org/wiki/JPEG
Titre: Re : Re : Re : Des rumeurs!
Posté par: seba le mars 13, 2020, 06:42:20
On compare des copies d'écran de crops 1600% de photos prises dans des conditions inconnues, l'une venant d'un compact APS-C Foveon et l'autre d'un reflex 24x36 Bayer?

Verso92 a indiqué les conditions. Considérant les formats et les distances focales, elles sont les mêmes.
Titre: Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 13, 2020, 06:49:09
Certains intervenants semblent être persuadés que 36 M sites = 36 M pixels, ce qui signifie que l'on pourrait, sans ambiguïté, reconstruire une image de 36 M pixels vrais à partir des 36 M photosites.

Tous les pixels ne sont certainement pas reconstruits sont ambiguïté puisqu'il peut y avoir des artefacts, et que d'autre part il existe de nombreux algorithmes de dématriçage dont aucun n'est dépourvu de défauts. S'il existait un algorithme parfait, tout le monde aurait le même.
Ce qui serait intéressant, c'est de pouvoir expliquer comment il est possible (et c'est possible) qu'une image dématricée à partir de 36 M de photosites est meilleure qu'une image de 15 M de pixels.
Titre: Re : Des rumeurs!
Posté par: seba le mars 13, 2020, 06:52:22
Voici un exemple d'informations couleur issues des photosites.

En rouge, les valeurs des sites "rouges", en vert celles des sites "verts", etc. Les valeurs sont normalisées entre 0 et 100.

10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10
10 10 10 10 90 10 90 10
10 10 10 10 10 10 10 10

La question est simple: quelles sont les 3 composantes RVB du 4ème pixel de chaque ligne?

Si j'en crois ces intervenants, elles peuvent être déterminées sans ambiguïté à partir des informations délivrées par les photosites.

Il faudrait appliquer à ceci différent algortihmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.
Mais je pense que le fait que ta matrice soit petite est rédhibitoire (bien des algorithmes, pour calculer un seul pixel, prennent en compte plus de photosites que ta matrice n'en comporte).
Le nombre de photosites utiles du capteur est un peu moindre que le nombre total, sinon aux bords du capteur le nombre de photosites pris en compte pour le dématriçage serait insuffisant. Donc calculer par exemple le 4ème pixel de la 1ère ligne est impossible car aucun algorithme n'est applicable.
A mon avis, le plus simple des algorithmes en usage permettrait tout juste de calculer les 4 pixels centraux, et encore...
Titre: Re : Re : Des rumeurs!
Posté par: seba le mars 13, 2020, 07:08:02
Oups !

Il faudrait appliquer à ceci différents algorithmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 13, 2020, 08:14:03
Il faudrait appliquer à ceci différent algortihmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.
Mais je pense que le fait que ta matrice soit petite est rédhibitoire (bien des algorithmes, pour calculer un seul pixel, prennent en compte plus de photosites que ta matrice n'en comporte).
Le nombre de photosites utiles du capteur est un peu moindre que le nombre total, sinon aux bords du capteur le nombre de photosites pris en compte pour le dématriçage serait insuffisant. Donc calculer par exemple le 4ème pixel de la 1ère ligne est impossible car aucun algorithme n'est applicable.
A mon avis, le plus simple des algorithmes en usage permettrait tout juste de calculer les 4 pixels centraux, et encore...

Post #233, j'ai montré les résultats d'un exercice que j'avais fait à l'époque, par curiosité, sur un motif relativement petit (au delà, ça aurait pris trop de temps), avec un algo simpliste bilinéaire.

On voit le résultat...

Depuis, on sait (source Nikon, voir le post de Bernard2) que sur le D1, l'algo de dématriçage tournait sur un matrice de 12 x 12 pixels. On devine également (cf les documents PDF mis en lien) que les algos récents sont très sophistiqués (détection de la direction, etc).


La question de jenga au post #313 n'a tout simplement pas de sens...
Titre: Re : Re : Des rumeurs!
Posté par: jdm le mars 13, 2020, 08:26:59
Il faudrait appliquer à ceci différent algortihmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.
...

 Et en plus adapter les algos pour un capteur visiblement inconnu (fort heureusement) avec des valeurs irréalistes et un échantillon non viable !

Gratté par Verso, aucun sens ...  :)
Titre: Re : Des rumeurs!
Posté par: egtegt² le mars 13, 2020, 10:45:32
Ce terme ne désigne pas un attribut existant. Un photosite ne donne pas d'information de luminance. Connaître la luminance nécessite de connaître les intensités des 3 couleurs. 

Pour un même site bleu illuminé à 10%, la luminance de l'image réelle en ce point peut varier de 1% à 90%, comme je l'ai montré plus haut dans ce fil.

Je sais bien que le noyau d'interpolation de certains dématriceurs néglige cette réalité, en mixant des sites de couleurs différentes. C'est pour cela qu'ils produisent des résultats faux lorsque l'image contient des fréquences proches de celle de Nyquist.
Ben si ! un photosite donne justement uniquement une information de luminance. Pas la luminance globale mais la luminance sur le canal filtré (R, V ou B), c'est ce dont je parlais.

Un capteur (couleur) de 36 Msites délivre... 36 M informations indépendantes, d'une seule couleur chacune. Indépendantes signifie qu'il n'est pas possible de déduire l'une des autres.

Pour avoir 36 M pixels couleur indépendants, il faut 3x36 M informations indépendantes.

Comme on ne peut pas déduire 3x36M infos indépendantes de seulement 36M, un capteur de 36M sites ne peut pas fournir 36 Mpx indépendants.
Pas le traitement du signal, en tout cas, ni l'analyse des quantités d'information.

Ni l'expérimentation sur cible connue dans des conditions maîtrisées (fournir une image sans connaître la scène réelle ne permet pas de savoir si on a reproduit cette dernière).

Rappel:
-le D850 moire sur des cibles de fréquence nettement inférieure à la moitié de sa densité de "pixels" (DP Review)

-idem pour les capteurs 24 "Mpixels" dont les tests DP Review ont été postés dans ce fil.

Ces résultats sont inexplicables... sauf si on admet que le nombre de pixels indépendants n'est pas égal au nombre de sites monochromes, auquel cas tout rentre dans l'ordre.  :)
Tu t'obstines à ne pas lire ce qu'on t'écrit : je n'ai jamais écrit qu'un capteur 36 Mpix était capable de rendre 36 Millions de pixels totalement indépendants, c'est même exactement le contraire puisque j'ai écrit qu'un tel capteur était effectivement incapable de rendre une image de 36 millions de points totalement aléatoires.

Par contre, il se trouve que les zones d'une scène ne sont pas indépendantes les unes des autres, il y a des continuités et ce sont ces continuités qui permettent un traitement du signal intelligent et une résolution finale largement supérieure à 9 Mpix, même s'il s'agit d'approximations.

On voit parfois les limites avec par exemple les Sony qui suppriment les étoiles d'un pixel sur un photo astro ou les motifs répétitifs moirés mais dans 99% des cas, ça donne d'excellents résultats.

Mais c'est un dialogue de sourd, tu dis qu'on ne peut pas photographier 36 Mpix indépendants et on te répond qu'on s'en fout vu qu'aucune photo n'est composée de 36 millions de pixels indépendants.
Titre: Re : Des rumeurs!
Posté par: namzip le mars 13, 2020, 11:55:30
En fait vous dites tous la même chose.
Autour d’une mousse ça passerait mieux.   :)
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 13, 2020, 12:33:23
En fait vous dites tous la même chose.

Pas vraiment, non.
Titre: Re : Des rumeurs!
Posté par: Manu_14 le mars 13, 2020, 14:51:05
Je suis un peu perdu. D'après ce que j'avais compris (mais je ne demande qu'à être corrigé) on distingue:

1.l'aliasing en chrominance lié à la matrice de Bayer qui nécessite une interpolation complexe pour restituer une information colorée complète (une couleur RVB par pixel alors que chaque photosite ne voit qu'une couleur R, V ou B). C'est, il me semble, ce type d'aliasing dont parle Jenga.

2. l'aliasing en luminance dont la survenue dépend du rapport entre la fréquence d'échantillonnage (donc de la taille d'un photosite) et la plus haute fréquence spatiale (fréquence max) que peut laisser passer l'objectif.
La fréquence d'échantillonnage doit être au moins le double de la fréquence max sinon l'aliasing en luminance (moiré) risque d'apparaître. Le filtre passe-bas prévient cette apparition si nécessaire. La résolution du capteur est donc directement liée à la fréquence d'échantillonnage.
Un capteur de 24M de photosites produit des pixels de 6 microns, sa résolution (qui ne dépend pas de la couleur) est donc de 1/(taille du photosite X 2) puisqu'il faut deux photosites pour distinguer deux traits sur une mire, soit 1/12 x 1000= 83,3 traits par millimètres. Cette résolution ne dépend bien que de la fréquence d'échantillonnage, d'où la différence entre les deux images proposées par Verso (le D810 de 36 MPixels) et le Sigma DP2m de 15 MPixels).
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 13, 2020, 16:55:39
En fait, il faut vraiment distinguer les variables.

La fréquence maximale d'un signal périodique ne pourra en aucun cas dépasser Fe/2 (Shannon), Fe étant la fréquence d'échantillonnage spatiale, le photosite, donc.

En d'autres termes, la période du motif répétitif ne pourra pas être plus petite que deux photosites. Mais comme on parle en général de "paires de lignes" pour exprimer la résolution en optique, ce n'est pas plus gênant que ça. Pour un 24 x 36 24 MPixels (6 000 x 4 000 pixels, donc), cela donne une densité de 167 pixels/mm, ou encore 83 paires de lignes/mm.

Par contre, un signal non périodique d'une largeur plus petite que le photosite pourra tout à fait être détecté, à condition que son contraste avec son environnement soit suffisant (on en a plusieurs exemples dans les crops que j'ai montrés). Par contre, la largeur ne pourra bien sûr pas être inférieure à un photosite, par principe.

Ces conditions, liées à la luminance, sont valables pour tous types de capteurs, bayerisés ou pas (Foveon).


Pour les capteurs de type "Bayer" viennent s'ajouter les biais liés à la reconstruction des deux couleurs manquantes par photosite. Comme évoqué précédemment, les pixels de l'image ne sont pas des entités indépendantes les unes par rapport aux autres (c'est la différence de raisonnement avec notre petit camarade) et les algorithmes récents parviennent à reconstruire une image de haute qualité, même si elle n'est pas aussi "parfaite" que celle qu'aurait délivré un Foveon (sans Bayer, donc) de définition égale.

Reste que quand on a un motif répétitif proche de la résolution du capteur, les algos, même les plus récents, ne peuvent plus grand chose... c'est le fameux moiré qu'on observe quelquefois, que j'appelle pour ma part "moiré de chrominance".
Titre: Re : Re : Des rumeurs!
Posté par: Manu_14 le mars 13, 2020, 17:07:35
Par contre, un signal non périodique d'une largeur plus petite que le photosite pourra tout à fait être détecté, à condition que son contraste avec son environnement soit suffisant (on en a plusieurs exemples dans les crops que j'ai montrés). Par contre, la largeur ne pourra bien sûr pas être inférieure à un photosite, par principe.

Merci pour ta réponse , on tombe sur les même chiffres (j'aurais dû écrire paires de lignes plutôt que traits).

En revanche je vois comme une contradiction dans cette phrase:

Par contre, un signal non périodique d'une largeur plus petite que le photosite pourra tout à fait être détecté, à condition que son contraste avec son environnement soit suffisant (on en a plusieurs exemples dans les crops que j'ai montrés). Par contre, la largeur ne pourra bien sûr pas être inférieure à un photosite, par principe.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 13, 2020, 17:10:36
En revanche je vois comme une contradiction dans cette phrase:

Je veux dire par là que le motif peut être très fin (par exemple 1 cm), si son contraste est suffisant avec son environnement direct, il pourra apparaitre sur l'image, même si la largeur du photosite représente 3 cm à cette distance.


Par contre, même si on a toutes les distances utiles et les caractéristiques du capteur, on ne pourra rien déduire de plus que le motif fait 3 cm de large... ou peut-être moins : le pixel est le plus petit élément de l'image, sa "brique" de base.
Titre: Re : Re : Des rumeurs!
Posté par: JMS le mars 13, 2020, 17:14:38
En fait vous dites tous la même chose.
Autour d’une mousse ça passerait mieux.   :)

Il est urgent de la boire avant que les bars ne soient fermés ! Maintenant je vois qu'il y a du progrès, celui qui écrivait que le capteur 36 Mpxl est équivalent à un 9 Mpxl écrit désormais que c'est un 36 Mpxl dont les couleurs sont fausses : heureusement que l'argentique nous donnait toujours des couleurs vraies, il suffisait quand j'étais jeune de poser sur la table lumineuse côte à côte le même sujet photographié avec une K25, une K64, une Ekta 64, une Ekta 160, une Agfa CT 21, une Agfachrome 50, une Ferrania Dia 28, une Anscochrome et une Orwo UT 18 pour s'en convaincre ! Seul Bayer ment sur les couleurs  ;D ;D ;D

PS : j'ai vraiment des essais de tous ces films dans mes archives nombreuses  ;)
Titre: Re : Re : Des rumeurs!
Posté par: Manu_14 le mars 13, 2020, 17:43:50
Je veux dire par là que le motif peut être très fin (par exemple 1 cm), si son contraste est suffisant avec son environnement direct, il pourra apparaitre sur l'image, même si la largeur du photosite représente 3 cm à cette distance.

Par contre, même si on a toutes les distances utiles et les caractéristiques du capteur, on ne pourra rien déduire de plus que le motif fait 3 cm de large... ou peut-être moins : le pixel est le plus petit élément de l'image, sa "brique" de base.

Merci, c'est plus clair.
Titre: Re : Re : Des rumeurs!
Posté par: Rami le mars 13, 2020, 18:54:26
Je veux dire par là que le motif peut être très fin (par exemple 1 cm), si son contraste est suffisant avec son environnement direct, il pourra apparaitre sur l'image, même si la largeur du photosite représente 3 cm à cette distance.
Par contre, même si on a toutes les distances utiles et les caractéristiques du capteur, on ne pourra rien déduire de plus que le motif fait 3 cm de large... ou peut-être moins : le pixel est le plus petit élément de l'image, sa "brique" de base.
Il ne sera capté que par un photosite, donc on aura l'information sur une seule couleur.
Que se passera-t-il pour les deux autres ?
Loterie selon le voisinage et le dématricage à mon avis.
Ce serait amusant de pouvoir faire le test en variant le contraste de couleur.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 13, 2020, 19:00:04
Il ne sera capté que par un photosite, donc on aura l'information sur une seule couleur.
Que se passera-t-il pour les deux autres ?
Loterie selon le voisinage et le dématricage à mon avis.
Ce serait amusant de pouvoir faire le test en variant le contraste de couleur.

Si le motif n'est capturé que par un seul photosite, il passera forcément à la trappe lors du dématriçage.


Cela n'a de sens que si le sujet est un motif vertical (par exemple) faisant ~1 pixel de large. Là, il y aura cohérence (et les algorithmes pourront s'en sortir), et il ne manquera de toute façon qu'une seule couleur (puisque le motif contiendra soit des photosites V+B, soit des photosites V+R).

Les crops du post #304 donnent une bonne idée de ce que ça peut donner... mais ne pas oublier qu'il s'agit de visualisations à 1 600%, destinées à illustrer ce qui se passe au niveau du pixel.

Dans la vraie vie, même très exigeante* (visualisation 100%), ça passera rigoureusement inaperçu (cf balcons en fer forgé) :


*et une fois la photo imprimée, je n'en parle même pas...
Titre: Re : Re : Re : Des rumeurs!
Posté par: Fred_G le mars 13, 2020, 19:42:07
Ce serait amusant de pouvoir faire le test en variant le contraste de couleur.
Un test plus fiable : de la trichromie en partant d'un capteur monochrome de même définition que le Bayer à comparer. Ça devrait mettre fin à la discussion.

[...]

Dans la vraie vie, même très exigeante* (visualisation 100%), ça passera rigoureusement inaperçu (cf balcons en fer forgé) :


*et une fois la photo imprimée, je n'en parle même pas...
Pour résumer : la reconstruction peut se tromper, mais ça ne se voit pas. Tu vas finir par reconnaître que jenga n'a pas complètement tort  ;)
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 13, 2020, 19:51:06
Un test plus fiable : de la trichromie en partant d'un capteur monochrome de même définition que le Bayer à comparer. Ça devrait mettre fin à la discussion.

Pas si sûr (de combien le filtre rouge va décaler la MaP, etc...  ;-).

Pour résumer : la reconstruction peut se tromper, mais ça ne se voit pas. Tu vas finir par reconnaître que jenga n'a pas complètement tort  ;)

Si tu as suivi la discussion, tu as certainement remarqué que je prenais beaucoup de précautions dans mes formulations... j'ai toujours précisé qu'un Foveon de définition égale sera meilleur qu'un Bayer, par exemple.

J'ai insisté sur le fait que luminance et chrominance n'étaient pas deux grandeurs égales par rapport à la perception d'une image (cf lien Wikipedia sur le Jpeg).

J'ai montré aussi des exemples où le Bayer partait en couilles, si j'ose dire (pas de "sacralisation" de ma part).

Tu auras aussi remarqué, je l'espère, que mes explications sont généralement accompagnées d'illustrations réelles (ce ne sont pas seulement des assertions fumeuses d'éléments de théorie mal assimilés).
Titre: Re : Re : Des rumeurs!
Posté par: Fred_G le mars 13, 2020, 20:54:27
Pas si sûr (de combien le filtre rouge va décaler la MaP, etc...  ;-).
C'est déjà bien assez compliqué de ne parler que de la couleur, alors je ne pense pas nécessaire de faire intervenir une variable supplémentaire  ;)

Pour le reste... Tu n'as pas l'impression d'ouvrir le parapluie, là ?
Ce n'est pas une attaque personnelle, mais depuis le début je pense aussi que vous ne vous attachez pas exactement à la même chose, mais que vous êtes globalement d'accord  ;D
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 13, 2020, 22:22:41
Il faudrait appliquer à ceci différent algortihmes de dématriçage (il y en a des dizaines) pour voir ce que ça donne.
Mais je pense que le fait que ta matrice soit petite est rédhibitoire (bien des algorithmes, pour calculer un seul pixel, prennent en compte plus de photosites que ta matrice n'en comporte).
Tu peux prolonger des 4 côtés la structure que j'ai fournie. C'est constant vers la gauche et vers la droite, et les paires de lignes sont identiques.

Mais le problème n'est pas là. Il manque de l'information pour reconstruire des pixels à la même densité que les photosites, ce n'est pas une question d'algorithme.

Si l'image réelle comportait un trait vertical, par exemple bleu, d'épaisseur 1, il serait soit vu soit définitivement perdu selon sa position.
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 13, 2020, 22:23:10
Tous les pixels ne sont certainement pas reconstruits sont ambiguïté puisqu'il peut y avoir des artefacts, et que d'autre part il existe de nombreux algorithmes de dématriçage dont aucun n'est dépourvu de défauts. S'il existait un algorithme parfait, tout le monde aurait le même.
Ce qui serait intéressant, c'est de pouvoir expliquer comment il est possible (et c'est possible) qu'une image dématricée à partir de 36 M de photosites est meilleure qu'une image de 15 M de pixels.
Peut-être parce que dans le cas présent il s'agit d'images quasiment monochromes.
Dans l'image du post #311, le D810 donne, vers le bas, des volutes tantôt grises, tantôt vertes, tantôt brunes, tantôt cyan. Sans connaître la scène réelle, difficile de savoir si c'est la réalité ou des artéfacts de sous-échantillonnage.
(je serais quand même surpris que ce soit la réalité).
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 13, 2020, 22:24:09
Tu t'obstines à ne pas lire ce qu'on t'écrit
Non, je lis avec attention ce que tu écris, comme je lis tous les propos argumentés et non blessants (les deux allant de pair, en général, c'est assez facile de faire le tri).

je n'ai jamais écrit qu'un capteur 36 Mpix était capable de rendre 36 Millions de pixels totalement indépendants, c'est même exactement le contraire puisque j'ai écrit qu'un tel capteur était effectivement incapable de rendre une image de 36 millions de points totalement aléatoires.
Je suis entièrement d'accord avec cela

Par contre, il se trouve que les zones d'une scène ne sont pas indépendantes les unes des autres, il y a des continuités et ce sont ces continuités qui permettent un traitement du signal intelligent et une résolution finale largement supérieure à 9 Mpix, même s'il s'agit d'approximations.
Si on fait l'hypothèse de continuité, c'est-à-dire de l'absence de "pics", on diminue bien la résolution, qui est la plus petite structure que l'on peut reproduire?

On voit parfois les limites avec par exemple les Sony qui suppriment les étoiles d'un pixel sur un photo astro ou les motifs répétitifs moirés mais dans 99% des cas, ça donne d'excellents résultats.
En effet.

tu dis qu'on ne peut pas photographier 36 Mpix indépendants et on te répond qu'on s'en fout vu qu'aucune photo n'est composée de 36 millions de pixels indépendants.
Le rendu de la photo est faux (ou créatif?) même si une seulement une toute petite partie contient des structures fines. Tu l'évoques toi-même juste au-dessus.

Mais qu'on s'en fiche ne me pose aucune problème. C'est le choix de chacun.
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 13, 2020, 22:25:01
Je suis un peu perdu. D'après ce que j'avais compris (mais je ne demande qu'à être corrigé) on distingue:

1.l'aliasing en chrominance lié à la matrice de Bayer qui nécessite une interpolation complexe pour restituer une information colorée complète (une couleur RVB par pixel alors que chaque photosite ne voit qu'une couleur R, V ou B). C'est, il me semble, ce type d'aliasing dont parle Jenga.

2. l'aliasing en luminance dont la survenue dépend du rapport entre la fréquence d'échantillonnage (donc de la taille d'un photosite) et la plus haute fréquence spatiale (fréquence max) que peut laisser passer l'objectif.
La fréquence d'échantillonnage doit être au moins le double de la fréquence max sinon l'aliasing en luminance (moiré) risque d'apparaître.

Attention, le capteur ne mesure ni luminance ni chrominance. Il mesure des intensités R, V et B.

La luminance est calculée à partir des 3 valeurs R, V et B en un même point.
Y = 0.299 R + 0.587 V + 0.114 B

Idem pour les 2 composantes de la chrominance.
U= -0.147 R - 0.289 V + 0.436 B
V= 0.615 R - 0.515 V - 0.1 B

L'aliasing survient comme tu l'as décrit en présence de fréquences spatiales supérieures à la moitié de la fréquence d'échantillonnage.

Comme ce sont les canaux R, V, B qui sont échantillonnés, ce sont eux qui subissent éventuellement le repliement. Si l'un de ces canaux est dégradé, les grandeurs luminance et chrominance qui l’utilisent sont elles aussi dégradées.

La dégradation d'un canal bleu (par exemple) se produit dès que l'image contient dans cette couleur des cycles plus courts que le pas des photosites bleus, soit le quadruple du pas global des photosites.

Et cela n'a rien à voir avec le dématriçage, puisque cela se produit avant, lors de l’échantillonnage.

Idem dans le rouge. C'est plus favorable dans le vert (d'un facteur 1 à 2 selon l'orientation).

Intuitivement, cela signifie qu'on perd de l'information dès qu'on a un trait de largeur inférieure à 2 photosites; à la limite, un trait coloré d'épaisseur 1 sera vu ou non de façon aléatoire. Entre 1 et 2, sa largeur sera estimée de façon aléatoire.

Expérimentalement, comme déjà mentionné plus haut, nous avons un capteur de 230 photosites par mm qui moire sur un  motif de 90 paires de lignes par mm.
A cette fréquence, les traits ont une largeur de l'ordre de 2,6 photosites, ce qui est insuffisant pour les reproduire correctement (puisque inférieur à 4).

https://www.dpreview.com/reviews/nikon-d850/8 ):
(https://i.goopics.net/K1JoY.jpg)

Cela ne pose probablement pas de problème pour la photo courante.
Mon propos n'est pas là.
Je dis seulement que si on avait autant de pixels que de photosites, le motif ci-dessus serait correctement reproduit.


Titre: Re : Re : Re : Des rumeurs!
Posté par: seba le mars 13, 2020, 22:37:09
Tu peux prolonger des 4 côtés la structure que j'ai fournie. C'est constant vers la gauche et vers la droite, et les paires de lignes sont identiques.

Mais le problème n'est pas là. Il manque de l'information pour reconstruire des pixels à la même densité que les photosites, ce n'est pas une question d'algorithme.

Si l'image réelle comportait un trait vertical, par exemple bleu, d'épaisseur 1, il serait soit vu soit définitivement perdu selon sa position.

Supposons que la matrice soit suffisamment grande, est-ce que tous les algorithmes vont donner le même résultat ?
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 13, 2020, 22:42:47
Peut-être parce que dans le cas présent il s'agit d'images quasiment monochromes.
Dans l'image du post #311, le D810 donne, vers le bas, des volutes tantôt grises, tantôt vertes, tantôt brunes, tantôt cyan. Sans connaître la scène réelle, difficile de savoir si c'est la réalité ou des artéfacts de sous-échantillonnage.
(je serais quand même surpris que ce soit la réalité).

Oui mais le sujet est bien plus reconnaissable qu'avec 15 MP trichromes. Même si la couleur de certains pixels n'est pas bonne, 36 MP dématricés donnent une meilleure image que 15 MP trichromes. Je pense que si on faisait le test sur du texte, l'un pourrait être lisible et l'autre pas.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 14, 2020, 11:16:06
C'est déjà bien assez compliqué de ne parler que de la couleur, alors je ne pense pas nécessaire de faire intervenir une variable supplémentaire  ;)

Disons que je voulais éviter que ça ne dérape vers des pratiques expérimentales extrêmement limitées...  ;-)

Pour le reste... Tu n'as pas l'impression d'ouvrir le parapluie, là ?
Ce n'est pas une attaque personnelle, mais depuis le début je pense aussi que vous ne vous attachez pas exactement à la même chose, mais que vous êtes globalement d'accord  ;D

Il s'agit juste d'essayer de remettre l'église au milieu du village : la définition, c'est celle indiquée par le fabricant, sans surprise.

Après, comme je le dis :
Dans la vraie vie, même très exigeante* (visualisation 100%), ça passera rigoureusement inaperçu (cf balcons en fer forgé) :

*et une fois la photo imprimée, je n'en parle même pas...

Justement, il peut être intéressant de parler de la photo imprimée, au milieu de ces visualisations à 300 ou 1 600%, qui vont mettre en évidence les petits défauts de dématriçage.

J'avais fait à l'époque des essais* de résolutions d'impression sur l'Epson SC-P800 du club photo (cf illustration 2 ci-dessous, à 360 dpi). Et en comparaison une copie d'écran à 200% du fichier source (D850), pour s'approcher au mieux de la taille du crop d'impression (illustration 1) :


*le scanner (Epson 850) ayant servi à numériser le tirage aurait besoin d'un étalonnage, mais là n'est pas le sujet...
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 14, 2020, 12:32:32
Pour ceux qui seraient intéressés, les essais comparatifs sur les résolutions d'impression sur la SC-P800, c'est ici :

https://www.chassimages.com/forum/index.php/topic,293349.msg7048008.html#msg7048008
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 14, 2020, 21:53:00
Supposons que la matrice soit suffisamment grande, est-ce que tous les algorithmes vont donner le même résultat ?
En général, non.

Cependant, dans le cas que j'ai proposé, la symétrie du problème fait qu'ils donneront des résultats très proches sinon identiques pour le point situé au milieu, dont on cherche à reconstituer les composantes manquantes.

Je pourrai détailler si tu veux; c'est basé sur le fait que le signal ne contient que du continu (pour lequel tous les algorithmes raisonnables donnent le même résultat) et des composantes symétriques par rapport au point que l'on cherche à reconstituer: leurs points situés à égale distance de part et d'autre du point à reconstituer vont nécessairement se compenser si l'algorithme ne privilégie pas un côté de l'image.

Mais aucun algorithme ne retrouvera le trait coloré d'épaisseur 1 dont la couleur ne correspondait pas à celle des photosites de cette colonne  ;)
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 14, 2020, 21:55:13
Oui mais le sujet est bien plus reconnaissable qu'avec 15 MP trichromes. Même si la couleur de certains pixels n'est pas bonne, 36 MP dématricés donnent une meilleure image que 15 MP trichromes. Je pense que si on faisait le test sur du texte, l'un pourrait être lisible et l'autre pas.
Les 2 objectifs utilisés ont-ils la même résolution?

En monochrome ou quasi-monochrome (cas de l'image proposée et du texte, je suppose?), la structure du Bayer associée à un interpolateur qui mixe les différentes composantes colorées lui donne un avantage sur le Foveon, si l'on accepte des artefacts colorés.

Pour du texte, le cerveau reconstruira certainement les lettres même si elles subissent des artefacts, parce qu'il y en très peu dans l'alphabet et que leur tracé est très redondant. Et même si l'on n'arrive pas à lire quelques lettres, on lit le texte tout de même.
Mieux avec un capteur qu'avec l'autre, je ne sais pas.

Mais ce sont des cas particuliers, et il s'agit de détection plutôt que de reproduction.

J'avais déjà évoqué cette différence il y a quelques jours:
On peut bien sûr détecter des détails aussi petits qu'on veut, il suffit qu'ils émettent quelques photons vers un photosite. Mais pour reproduire une scène, il faut respecter le critère de Shannon, comme dans n'importe quel système échantillonné.

Tout dépend du but recherché.

Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 14, 2020, 22:57:07
Les 2 objectifs utilisés ont-ils la même résolution?

Pour ce qui nous intéresse, oui.


Ce qui est sûr, c'est que le f/2.8 30mm qui équipe le Sigma DP2 Merrill est exceptionnel.

Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 14, 2020, 23:24:02
En général, non.

Cependant, dans le cas que j'ai proposé, la symétrie du problème fait qu'ils donneront des résultats très proches sinon identiques pour le point situé au milieu, dont on cherche à reconstituer les composantes manquantes.

Je pourrai détailler si tu veux;...

Non ne te donne pas cette peine. Je crois que je n'y comprendrais pas grand chose. Je te fais confiance.
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 14, 2020, 23:25:19
Les 2 objectifs utilisés ont-ils la même résolution?

En monochrome ou quasi-monochrome (cas de l'image proposée et du texte, je suppose?), la structure du Bayer associée à un interpolateur qui mixe les différentes composantes colorées lui donne un avantage sur le Foveon, si l'on accepte des artefacts colorés.

Pour du texte, le cerveau reconstruira certainement les lettres même si elles subissent des artefacts, parce qu'il y en très peu dans l'alphabet et que leur tracé est très redondant. Et même si l'on n'arrive pas à lire quelques lettres, on lit le texte tout de même.
Mieux avec un capteur qu'avec l'autre, je ne sais pas.

Mais ce sont des cas particuliers, et il s'agit de détection plutôt que de reproduction.

J'avais déjà évoqué cette différence il y a quelques jours:
Tout dépend du but recherché.

Bon du texte ce n'est pas un bon sujet alors.
Peut-être une ligne bleue verticale sur un fond noir ?
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 16, 2020, 08:20:34
Pour ce qui nous intéresse, oui.

Ce qui est sûr, c'est que le f/2.8 30mm qui équipe le Sigma DP2 Merrill est exceptionnel.
Un bon choix pour un appareil très compact, donc!
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 16, 2020, 08:21:03
Bon du texte ce n'est pas un bon sujet alors.
Peut-être une ligne bleue verticale sur un fond noir ?
Oui.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 16, 2020, 08:22:10
Un bon choix pour un appareil très compact, donc!

Pas compris (il n'est pas spécialement compact)...
Titre: Re : Des rumeurs!
Posté par: Manu_14 le mars 16, 2020, 10:27:14
Jenga, je ne vois toujours pas en quoi tes explications sont compatibles avec les différences entre ces deux clichés (15 MP sans interpolation et 36 MP avec interpolation).
Manu
Titre: Re : Re : Des rumeurs!
Posté par: restoc le mars 16, 2020, 15:45:22
Jenga, je ne vois toujours pas en quoi tes explications sont compatibles avec les différences entre ces deux clichés (15 MP sans interpolation et 36 MP avec interpolation).
Manu

Sur du Net B la FTM et  la résolution perçue restera de toute façon deux fois meilleure en 36 MPix avec un bon dématriceur de base:  15 Mpix ne peuvent pas inventer un contenu double de la fréquence d’échantillonnage. L'oeil étant plus sensible à la luminance c'est cet aspect qui domine dans les stratégies des constructeurs pour les capteurs.
Sur la couleur seule l' avantage de 15 Mpix trichrome direct du Foveon reste celui d' une meilleure séparation potentielle des couleurs par trés bon éclairage ( décorrélation ou nb de nuances couleurs séparables) au moins de façon théorique ou sur des mires bien éclairées et une netteté des transitions couleurs ... si on pouvait comparer à 36 Mpix!
En effet que ce soit en Bayer ou en Foveon ( voir les courbes des spectres couleurs respectifs) on a une "compression" de facto de la variété des couleurs naturelles d'une scène bien éclairée : décrire tout le spectre visible avec 3 bandes rvb seulement et qui surtout se chevauchent et bavent l'une sur l'autre réduit la performance théorique du Foveon. A mon avis celui ci garde un petit avantage que DXO n'a pas mesuré dommage.

De toute façon à part pour  de la repro de labo donc de la mesure,  l'oeil humain  et ses 3 cônes rvb qui se recouvrent énormément en spectre et à trés basse résolution qpatiale en plus n'est pas sensible à la résolution en couleurs *
On est donc dans un débat théorique qui ne mène nulle part en vision humaine ce que les constructeurs ont bien compris : dont Sigma qui a déposé un brevet pour un capteur à deux couches, un  demi-Bayer RG et BG récemment en 2019 pour contourner les limites du Foveon ( bruit/isos et vitesse). Canon disputant ce brevet à Sigma pas sûr que çà sorte cette année.

*On a depuis des dizaines d'années des imageurs spectromètres avec des bandes trés fines (jusqu'à 256 !!)  et bien séparées tous les 5 ou 10 nm) : le cerveau n'aime pas ce découpage et ne reconnait pas vraiment comme photo ce qui devrait théoriquement être bien supérieur en qualité couleur.

A mon avis Bayer va encore durer un bon moment puisqu'il satisfait l'oeil trés correctement.
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 16, 2020, 20:19:23
Jenga, je ne vois toujours pas en quoi tes explications sont compatibles avec les différences entre ces deux clichés (15 MP sans interpolation et 36 MP avec interpolation).
Manu
Nous avons deux structures différentes:
-le Foveon, où les photosites de couleurs différentes sont superposés
-le Bayer, où les photosites de couleurs différentes sont juxtaposés, donc disposés à un pas plus fin à taille de tirage égale (APS-C et 24x36)

Dans le cas particulier d'images monochromes ou presque, la structure plus fine du Bayer lui confère un avantage sur les structures fines, au prix d'une confusion entre les composantes couleur qui fait apparaître des artefacts.

Pour que la comparaison soit fiable, il faudrait connaître les résolutions des deux objectifs utilisés. Elles sont peut-être disponibles sur le net?
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 16, 2020, 23:05:33
Pour que la comparaison soit fiable, il faudrait connaître les résolutions des deux objectifs utilisés. Elles sont peut-être disponibles sur le net?

Dans les deux cas, la résolution des objectifs (f/2.8 30mm pour le DP2m et f/2.8 45 PC-E pour le D810) sont supérieures à celles des capteurs.
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 17, 2020, 21:55:46
Dans les deux cas, la résolution des objectifs (f/2.8 30mm pour le DP2m et f/2.8 45 PC-E pour le D810) sont supérieures à celles des capteurs.
L'objectif du DP2m n'étant pas démontable (appareil compact), comment peut-on savoir que sa résolution est supérieure à celle du capteur?
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 17, 2020, 22:16:26
L'objectif du DP2m n'étant pas démontable (appareil compact), comment peut-on savoir que sa résolution est supérieure à celle du capteur?

Moiré (panneau "Les Raverdis"), entre autre :

Titre: Re : Re : Des rumeurs!
Posté par: Pibill le mars 18, 2020, 10:58:30
Moiré (panneau "Les Raverdis"), entre autre :



Le panneau ne serait-il pas revêtu d'un film "réflectorisant" à motifs ?
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 18, 2020, 11:11:15
Le panneau ne serait-il pas revêtu d'un film "réflectorisant" à motifs ?

Oui.

C'est ce motif qui entre en résonance avec celui du capteur et qui provoque l'aliasing.
Titre: Re : Re : Re : Des rumeurs!
Posté par: jdm le mars 18, 2020, 11:12:44

 
 Le fameux rétro-réfléchissant type "nid d'abeilles" qui permet de produire le moirage, conçu au départ pour les autoroutes, mais que l'on retrouve quasi-partout par souci de sécurité parait-il ...
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 18, 2020, 20:38:59
L'objectif du DP2m n'étant pas démontable (appareil compact), comment peut-on savoir que sa résolution est supérieure à celle du capteur?

Moiré (panneau "Les Raverdis"), entre autre :
Exact.
Donc, la présence de moiré indique que la résolution du capteur est inférieure au pas du motif?
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 18, 2020, 20:45:07
Donc, la présence de moiré indique que la résolution du capteur est inférieure au pas du motif?

Tu connais Shannon aussi bien que moi : un motif répétitif ne peut pas avoir une fréquence supérieure à Fe*/2, sauf risque de repliement de spectre (moiré).


*Fe = fréquence (spatiale) d'échantillonnage, soit le diamètre du photosite (formulation fausse, mais c'est pour simplifier).
Titre: Re : Des rumeurs!
Posté par: Rami le mars 19, 2020, 10:15:10
Jenga, j'espère que tu connais Shannon mieux que Verso qui assimile fréquence spatiale et longueur  ;)
OK, je sors, c'était juste un post stérile pour faire monter mon compteur.
Titre: Re : Re : Re : Des rumeurs!
Posté par: egtegt² le mars 19, 2020, 11:20:12
Tu peux prolonger des 4 côtés la structure que j'ai fournie. C'est constant vers la gauche et vers la droite, et les paires de lignes sont identiques.

Mais le problème n'est pas là. Il manque de l'information pour reconstruire des pixels à la même densité que les photosites, ce n'est pas une question d'algorithme.

Si l'image réelle comportait un trait vertical, par exemple bleu, d'épaisseur 1, il serait soit vu soit définitivement perdu selon sa position.
Mais dans les faits, ça n'existe pas un trait vertical bleu, sauf en infographie. Sur une photographie, il est toujours au moins décalé de quelques pixels par rapport à la verticale et il n'est jamais d'un bleu pur. Du coup les algorithmes de dématriçage en trouveront toujours une trace sur les photosites adjacents et auront de la matière pour le reconstruire.

Le seul problème assez courant que ces approximations provoquent, c'est le moiré, et en fin de compte, ça reste tout de même assez rare, surtout avec l'augmentation des résolutions. C'est d'ailleurs la raison pour laquelle les constructeurs ont fini par vendre des appareils sans filtre passe-bas.
Titre: Re : Des rumeurs!
Posté par: jdm le mars 19, 2020, 12:04:12
...
Le seul problème assez courant que ces approximations provoquent, c'est le moiré, et en fin de compte, ça reste tout de même assez rare, surtout avec l'augmentation des résolutions. C'est d'ailleurs la raison pour laquelle les constructeurs ont fini par vendre des appareils sans filtre passe-bas.

 Faut dire, pour aller dans ton sens, que plus un capteur est résolu plus le moirage est repoussé vers les hautes fréquences, ce qui est tout bénéfice pour l'image globale.

 Après on ne peut pas systématiser le moirage comme une perte de définition complète de l'image comme certains voudrait nous le faire admettre, ça reste une aberration ponctuelle.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 19, 2020, 12:10:33
Faut dire, pour aller dans ton sens, que plus un capteur est résolu plus le moirage est repoussé vers les hautes fréquences, ce qui est tout bénéfice pour l'image globale.

 Après on ne peut pas systématiser le moirage comme une perte de définition complète de l'image comme certains voudrait nous le faire admettre, ça reste une aberration ponctuelle.

En fait, comme j'ai essayé de le montrer avec les exemples postés sur ce fil, le moiré avec les Bayer est provoqué le plus souvent par les algos de dématriçage, qui baissent les bras, la plupart du temps, avant que le critère de Nyquist ne soit atteint...


Par exemple, je suis plus souvent confronté au moiré avec les D8x0 qu'avec le DP2m, qui ne fait pourtant que 15 MPixels (mais sans matrice de Bayer).
Titre: Re : Re : Des rumeurs!
Posté par: egtegt² le mars 19, 2020, 15:54:36
En fait, comme j'ai essayé de le montrer avec les exemples postés sur ce fil, le moiré avec les Bayer est provoqué le plus souvent par les algos de dématriçage, qui baissent les bras, la plupart du temps, avant que le critère de Nyquist ne soit atteint...
Par exemple, je suis plus souvent confronté au moiré avec les D8x0 qu'avec le DP2m, qui ne fait pourtant que 15 MPixels (mais sans matrice de Bayer).
Oui, mais il ne faut pas non plus rêver, quand on a une information partielle et que l'environnement fait qu'il est vraiment délicat de reconstruire cette information, ça devient difficile d'obtenir quelque chose de vraiment juste.

Vu de notre point de vue, ça semble évident qu'il y a un problème car nous savons instinctivement qu'une grille grise est grise et pas multicolore, mais du point de vue du dématriceur, c'est bien plus complexe à déterminer. Car pour autant qu'il sache, rien n'empêche que cette grille soit multicolore.

Avec le DP2M, sauf erreur de ma part, il mesure la luminance et la chrominance pour chaque photosite, il n'y a donc pas vraiment de dématriçage à faire et donc aucune raison qu'il y ait du moiré.
Titre: Re : Des rumeurs!
Posté par: danielk le mars 19, 2020, 17:54:05
J'en ai un très beau - escalator Confluence Lyon - Nikon D850 - 250iso - 1/90s - f/6.7 - 35mm f1.4. Pour les Lyonnais cet escalator peut servir de test de moirage pour vos appareils.
Titre: Re : Des rumeurs!
Posté par: danielk le mars 19, 2020, 17:56:47
La photo entière
Titre: Re : Re : Des rumeurs!
Posté par: JMS le mars 19, 2020, 17:58:50
J'en ai un très beau - escalator Confluence Lyon - Nikon D850 - 250iso - 1/90s - f/6.7 - 35mm f1.4. Pour les Lyonnais cet escalator peut servir de test de moirage pour vos appareils.

Whaou !!!

Pour éviter le moiré il vaut mieux alors prendre le 35 f/1,4...AIS...et le laisser à pleine ouverture ! Certainement le moiré sera combattu par le flare !
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 19, 2020, 18:28:57
Avec le DP2M, sauf erreur de ma part, il mesure la luminance et la chrominance pour chaque photosite, il n'y a donc pas vraiment de dématriçage à faire et donc aucune raison qu'il y ait du moiré.

Pourtant, dans certains cas, il y a du moiré, sans surprise.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 19, 2020, 20:47:51
Mais dans les faits, ça n'existe pas un trait vertical bleu, sauf en infographie. Sur une photographie, il est toujours au moins décalé de quelques pixels par rapport à la verticale et il n'est jamais d'un bleu pur. Du coup les algorithmes de dématriçage en trouveront toujours une trace sur les photosites adjacents et auront de la matière pour le reconstruire.

Le seul problème assez courant que ces approximations provoquent, c'est le moiré, et en fin de compte, ça reste tout de même assez rare, surtout avec l'augmentation des résolutions. C'est d'ailleurs la raison pour laquelle les constructeurs ont fini par vendre des appareils sans filtre passe-bas.
Je suis d'accord, la plupart du temps ça passe: l'image reconstruite est réaliste et le cerveau fait le reste.
Un trait fin noir sur blanc pas tout à fait vertical va se dédoubler par endroits, se "ressouder" un peu plus haut, mais le cerveau s'en accommode très bien.
(voir les traits verticaux de l'image de droite du post #145 de Verso).

Ce n'est pas de la reproduction (qui est l'objet de mes propos), mais ça peut passer en effet.

Le cas que je viens de citer (le trait qui se dédouble par endroit dans l'image droite de #145) est intéressant du point de vue du traitement du signal: la prise de vue est sous-échantillonnée, ce qui provoque un mélange de fréquences.

C'est le fameux "repliement": les fréquences supérieures à la limite de Nyquist sont vues comme des fréquences inférieures à cette limite, de façon indémêlable: la fréquence "Nyquist + x", trop élevée pour être représentée correctement, se mélange irrémédiablement avec la fréquence "Nyquist - x", qui, elle, aurait été représentée correctement sans ce parasitage.

Cela induit ces artefacts. C'est visuellement acceptable dans beaucoup de cas, mais ce n'est pas "exact".
.
Je pense qu'un meilleur résultat (au sens de la reproduction) pourrait être obtenu avec un échantillonnage respectant le critère de Shannon: soit avec un capteur muni d'un passe-bas, soit en fermant le diaphragme, ce qui coupe progressivement les fréquences élevées (du point de vue de l'analyse fréquentielle, un diaphragme est un filtre passe-bas réglable presque parfait).
Le dématriçage produirait alors des traits un peu mous et élargis (à cause du passe-bas), mais sans artefacts; l'application d'un filtre de type sharpening ("clarté" chez Adobe, si j'ai bien compris?) rendrait les transitions plus abruptes, plus conformes à l'attente usuelle, toujours sans artefact.

Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 19, 2020, 20:55:47
Je pense qu'un meilleur résultat (au sens de la reproduction) pourrait être obtenu avec un échantillonnage respectant le critère de Shannon: soit avec un capteur muni d'un passe-bas, soit en fermant le diaphragme, ce qui coupe progressivement les fréquences élevées (du point de vue de l'analyse fréquentielle, un diaphragme est un filtre passe-bas réglable presque parfait).
Le dématriçage produirait alors des traits un peu mous et élargis (à cause du passe-bas), mais sans artefacts; l'application d'un filtre de type sharpening ("clarté" chez Adobe, si j'ai bien compris?) rendrait les transitions plus abruptes, plus conformes à l'attente usuelle, toujours sans artefact.

Tu reposes de fait la question du choix entre D800 et D800E, en 2012.

En ce qui me concerne, j'ai choisi le "E", en toutes connaissances de cause...


En ce qui concerne l'action de filtre passe-bas du diaph, il faut aller loin. Pour info, la photo montrée au post #366 a été faite à f/8 (D800E, Nikkor f/1.8 50 AF-D).
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: egtegt² le mars 20, 2020, 17:07:35
[...]
Je pense qu'un meilleur résultat (au sens de la reproduction) pourrait être obtenu avec un échantillonnage respectant le critère de Shannon: soit avec un capteur muni d'un passe-bas, soit en fermant le diaphragme, ce qui coupe progressivement les fréquences élevées (du point de vue de l'analyse fréquentielle, un diaphragme est un filtre passe-bas réglable presque parfait).
Le dématriçage produirait alors des traits un peu mous et élargis (à cause du passe-bas), mais sans artefacts; l'application d'un filtre de type sharpening ("clarté" chez Adobe, si j'ai bien compris?) rendrait les transitions plus abruptes, plus conformes à l'attente usuelle, toujours sans artefact.
Mais en dehors de quelques rares cas, la photo n'est pas de la reproduction. L'objectif n'est pas d'être précis mais beau. Le filtre passe bas permet peut-être une photo plus "juste" mais il donne surtout une perte de piqué apparent.
Titre: Re : Re : Des rumeurs!
Posté par: big jim le mars 20, 2020, 18:06:04

En ce qui concerne l'action de filtre passe-bas du diaph, il faut aller loin. Pour info, la photo montrée au post #366 a été faite à f/8 (D800E, Nikkor f/1.8 50 AF-D).

Pas bien compris non plus le rôle de filtre passe-bas parfait joué par le diaph  ???  Est-ce la diffraction qui est évoquée ?
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 20, 2020, 19:32:41
Pas bien compris non plus le rôle de filtre passe-bas parfait joué par le diaph  ???  Est-ce la diffraction qui est évoquée ?

Oui.


Par exemple :
https://www.chassimages.com/forum/index.php/topic,288810.msg7185009.html#msg7185009
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 21, 2020, 10:50:19
Mais en dehors de quelques rares cas, la photo n'est pas de la reproduction. L'objectif n'est pas d'être précis mais beau. Le filtre passe bas permet peut-être une photo plus "juste" mais il donne surtout une perte de piqué apparent.
C'est un choix personnel, que je respecte totalement.
Titre: Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 21, 2020, 10:50:54
Pas bien compris non plus le rôle de filtre passe-bas parfait joué par le diaph  ???  Est-ce la diffraction qui est évoquée ?
C'est exactement cela, ce filtrage optique a pour conséquence la diffraction dans l'image de sortie de l'objectif.

On peut analyser le filtrage soit dans le domaine spatial (l'image) soit dans le domaine des fréquences; on passe d'un domaine à l'autre par une opération mathématique nommée transformée de Fourier.

J'essaie ci-après de donner quelques explications sans calculs. Ce n'est pas très facile, désolé si cela paraît confus; je peux préciser au besoin.
Pour aller plus loin, ce lien me semble donner un excellent point de départ sur le filtrage spatial optique.
http://php.iai.heig-vd.ch/~lzo/optique/labo/descr/Manip_fourier_5.2.pdf (http://php.iai.heig-vd.ch/~lzo/optique/labo/descr/Manip_fourier_5.2.pdf)

Filtrage par le diaphragme
Lorsqu'un objectif forme l'image d'un objet sur le capteur, il existe un plan intermédiaire, dit "plan de Fourier", dans lequel chaque point représente non pas un point particulier de l'image mais une fréquence spatiale:

Il se trouve que le diaphragme est placé dans ce plan (les opticiens préciseront). C'est un trou presque rond de diamètre réglable: cela signifie qu'il coupe toutes les fréquences supérieures à son rayon et laisse passer sans modification celles qui sont inférieures: c'est un filtre passe bas réglable quasi parfait.

C'est donc un filtre dont la réponse fréquentielle est la fonction "créneau", ou "porte" (en se ramenant à 1 seule dimension, le long de l'axe X par exemple).

Conséquence sur l'image de sortie
Son impact dans le domaine "image" se calcule, comme dit plus haut, par transformée de Fourier de cette fonction "porte". Or, la transformée de Fourier de la fonction "porte" est la fonction "sinus cardinal", ou "sinc" = (sinus x)/x
(https://upload.wikimedia.org/wikipedia/commons/0/00/SincFunction.png)

Voici maintenant l'intensité (la puissance) des anneaux de diffraction par une ouverture circulaire (on évoque souvent la tache centrale en parlant de tache de diffraction, mais la diffraction provoque une infinité d'anneaux d'intensité décroissantes).
Voici les anneaux de diffraction:
(https://www.physicsforums.com/attachments/image-jpg.76927)

Le profil d'intensité des anneaux est exactement (on le prouve par calcul) le carré de la fonction sinus cardinal (carré parce que l'intensité lumineuse est le carré de l'amplitude du signal).

Les anneaux de diffraction sont donc bien la conséquence dans l'image de sortie du filtrage en "porte" réalisé par le diaphragme dans le plan de Fourier.

Relation entre diaphragme et anneaux de diffraction
Quand on ferme le diaphragme (on diminue la largeur de la "porte"), on coupe les fréquences élevées, puis moyennes, etc. dans le plan de Fourier. En conséquence, les transitions dans l'image s'élargissent, c'est pourquoi la figure globale des anneaux de diffraction s'élargit.

Par calcul, on trouve bien sûr exactement la relation entre le diamètre du diaphragme et le diamètre des anneaux de diffraction.

Prise de vue
Comme il est facile de régler le diaphragme, on peut ajuster par crans assez fins la fréquence de coupure du filtre passe-bas pour ne pas envoyer de fréquences trop élevées au capteur (si l'on cherche à réaliser une reproduction sans artefact).
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 21, 2020, 10:53:12
En ce qui concerne l'action de filtre passe-bas du diaph, il faut aller loin. Pour info, la photo montrée au post #366 a été faite à f/8 (D800E, Nikkor f/1.8 50 AF-D).
(bel exemple en #366, en effet)

A f/8, le meilleur objectif possible a un pouvoir séparateur d'environ 70 paires de lignes par mm (le nombre dépend un peu du critère choisi pour définir le pouvoir séparateur, mais l'ordre de grandeur ne changera pas).

L'exemple #366 montre que c'est encore trop pour le capteur utilisé (si l'on cherche une reproduction sans artefact).
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 21, 2020, 11:19:57
C'est un trou presque rond de diamètre réglable: cela signifie qu'il coupe toutes les fréquences supérieures à son rayon et laisse passer sans modification celles qui sont inférieures: c'est un filtre passe bas réglable quasi parfait.

Mais souvent le diaphragme n'est pas rond.
Titre: Re : Des rumeurs!
Posté par: seba le mars 21, 2020, 11:30:21
Du coup, pour un diaphragme polygonal, il n'y a pas d'anneaux mais des rayons (en haut sur l'axe, en bas au bord).
J'imagine que ça doit influer sur la résolution.
Titre: Re : Des rumeurs!
Posté par: big jim le mars 21, 2020, 13:05:44
OK, Jenga. Maintenant, vu les autres conséquences liées à l'usage du diaphragme, son usage en tant que filtre passe-bas anti moiré est quand même plus conceptuel que pratique  ;)
Titre: Re : Re : Des rumeurs!
Posté par: restoc le mars 21, 2020, 14:52:26
OK, Jenga. Maintenant, vu les autres conséquences liées à l'usage du diaphragme, son usage en tant que filtre passe-bas anti moiré est quand même plus conceptuel que pratique  ;)

Si on étale la confiture entre
C'est exactement cela, ce filtrage optique a pour conséquence la diffraction dans l'image de sortie de l'objectif.

On peut analyser le filtrage soit dans le domaine spatial (l'image) soit dans le domaine des fréquences; on passe d'un domaine à l'autre par une opération mathématique nommée transformée de Fourier.

J'essaie ci-après de donner quelques explications sans calculs. Ce n'est pas très facile, désolé si cela paraît confus; je peux préciser au besoin.
Pour aller plus loin, ce lien me semble donner un excellent point de départ sur le filtrage spatial optique.
http://php.iai.heig-vd.ch/~lzo/optique/labo/descr/Manip_fourier_5.2.pdf (http://php.iai.heig-vd.ch/~lzo/optique/labo/descr/Manip_fourier_5.2.pdf)

Filtrage par le diaphragme
Lorsqu'un objectif forme l'image d'un objet sur le capteur, il existe un plan intermédiaire, dit "plan de Fourier", dans lequel chaque point représente non pas un point particulier de l'image mais une fréquence spatiale:
  • le centre du plan représente la fréquence 0, c'est-à-dire la valeur moyenne de l'image
  • les points plus éloignés du centre représentent des fréquences plus élevés, etc. Plus le point possède d'énergie, plus la fréquence correspondante est présente dans l'image

Il se trouve que le diaphragme est placé dans ce plan (les opticiens préciseront). C'est un trou presque rond de diamètre réglable: cela signifie qu'il coupe toutes les fréquences supérieures à son rayon et laisse passer sans modification celles qui sont inférieures: c'est un filtre passe bas réglable quasi parfait.

C'est donc un filtre dont la réponse fréquentielle est la fonction "créneau", ou "porte" (en se ramenant à 1 seule dimension, le long de l'axe X par exemple).

Conséquence sur l'image de sortie
Son impact dans le domaine "image" se calcule, comme dit plus haut, par transformée de Fourier de cette fonction "porte". Or, la transformée de Fourier de la fonction "porte" est la fonction "sinus cardinal", ou "sinc" = (sinus x)/x
(https://upload.wikimedia.org/wikipedia/commons/0/00/SincFunction.png)

Voici maintenant l'intensité (la puissance) des anneaux de diffraction par une ouverture circulaire (on évoque souvent la tache centrale en parlant de tache de diffraction, mais la diffraction provoque une infinité d'anneaux d'intensité décroissantes).
Voici les anneaux de diffraction:
(https://www.physicsforums.com/attachments/image-jpg.76927)

Le profil d'intensité des anneaux est exactement (on le prouve par calcul) le carré de la fonction sinus cardinal (carré parce que l'intensité lumineuse est le carré de l'amplitude du signal).

Les anneaux de diffraction sont donc bien la conséquence dans l'image de sortie du filtrage en "porte" réalisé par le diaphragme dans le plan de Fourier.

Relation entre diaphragme et anneaux de diffraction
Quand on ferme le diaphragme (on diminue la largeur de la "porte"), on coupe les fréquences élevées, puis moyennes, etc. dans le plan de Fourier. En conséquence, les transitions dans l'image s'élargissent, c'est pourquoi la figure globale des anneaux de diffraction s'élargit.

Par calcul, on trouve bien sûr exactement la relation entre le diamètre du diaphragme et le diamètre des anneaux de diffraction.

Prise de vue
Comme il est facile de régler le diaphragme, on peut ajuster par crans assez fins la fréquence de coupure du filtre passe-bas pour ne pas envoyer de fréquences trop élevées au capteur (si l'on cherche à réaliser une reproduction sans artefact).

C'est exactement cela, ce filtrage optique a pour conséquence la diffraction dans l'image de sortie de l'objectif.

On peut analyser le filtrage soit dans le domaine spatial (l'image) soit dans le domaine des fréquences; on passe d'un domaine à l'autre par une opération mathématique nommée transformée de Fourier.

J'essaie ci-après de donner quelques explications sans calculs. Ce n'est pas très facile, désolé si cela paraît confus; je peux préciser au besoin.
Pour aller plus loin, ce lien me semble donner un excellent point de départ sur le filtrage spatial optique.
http://php.iai.heig-vd.ch/~lzo/optique/labo/descr/Manip_fourier_5.2.pdf (http://php.iai.heig-vd.ch/~lzo/optique/labo/descr/Manip_fourier_5.2.pdf)

Filtrage par le diaphragme
Lorsqu'un objectif forme l'image d'un objet sur le capteur, il existe un plan intermédiaire, dit "plan de Fourier", dans lequel chaque point représente non pas un point particulier de l'image mais une fréquence spatiale:
  • le centre du plan représente la fréquence 0, c'est-à-dire la valeur moyenne de l'image
  • les points plus éloignés du centre représentent des fréquences plus élevés, etc. Plus le point possède d'énergie, plus la fréquence correspondante est présente dans l'image

Il se trouve que le diaphragme est placé dans ce plan (les opticiens préciseront). C'est un trou presque rond de diamètre réglable: cela signifie qu'il coupe toutes les fréquences supérieures à son rayon et laisse passer sans modification celles qui sont inférieures: c'est un filtre passe bas réglable quasi parfait.

C'est donc un filtre dont la réponse fréquentielle est la fonction "créneau", ou "porte" (en se ramenant à 1 seule dimension, le long de l'axe X par exemple).

Conséquence sur l'image de sortie
Son impact dans le domaine "image" se calcule, comme dit plus haut, par transformée de Fourier de cette fonction "porte". Or, la transformée de Fourier de la fonction "porte" est la fonction "sinus cardinal", ou "sinc" = (sinus x)/x
(https://upload.wikimedia.org/wikipedia/commons/0/00/SincFunction.png)

Voici maintenant l'intensité (la puissance) des anneaux de diffraction par une ouverture circulaire (on évoque souvent la tache centrale en parlant de tache de diffraction, mais la diffraction provoque une infinité d'anneaux d'intensité décroissantes).
Voici les anneaux de diffraction:
(https://www.physicsforums.com/attachments/image-jpg.76927)

Le profil d'intensité des anneaux est exactement (on le prouve par calcul) le carré de la fonction sinus cardinal (carré parce que l'intensité lumineuse est le carré de l'amplitude du signal).

Les anneaux de diffraction sont donc bien la conséquence dans l'image de sortie du filtrage en "porte" réalisé par le diaphragme dans le plan de Fourier.

Relation entre diaphragme et anneaux de diffraction
Quand on ferme le diaphragme (on diminue la largeur de la "porte"), on coupe les fréquences élevées, puis moyennes, etc. dans le plan de Fourier. En conséquence, les transitions dans l'image s'élargissent, c'est pourquoi la figure globale des anneaux de diffraction s'élargit.

Par calcul, on trouve bien sûr exactement la relation entre le diamètre du diaphragme et le diamètre des anneaux de diffraction.

Prise de vue
Comme il est facile de régler le diaphragme, on peut ajuster par crans assez fins la fréquence de coupure du filtre passe-bas pour ne pas envoyer de fréquences trop élevées au capteur (si l'on cherche à réaliser une reproduction sans artefact).


Malheureusement toute intervention au plan de Fourier introduit d'autres artefacts dés qu'on essaye de couper des fréquences avec des bords durs comme des lamelles de diaphragme, dont les images de Seba illustent un des types.
Le seul cas où fermer le diaph peut être assimilé à un filtre passe bas ( bien propre) est celui où les fréquences très élevées  sont parfaitement séparées des autres des fréquences de l'image :  au plan du spectre de Fourier elles forment alors deux ou 4 points très distants  du reste du contenu de l'image:  par exemples les rayures fines d'un tissu bien plat bien perpendiculaire au capteur sur un fond uni. 
Sauf que c'est un cas d'école :  çà ne se vérifie que sur une mire dé fréquence qui est un cas trés trés particulier et totalement favorable puisque conçu uniquement pour çà. Autrement dit il ne faut pas généraliser le cas trés particulier et réducteur d'une mire de fréquences.

Mais pour le moiré  -qui peut intervenir progressivement et pas à fréquence fixe  donc mélangé au contenu de toutes fréquences de l'image et donc pas que les fréquences bien calées à Nyquist hein !!- il faudrait fermer massivement le diaphragme pour supprimer ce moiré par essence variable sur les volumes, les axes etc.  on tuerait donc radicalement tout le piqué de l'image.

C'est en pratique inapplicable en photo:  paysage, chevelure,  plumes d'oiseaux,  tissus portés sur mannequin etc ... si on tient un peu au piqué de son image.

Certes avec un banc laser on peut s'amuser autant qu'on veut au plan de Fourier y compris supprimer la composante du fond uni, des verticales ou des obliques, des trames ! Sauf que  le résultat quand on reconstitue l'image filtrée n'est généralement pas beau à voir !! Ce n'est donc pas utilisé en photo mais dans des domaines trés particuliers.

On peut à la rigueur  assimiler diaph et réduction de piqué pour montrer une évidence à un débutant  mais il ne faut alors pas appeler Fourier à la rescousse car a vite fait de se trouver en porte à faux si on ne maitrise pas tout.
Titre: Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 21, 2020, 18:23:22
Quand on ferme le diaphragme (on diminue la largeur de la "porte"), on coupe les fréquences élevées, puis moyennes, etc. dans le plan de Fourier. En conséquence, les transitions dans l'image s'élargissent, c'est pourquoi la figure globale des anneaux de diffraction s'élargit.

Je ne suis pas certain que ce soit la bonne explication.
Si je comprends bien, dans ce cas de figure, si on utilisait un diaphragme annulaire, on garderait les fréquences élevées et on couperait les basses fréquences.
Je ne crois pas que c'est ce que l'on peut observer.
Titre: Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 22, 2020, 09:45:57
Si on étale la confiture entre

On peut à la rigueur  assimiler diaph et réduction de piqué pour montrer une évidence à un débutant  mais il ne faut alors pas appeler Fourier à la rescousse car a vite fait de se trouver en porte à faux si on ne maitrise pas tout.
Normalement, je ne réponds pas à des posts contenant des propos blessants ou injurieux.
Je le fais ici uniquement pour rappeler aux autre intervenants que la transformée de Fourier est l'outil permettant de passer de l'image à sa représentation fréquentielle.
Elle est donc indispensable pour étudier les problèmes de moiré et autres artefacts dus justement à la présence de fréquences trop élevées, c'est pourquoi j'ai dû la mentionner dans ma réponse à la question de big_jim
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 22, 2020, 09:46:42
OK, Jenga. Maintenant, vu les autres conséquences liées à l'usage du diaphragme, son usage en tant que filtre passe-bas anti moiré est quand même plus conceptuel que pratique  ;)
En photo, si tu disposes d'un capteur non filtré et d'un objectif assez performant, l'essai est facile à faire sur l'un des motifs "à moiré" présentés dans ce fil.

En métrologie, j'ai utilisé cela couramment (dans mon premier métier). Il s'agissait de reproduire précisément des structures de circuit intégré (éclairage par lampe Xénon, pas besoin de lumière cohérente type laser, contrairement à ce qui est indiqué plus haut).

Pour que la reproduction soit précise (des mesures étaient effectuées sur l'image), il fallait absolument éviter les repliements de spectre, d'où l'utilisation d'un diaphragme fermé à la valeur adéquate.
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 22, 2020, 09:48:24
Mais souvent le diaphragme n'est pas rond.
Du coup, pour un diaphragme polygonal, il n'y a pas d'anneaux mais des rayons (en haut sur l'axe, en bas au bord).
C'est pour cela que j'ai écrit "presque parfait", "presque rond", etc.

Lorsque le diaphragme n'est pas rond, ce qui est bien sûr le cas de nos reflex, les fréquences spatiales ne sont pas coupées de façon homogène.

Pour bien comprendre (toujours sans calcul, mais ça se calcule très bien), il faut voir que chaque point du plan de Fourier représente une fréquence spatiale, plus précisément:

Prenons par exemple un diaph carré pour simplifier. Les "coins" du diaphragme sont plus éloignés du centre, donc laissent passer des fréquences plus élevées, mais seulement dans les orientations correspondant aux angles du carré. Le problème perd donc sa symétrie de révolution: la figure de diffraction d'un point lumineux n'est plus une succession d'anneaux d'amplitudes décroissantes, mais une figure plus complexe ayant des fréquences variables selon l'orientation.

C'est le cas des célèbres figures de diffraction des diaphragmes de reflex, celles de la première ligne de ton tableau, correspondant aux nombre de lamelles, donc de "coins", des différents diaphragmes.
Dans la deuxième ligne de ton tableau (en bord de champ), on subit en plus les défauts de l'objectif, là je suis totalement ignare pour les qualifier.

Il y a toujours des "anneaux", mais comme ces photos sont prises en saturant violemment le capteur on ne voit pas les creux. Voici ce qui se passe en saturant un peu moins, pour un trou carré:
(c'est encore très saturé car, par exemple, le premier "anneau" est déjà 10 fois moins lumineux que le centre: il faut donc saturer la prise de vue pour en voir plusieurs)
(http://pics.idemdito.org/99/fr2/fraunhofer.jpg)

On constate que la figure de diffraction possède des fréquences spatiales horizontales et verticales plus élevées qu'en diagonale (d'un facteur racine de 2); c'est dû au fait que les coins du diaphragme sont plus éloignés du centre que le milieu de ses bords, d'un facteur racine de 2 justement, et laissent passer des fréquences racine de 2 fois plus élevées dans ces directions.
Titre: Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 22, 2020, 09:48:36
Je ne suis pas certain que ce soit la bonne explication.
Si je comprends bien, dans ce cas de figure, si on utilisait un diaphragme annulaire, on garderait les fréquences élevées et on couperait les basses fréquences.
Je ne crois pas que c'est ce que l'on peut observer.
Oui, cela permet d'augmenter le contraste. De telles ouvertures annulaires sont commercialisées pour ce faire:
https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=8531 (https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=8531)
Titre: Re : Des rumeurs!
Posté par: seba le mars 22, 2020, 10:01:48
C'est le cas des célèbres figures de diffraction des diaphragmes de reflex, celles de la première ligne de ton tableau, correspondant aux nombre de lamelles, donc de "coins", des différents diaphragmes.
Dans la deuxième ligne de ton tableau (en bord de champ), on subit en plus les défauts de l'objectif, là je suis totalement ignare pour les qualifier.

C'est un diaphragme à 7 lamelles. Les rayons sont perpendiculaires aux bords des lamelles.
Il y a des défauts (aberrations) au centre et au bord.
Au centre aberration sphérique et chromatique, réduites assez rapidement.
Au bord peuvent se rajouter coma, astigmatisme.
Titre: Re : Des rumeurs!
Posté par: seba le mars 22, 2020, 10:07:24
Oui, cela permet d'augmenter le contraste. De telles ouvertures annulaires sont commercialisées pour ce faire:
https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=8531 (https://www.thorlabs.com/newgrouppage9.cfm?objectgroup_id=8531)

Je ne crois pas que le plan de Fourier soit dans le plan du diaphragme.
Le montage utilisé est celui-ci, pour le traitement des images par filtrage spatial ou dans certaines techniques en microscopie. Le plan de Fourier est situé au foyer de l'objectif (lentille 1).
Les diaphragmes annulaires de ton lien sont destinés à être placés dans le plan de Fourier.

When the Fourier plane is imaged onto the filter, the center region, which contains Gaussian light (TEM00), will become blocked by the center obstruction. This allows the higher order modes of the Fourier plane, which contain diffraction information, to pass through and form the image. This will cause an overall loss of light intensity and generalized, smooth features, but it will enhance any sharp lines or boundaries.
Titre: Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 22, 2020, 10:22:49
On constate que la figure de diffraction possède des fréquences spatiales horizontales et verticales plus élevées qu'en diagonale (d'un facteur racine de 2); c'est dû au fait que les coins du diaphragme sont plus éloignés du centre que le milieu de ses bords, d'un facteur racine de 2 justement, et laissent passer des fréquences racine de 2 fois plus élevées dans ces directions.

D'après ta description, les fréquences spatiales horizontales et verticales correspondent aux angles du diaphragme.
Mais dans ce cas de figure, les angles du diaphragme carré sont situés en diagonale.
Titre: Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: egtegt² le mars 23, 2020, 17:26:53
C'est un choix personnel, que je respecte totalement.
Non, ça n'est pas un choix personnel, un appareil photo n'est pas un appareil de mesure, c'est un appareil pour capturer des images. Si tu utilises ton appareil pour faire de l'astronomie, alors c'est un appareil de mesure, mais c'est une utilisation totalement marginale et en fin de compte détournée d'un appareil photo. D'ailleurs les astronomes utilisent du matériel dédié, pas des appareils photos.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 23, 2020, 20:03:13
Non, ça n'est pas un choix personnel, un appareil photo n'est pas un appareil de mesure, c'est un appareil pour capturer des images. Si tu utilises ton appareil pour faire de l'astronomie, alors c'est un appareil de mesure, mais c'est une utilisation totalement marginale et en fin de compte détournée d'un appareil photo. D'ailleurs les astronomes utilisent du matériel dédié, pas des appareils photos.

C'est exactement mon point de vue.

Les arguments avancés par jenga ne valent que d'un point de vue métrologie, mais sont inadaptés à la photo...
Titre: Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 23, 2020, 21:58:02
D'après ta description, les fréquences spatiales horizontales et verticales correspondent aux angles du diaphragme.
Mais dans ce cas de figure, les angles du diaphragme carré sont situés en diagonale.
Je réfléchis à ta remarque, tout-à-fait pertinente.

(Je n'ai jamais travaillé avec des diaphragmes carrés, juste des ronds bien ronds  :)  En fait, j'ai ajouté cette figure suite à ta remarque "pour un diaphragme polygonal, il n'y a pas d'anneaux mais des rayons". Je voulais illustrer le fait que dans tous les cas il y a l'équivalent d'anneaux, mais que sur beaucoup de photos on ne les voit pas à cause d'un contraste inadéquat. J'ai donc voulu illustrer ce point par une figure de diffraction par autre chose qu'un trou rond, montrant tous les "anneaux")
Titre: Re : Re : Des rumeurs!
Posté par: jenga le mars 23, 2020, 22:01:59
Je ne crois pas que le plan de Fourier soit dans le plan du diaphragme.
C'est un point important.

Pourtant, les figures de diffraction d'un point lumineux sur fond sombre (voir les exemples que tu as postés, les nombreuses photos de réverbères illustrant le nombre de lamelles des diaphragmes) sont bien les transformées de Fourier de la forme du diaphragme.

Ce qui est sûr, c'est que si le diaph est dans le plan de Fourier, alors l'image d'un point à l'infini (un réverbère allumé la nuit...) diffracté par le diaphragme est la transformée de Fourier du diaphragme; c'est bien la figure qu'on observe.

Peut-on obtenir la même figure de diffraction du point à l'infini avec une position différente du diaphragme?
Et dans ce cas, puisque le processus est linéaire (tant que la capteur n'est pas saturé), les mêmes conclusions sur le filtrage devraient s'appliquer?

Titre: Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 23, 2020, 22:02:53
Non, ça n'est pas un choix personnel, un appareil photo n'est pas un appareil de mesure, c'est un appareil pour capturer des images. Si tu utilises ton appareil pour faire de l'astronomie, alors c'est un appareil de mesure, mais c'est une utilisation totalement marginale et en fin de compte détournée d'un appareil photo. D'ailleurs les astronomes utilisent du matériel dédié, pas des appareils photos.
C'est exactement mon point de vue.

Les arguments avancés par jenga ne valent que d'un point de vue métrologie, mais sont inadaptés à la photo...

Lorsque je prends des photos, je ne fais ni métrologie ni astronomie. Mais je ne veux pas de moiré, sauf dans le cas où je le chercherais explicitement. Je ne veux pas non plus de traits fins qui se dédoublent ou changent de couleur de temps en temps. Bref, pas d'artefacts de sous-échantillonnage.

Je préfère largement une image un peu plus molle (parce que l'optique l'a filtrée à la bonne limite avant l'échantillonnage par le capteur), mais sans artefact.

C'est un point de vue, vous en avez un différent et je le respecte, mais je ne vois pourquoi le mien ne serait pas recevable.
Titre: Re : Des rumeurs!
Posté par: Verso92 le mars 23, 2020, 22:07:27
Lorsque je prends des photos, je ne fais ni métrologie ni astronomie. Mais je ne veux pas de moiré, sauf dans le cas où je le chercherais explicitement. Je ne veux pas non plus de traits fins qui se dédoublent ou changent de couleur de temps en temps. Bref, pas d'artefacts de sous-échantillonnage.

Je préfère largement une image un peu plus molle (parce que l'optique l'a filtrée à la bonne limite avant l'échantillonnage par le capteur), mais sans artefact.

C'est un point de vue, vous en avez un différent et je le respecte, mais je ne vois pourquoi le mien ne serait pas recevable.

Et, justement, je n'ai pas de traits fins qui se dédoublent ou changent de couleur de temps en temps...


Ne pas oublier que les défauts ("les artefacts de sous-échantillonnage", comme tu les appelles), tu les vois sur les crops à 1 600%, qui ne sont là que pour illustrer ce qui se passe au niveau du pixel, rien de plus.

Ci-dessous, le crop à 100% est ce qu'il y a, d'un point de vue photographique, de plus exigeant (tout en sachant que l'impression, même avec les meilleures imprimantes du marché réglées à la perfection, sur le papier permettant le meilleur piqué possible, sera loin derrière : cf post #342) :
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: seba le mars 23, 2020, 22:27:00
Je réfléchis à ta remarque, tout-à-fait pertinente.

(Je n'ai jamais travaillé avec des diaphragmes carrés, juste des ronds bien ronds  :)  En fait, j'ai ajouté cette figure suite à ta remarque "pour un diaphragme polygonal, il n'y a pas d'anneaux mais des rayons". Je voulais illustrer le fait que dans tous les cas il y a l'équivalent d'anneaux, mais que sur beaucoup de photos on ne les voit pas à cause d'un contraste inadéquat. J'ai donc voulu illustrer ce point par une figure de diffraction par autre chose qu'un trou rond, montrant tous les "anneaux")

Tu peux regarder ce fil, par exemple.

https://www.chassimages.com/forum/index.php/topic,302785.0.html

Titre: Re : Re : Re : Des rumeurs!
Posté par: seba le mars 23, 2020, 22:38:21
C'est un point important.

Pourtant, les figures de diffraction d'un point lumineux sur fond sombre (voir les exemples que tu as postés, les nombreuses photos de réverbères illustrant le nombre de lamelles des diaphragmes) sont bien les transformées de Fourier de la forme du diaphragme.

Ce qui est sûr, c'est que si le diaph est dans le plan de Fourier, alors l'image d'un point à l'infini (un réverbère allumé la nuit...) diffracté par le diaphragme est la transformée de Fourier du diaphragme; c'est bien la figure qu'on observe.

Peut-on obtenir la même figure de diffraction du point à l'infini avec une position différente du diaphragme?
Et dans ce cas, puisque le processus est linéaire (tant que la capteur n'est pas saturé), les mêmes conclusions sur le filtrage devraient s'appliquer?

Je ne sais pas, les figures de diffraction du diaphragme correspondent à la diffraction de Fraunhofer je crois. Mais oui on peut placer le diaphragme à différents emplacements (sur l'axe), ce sera pareil.
Peut-être que le diaphragme est dans le plan de Fourier pour lui-même mais sinon, pour le traitement des images c'est le schéma que j'ai posté plus haut qui indique son emplacement (le sujet doit être au foyer objet et le plan de Fourier est au foyer image, c'est là qu'il faut placer les masques pour le filtrage spatial).
Titre: Re : Re : Re : Re : Re : Re : Re : Re : Re : Des rumeurs!
Posté par: jenga le mars 26, 2020, 06:27:22
Tu peux regarder ce fil, par exemple.

https://www.chassimages.com/forum/index.php/topic,302785.0.html
Merci pour ta réponse, et pour l'autre également. Les figures du fil que tu cites sont bien les transformées de Fourier des diaphragmes à N lamelles.

Avec le logiciel de manipulation d'images GIMP, on peut utiliser le paquet de filtres G'MIC, qui comporte entre autres une transformée de Fourier. bi-dimensionnelle.

Lorsqu'on l'applique à un polygone régulier à N côtés, qui est une bonne approximation d'un diaphragme (je n'ai pas eu la patience de reproduire la courbure des lamelles), on retrouve bien les formes caractéristiques visibles sur les photos dudit fil.
Titre: Re : Des rumeurs!
Posté par: seba le mars 26, 2020, 07:28:29
Dans ce cas le plan de Fourier ne serait pas le diaphragme, mais plutôt le plan focal.
Je ne sais pas trop comment l'interpréter. Normalement, le sujet est placé au foyer objet, la source est imagée au foyer image (= plan de Fourier), et le sujet est imagé avec une deuxième lentille.