Fujifilm GFX 50R

Démarré par Mistral75, Septembre 17, 2018, 18:28:54

« précédent - suivant »

laserverbois

Citation de: Stephane91 le Décembre 14, 2018, 00:16:37
merci pour le tuyau pour l'horizon virtuel, pas encore lu le manuel...

premier test photo aujourd'hui

Première pour moi également cette semaine (+ découverte de C1)  ;D

FUNBOARDMAN

Le Fujifilm GFX50R est testé dans le numéro de RP de janvier 2019 paru hier.

Dormeur74

Merci FUNBOARDMAN pour l'info. Il y aura certainement des choses intéressantes dedans.

trebuh


Gilala

Les informations pouvant être récupérées avec une surexposition de l'image sont plutôt limitées. Il est difficile de retrouver des valeurs au-dessus de 1,3 IL. La limite se situant au maximum à 1,6 IL. C'est plutôt frustrant pour un capteur moyen format. Il est plus facile de récupérer l'image dans les ombres que dans les zones brûlées.

les nouveaux capteurs semblent définitivement plus conciliants dans les sous-ex que les sur-ex...

Benaparis

#455
Citation de: Gilala le Décembre 18, 2018, 10:37:45
Les informations pouvant être récupérées avec une surexposition de l'image sont plutôt limitées. Il est difficile de retrouver des valeurs au-dessus de 1,3 IL. La limite se situant au maximum à 1,6 IL. C'est plutôt frustrant pour un capteur moyen format. Il est plus facile de récupérer l'image dans les ombres que dans les zones brûlées.

les nouveaux capteurs semblent définitivement plus conciliants dans les sous-ex que les sur-ex...

Oui c'est certain les capteurs actuels (Cmos) supportent beaucoup mieux la sous-exposition. Cela étant je n'ai jamais vu un capteur récupérer légèrement au delà de 1IL...et encore ce terme est totalement abusif car en réalité on ne récupère rien quand un canal est saturé il est saturé point barre, la soi-disante récupération c'est juste une question d'offset d'expo et de tonalité au niveau du profil et de capacité du logiciel a "réinventer" plus ou moins bien un couche brulée. Le jour où tous les constructeurs donneront à l'utilisateur la possibilité d'avoir un histogramme sur le raw ou à minima des avertissement de surex (et de sous-ex) qui traduisent exactement la réalité de l'acquisition numérique et non une information basée sur une simulation rendu les gens comprendront sans doute mieux comment les choses se passent réellement au niveau du capteur et des données réellement exploitables, y compris les testeurs de RP (si c'est ta source). A ma connaissance seul le Leica M10 indique de manière ultra fiable les choses, quand ça clippe en surex (ou en sous-ex) c'est que c'est définitivement cramé (j'ai vérifié sur Rawdigger) et qu'il n'y aura rien à récupérer, peut être que d'autres le font également mais je n'ai pas vérifié.
En revanche, ce qui peut changer c'est la capacité du système (capteur) à encaisser au delà de l'exposition même si à ma connaissance après avoir analysé pas mal de capteurs différents (CCD, Cmos, 24x36, MF) le point de saturation des capteurs se situe à 3IL ou quasi de l'expo, parfois un poil plus, parfois un poil moins ; en sous-ex la différence entre CCD et Cmos moderne est beaucoup plus flagrante en faveur de ce dernier.
Instagram : benjaminddb

jmporcher

Citation de: Benaparis le Décembre 18, 2018, 12:29:44
après avoir analysé pas mal de capteurs différents (CCD, Cmos, 24x36, MF) le point de saturation des capteurs se situe à 3IL ou quasi de l'expo, parfois un poil plus, parfois un poil moins ;
ooulà, c'est un peu confus, là : 3IL au dessus de l'expo, sachant qu'elle est calculée pour un gris neutre de grade 5, nous donnerait une dynamique de 6 IL. Pas beaucoup, quand même. Sans doute voulais-tu parler de de 3IL au dessus du niveau max de l'expo..?

jmporcher


Benaparis

#458
Citation de: jmporcher le Décembre 18, 2018, 13:01:52
ooulà, c'est un peu confus, là : 3IL au dessus de l'expo, sachant qu'elle est calculée pour un gris neutre de grade 5, nous donnerait une dynamique de 6 IL. Pas beaucoup, quand même. Sans doute voulais-tu parler de de 3IL au dessus du niveau max de l'expo..?

Sauf erreur, aucune de confusion dans mes propos, il suffit d'avoir un logiciel tel quel Rawdigger, les choses sont extrêmement limpides sur le sujet. Je ferai un capture d'écran de l'histogramme du logiciel pour que ce soit plus clair.
Ne pas oublier qu'un capteur enregistre en linéaire, il faut (un peu) oublier ses  références argentiques. Quand vous exposez avec votre système celui-ci indique l'exposition sur une image non linéaire...si vous ouvrez cette image en linéaire vous observerez, en principe, une image sous-ex d'1,33IL. J'insiste la plupart du temps quand vous visualisez un Raw dans votre éditeur celui-ci ne représente absolument pas l'acquisition numérique, c'est déjà une interprétation...toutes les confusions viennent de là.
Instagram : benjaminddb

trebuh


Benaparis

#460
Voici comme promis l'histogramme d'un IQ3 100Mpx (annoncé à 15 IL de dynamique), comme on peut le voir la saturation du capteur arrive à +3IL de l'expo (en acquisition donc linéaire) comme quasi tous les autres systèmes ; en revanche il y a beaucoup à exploiter en bas.
Et aussi celui d'un GFX50s (image du bas) où l'on voit que la limite en surex est également à 3IL (il descend en revanche un peu moins que l'IQ3 100, même si pour la sous-ex il faudrait faire un dark dans les deux cas) :
Instagram : benjaminddb

RTS3

Citation de: Benaparis le Décembre 18, 2018, 12:29:44
(...) Le jour où tous les constructeurs donneront à l'utilisateur la possibilité d'avoir un histogramme sur le raw ou à minima des avertissement de surex (et de sous-ex) qui traduisent exactement la réalité de l'acquisition numérique et non une information basée sur une simulation rendu les gens comprendront sans doute mieux comment les choses se passent réellement au niveau du capteur et des données réellement exploitables, y compris les testeurs de RP (si c'est ta source). A ma connaissance seul le Leica M10 indique de manière ultra fiable les choses, quand ça clippe en surex (ou en sous-ex) c'est que c'est définitivement cramé (j'ai vérifié sur Rawdigger) et qu'il n'y aura rien à récupérer, peut être que d'autres le font également mais je n'ai pas vérifié.
(...)
Il semble que Phase One se mette aux histogrammes sur raw sur sa dernière génération de dos IQ4.
L'essentiel c'est de... euh...

Jean-Claude

#462
Citation de: trebuh le Décembre 18, 2018, 09:53:54
https://www.lesnumeriques.com/appareil-photo-numerique/fujifilm-gfx-50r-p46305/test.html

Vous l'avez remarqué vous ce moirage?

Pas présent sur le X1D!?
Je n'ai jamais vu un seul boitier, ne pas moirer à un moment ou un autre, s'il ne le fait pas, c'est que l'objectif n'est pas assez bon !
Là je parle plus spécialement de ce que j'utilise : D800E, D850, X1D, Leica Q
Après beaucoup de logiciel récents ont des fonctions anti moiré de plus en plus efficaces, 100% efficaces en moiré chromatique, bien moins sur la luminance

trebuh

Citation de: Jean-Claude le Décembre 18, 2018, 22:22:04
Je n'ai jamais vu un seul boitier, ne pas moirer à un moment ou un autre, s'il ne le fait pas, c'est que l'objectif n'est pas assez bon !
Là je parle plus spécialement de ce que j'utilise : D800E, D850, X1D, Leica Q

Merci Jean-Claude.
Peux-tu m'expliquer pourquoi un bon objectif fait moirer !?

jmporcher

C'est le théorème de Shannon (ou Nyquist : les deux mathématiciens ont travaillé sur cette équation). Un détail plus petit que la moitié de la fréquence d'échantillonage génère des artefacts. En photo numérique ça veut dire que si on reproduit sur le capteur des détails plus petits que 2 fois la surface d'un pixel, ça moire. Or un objectif moins bon ne reproduit pas des détails aussi petits....

trebuh


Jean-Claude

Quand on traite un RAW MF dans son logiciel adhoc les choses sont toutes différentes de ce que l'on peut mesurer sur des données brutes non defawtisées. Les algorithmes les plus évolués tirent plus des données que ce qui est mesurable, celà se voit immédiatement entraitant des fichiers de IQ 100 dans Capture One et des fichier Blad dans Phocus.

Il est loin le temps ou certains prétendaient que des fichiers de capteurs Bayer ont 3x moins de détails que les Foveon (ce que Sigma disait dans ses pub), et c'est grace aux mathématiques que c'est possible.

Il en est de même avec les HL BL et l'exploitation de la finesse des couleurs 16bit.

Il est facile d'imaginer que lors d'une récupération de HL une fois arrivé au bout de l'info capteur, le logiciel continue d'appliquer le gradient de la limite,jusqu'à rencontrer une nouvelle valeur réelle de capteur. C'est celà qui fait la différence entre des combinaisons $RAW derawtiseur qui grisent une fois arrivés au bout de l'info, et ceux qui vont encore un peu plus grace à  un astucieux calcul.

Je vois très bien cette évolution pour les même fichiers 3F développés dans Phocus 3.3 et 3.4 par exemple, j'ai bien plus de HL "récupérables" dans 3.4 même s'ils sont artificiels (inventés) cela matche.  :)

Après il est de bonne guerre que Capture One réserve ses algos les plus sophistiqués aux boitiers de la marque, que Blab le fasse d'une autre façon dans Phocus, etc....

egtegt²

Là je crois que es en train d'écrire une légende :) Je n'ai aucun doute sur le fait qu'on tire plus d'information d'un capteur de MF que d'un plus petit capteur, mais de là à dire qu'on extrait du non mesurable ou que les algorithmes vont créer de l'information là où elle n'existe pas, je ne te suis plus.

Pourquoi vouloir créer des légendes quand la réalité suffit ?
Un capteur MF est plus gros et donc pour une photo identique, va recevoir plus de lumière et donc plus d'information. Cette information va permettre de créer des images plus riches, tant en finesse qu'en colorimétrie.
A ça se rajoute le fait que comme il s'agit d'appareils de toute façon coûteux et destiné aux pros, un travail plus soigné est apporté à l'étalonnage du capteur.
Et pour finir, il n'existe pas d'objectifs MF bas de gamme, ils sont tous au moins au niveau des meilleurs objectifs 24x36.

Pourquoi vouloir chercher plus compliqué ? Ca suffit bien pour expliquer qu'on sort de meilleurs photos d'un MF que d'un 24x36, non ? ;)

Dormeur74

Je crois que le terrain va vite devenir glissant.
;D

Fred_G

Ouais. Comme disait un grand philosophe : "J's'rais pas étonné qu'on ferme"  ;D
The lunatic is on the grass.

frmfrm

Citation de: Benaparis le Décembre 18, 2018, 14:24:58
Voici comme promis l'histogramme d'un IQ3 100Mpx (annoncé à 15 IL de dynamique), comme on peut le voir la saturation du capteur arrive à +3IL de l'expo (en acquisition donc linéaire) comme quasi tous les autres systèmes ; en revanche il y a beaucoup à exploiter en bas.

Me semble que si tu changes les paramètres dans rawdigger, tu pourrais aussi arriver à dire que la saturation arrive à 4 ILs ..... ou ce que tu veux ....  de l'expo. La façon dont tu lis/utilises cet histo pour obtenir une valeur de l'écart entre la saturation et un gris moyen n'a à mon avis pas de sens et pas d'intérêt pratique.


Benaparis

#471
Citation de: frmfrm le Décembre 19, 2018, 15:12:25
Me semble que si tu changes les paramètres dans rawdigger, tu pourrais aussi arriver à dire que la saturation arrive à 4 ILs ..... ou ce que tu veux ....  de l'expo. La façon dont tu lis/utilises cet histo pour obtenir une valeur de l'écart entre la saturation et un gris moyen n'a à mon avis pas de sens et pas d'intérêt pratique.

Donc Rawdigger propose quelque chose qui donne une information avec des valeurs précises qui ne sert à rien... je veux bien admettre avoir mal interprété les choses mais va falloir être un peu moins expéditif en terme d'argumentation.
En tout état de cause sans cela ne change strictement rien à mon propos initial qui est de dire que les capteurs récents ont un niveau de saturation en HL qui est peu ou prou le même ( je pourrais  illustrer un foultitude de système 24x36 et MF CMOs et CCD qui indiquent à paramètre Rawdigger indentique un niveau de saturation HL très proche) et par conséquent qu'il est inexact de dire que l'on récupèrerait sensiblement moins de HL avec le GFX qu'avec un autre système puisqu'au delà du niveau de saturation il n'y a rien à "récupérer" (en l'occurrence j'ai illustré que le point de saturation HL du GFX est quasi similaire à un MF très haut de gamme)... et ce d'autant plus que ce que l'on croit récupérer c'est juste une histoire de calage au niveau du profil standard pour un logiciel donné, ce dont Rawdigger ne prend fort heureusement et logiquement pas en compte.
Me concernant c'est grâce à Rawdigger que j'ai pu vérifier que l'avertissement d'ecretage des HL de mon système (M10) correspondait très précisément à la saturation réelle des HL de mon capteur, ce qui représente à ma connaissance une première dans l'univers des APN (apparemment P1 fait pareil) et un réel bénéfice en prise de vue (quand on a le temps et la possibilité de vérifier bien entendu).
Instagram : benjaminddb

Jean-Claude

#472
Citation de: egtegt² le Décembre 19, 2018, 10:22:31
Là je crois que es en train d'écrire une légende :) Je n'ai aucun doute sur le fait qu'on tire plus d'information d'un capteur de MF que d'un plus petit capteur, mais de là à dire qu'on extrait du non mesurable ou que les algorithmes vont créer de l'information là où elle n'existe pas, je ne te suis plus.

Pourquoi vouloir créer des légendes quand la réalité suffit ?
Un capteur MF est plus gros et donc pour une photo identique, va recevoir plus de lumière et donc plus d'information. Cette information va permettre de créer des images plus riches, tant en finesse qu'en colorimétrie.
A ça se rajoute le fait que comme il s'agit d'appareils de toute façon coûteux et destiné aux pros, un travail plus soigné est apporté à l'étalonnage du capteur.
Et pour finir, il n'existe pas d'objectifs MF bas de gamme, ils sont tous au moins au niveau des meilleurs objectifs 24x36.

Pourquoi vouloir chercher plus compliqué ? Ca suffit bien pour expliquer qu'on sort de meilleurs photos d'un MF que d'un 24x36, non ? ;)
Regardez les release notes de Phocus 3.4 c'est écrit noir sur blanc et quand j'ai passé les mêmes RAW X1D sur une de mes machines en version 3.3 les blancs les plus cramés devenaient gris sans modulation et sur l'autre version ces mêmes blancs cramés n'allaient plus du tout dans le gris même avec le curseur de récup à fond, cette zone grise en 3.3 devenait en 3.4 modulée dans différentes valeurs de gris clair jusqu'à un blanc pur non cramé.
La seule différence est bien dans l'algorithme que Hasselblad dit avoir remplacé.

Quand je derawtise un RAW de Nikon D850 dans Capture One, les blancs cramés deviennent à un moment donné gris uniforme même dans la version 12 la plus récente. Quand je derawtise un RAW de IQ3 100 dans C1 les blancs cramés ne deviennent jamais gris mais récupèrent une belle modulation et ceci déjà avec les vieilles versions 9 et 10 sur lesquelles j'ai derawtisé dans le temps avec deux ambassadeurs P1.

Maintenant je ne sais pas ce que Phase One a bien voulu accorder comme algorithmes à Fuji, et je ne dirai rien là dessus.

Voilà je suis pragmatique et ce qui m'incombe est le résuultat final sur papier, pas des chiffres extraits par Raw Digger sur un fichier non traité, il y a le potentiel RAW et après il y a ce que l'on en fait, et les mathématiques modernes permettent énormément, comme aussi par ex. la déconvolution de la diffraction des petites ouvertures, le fameux petit switch magique de certains logiciels  :)

Jean-Claude

Citation de: Gilala le Décembre 18, 2018, 10:37:45
Les informations pouvant être récupérées avec une surexposition de l'image sont plutôt limitées. Il est difficile de retrouver des valeurs au-dessus de 1,3 IL. La limite se situant au maximum à 1,6 IL. C'est plutôt frustrant pour un capteur moyen format. Il est plus facile de récupérer l'image dans les ombres que dans les zones brûlées.

les nouveaux capteurs semblent définitivement plus conciliants dans les sous-ex que les sur-ex...
Euh il s'agit d'un capteur relativement ancien, 3 ou 4 ans il ma semble qui va avoir un remplaçant en 2019

Benaparis

Citation de: frmfrm le Décembre 19, 2018, 15:12:25
Me semble que si tu changes les paramètres dans rawdigger, tu pourrais aussi arriver à dire que la saturation arrive à 4 ILs ..... ou ce que tu veux ....  de l'expo. La façon dont tu lis/utilises cet histo pour obtenir une valeur de l'écart entre la saturation et un gris moyen n'a à mon avis pas de sens et pas d'intérêt pratique.

J'ai perdu mon temps à argumenter la réponse était indiqué dans le manuel : http://updates.rawdigger.com/data/Rawdigger-Manual-EN.pdf

Citation
Some unique RawDigger features:
• RawDigger displays the real histogram of the raw data, which greatly differs from the in-camera histogram and histograms presented by most of the raw convertors.
• Overexposure (OE) indicator will show you exactly what areas of the shot are blown out and in which color channel(s) it happened (best if used in channel view).
• RawDigger allows determining how exposure meter is calibrated and what raw level corresponds to the midpoint of in-camera histogram. That is, RawDigger lets you establish the headroom in highlights and obtain optimal exposures.
• For ETTR practitioners, RawDigger makes it very simple to compare raw histogram to in-camera histogram and account for the difference, making the exposures as much "to the right" as possible.
• RawDigger helps determining the raw level at which the overexposure "blinkies" start on the camera LCD and to know how much headroom is still available after the blinkies start showing.
• If the shadows look blotchy, colorless, or details in shadows are poorly resolved you will be able to determine how much they are underexposed and set Underexposure (UE) indicator in RawDigger accordingly.
• RawDigger is a useful tool for examining how the relative per-channel underexposure depends on the color of light.
• RawDigger is more precise than any exposure meter for the purpose of evaluation of the uniformity of fill light and reproduction light setups (in terms of the evenness of both color balance and luminosity across the background).
• For studio photography RawDigger helps establishing the proper light filtration to achieve the cleanest possible shadows on the shots.
• Landscape photographers may want to use RawDigger to determine the effect of the filters on the lens, to check neutrality of polarizing and neutral density filters and, possibly, to select color correction and color compensation filters to use in different light.
• RawDigger can be used to check the amount of vignetting caused by the lens and the sensor.
• RawDigger helps determine the idiosyncrasies of both camera and raw convertor by providing a
true view into the raw data and comparing it to the results obtained through raw conversion.
Instagram : benjaminddb