photo tranquille portraits et paysages

Démarré par eskualdun, Janvier 26, 2019, 16:57:32

« précédent - suivant »

Nikojorj

Les photos ne s'affichent pas, malheureusement...

esperado

Les bugs de ce forum ....
La première est la photo, la seconde, le détail que je commentais, que je voudrais que le spectateur aille découvrir, qui perd, pour moi, beaucoup de mystère et de poésie s'il est trop évident.

Nikojorj

OK merci! Ben... sur un tirage très détaillé, j'imagine que peut-être tu ne le verrais pas forcément mieux du premier abord ; par contre il apparaîtrait avec plus de force une fois que tu l'auras remarqué.

Les pixels "en trop" par rapport à la distance de visualisation standard ne fournissent des détails que quand on est assez près pour les voir.

esperado

Citation de: Nikojorj le Février 24, 2019, 23:23:57
OK merci! Ben... sur un tirage très détaillé, j'imagine que peut-être tu ne le verrais pas forcément mieux du premier abord ; par contre il apparaîtrait avec plus de force une fois que tu l'auras remarqué.
Bien sur que j'aurais préféré sur ce coup là les 24Mpx de mon A7 aux 10 de mon E510 de cette photo.
Mais, bon,  le gamin ne se regarde pas de la même façon sur les deux: Son attitude prime sur la photo large, pour qui a remarqué sa présence, son expression prime sur le crop.

Ce que je voulais dire, c'est qu'un peu d'imprécision, ou de flou, ou tout ce qu'on veut qui retire un peu de l'évidence fait partie de l'écriture et change la démarche de celui qui veut bien pencher son regard sur une photo.

Le bokeh est une arme ... tant qu'il ne détourne pas l'attention sur lui-même.

esperado

Photo du jour, toujours à l'hexanon 21mm F/2.8, contre jour pleine pastille:

chelmimage

Je vais être un peu long mais courage le sujet du fil parle de paysage....
Citation de: Verso92 le Février 24, 2019, 11:58:44
Même sans aller jusqu'à la visualisation 100% écran, je m'étais aperçu assez vite, quand j'ai commencé la photo, que mes diapos (en projection) réalisées en hyperfocale présentaient des lointains moins nets que quand je faisais la MaP ~à l'infini.
Quand j'ai décalé la MaP par rapport à l'échelle de PdC de l'objectif d'un cran (en faisant la photo à f/11 avec l'hyperfocale pour f/8, par exemple), tout est rentré dans l'ordre.
Avec le D700, j'ai constaté le même phénomène, sauf qu'il fallait que je décale de deux crans...
Citation de: esperado le Février 24, 2019, 16:25:10
Les courbes ne servent que d'aide à l'apprentissage. Pour savoir plus rapidement travailler en hyperfocale, par exemple.
Il est stupide, sur le terrain, de quantifier la 'zone nette' en fonction de la taille des pixels. On obtient des plages fort différentes avec un appareil de 40Mpx par rapport à un 24Mpx. or, sur des tirages 'normaux', le rendu sera quasiment identique.
Je vais profiter de vos interventions pour expliquer un peu plus mon raisonnement.
Tout d'abord le
«  il est stupide....
Je ne vois pas où est la stupidité.
Comme tu le dis c'est pour des tirages "normaux" mais tout le monde ne voit pas la normalité comme toi, certains profitent même de l'anormalité pour être originaux.
Par zone nette j'entends l'intervalle en distance, où regardée en crop 100%, l'image est nette.
Si je sors de cette zone en m'écartant de la distance de mise au point l'image deviendra progressivement de plus en plus floue en crop 100%. Donc l'intervalle de distance où la photo est nette en crop 100% dépend bien de la dimension des pixels. C'est mathématique.

Le principe de calcul de mes courbes est le suivant :
Le CdC qui permet de définir les limites de PdC est fixé par les bons auteurs à 1/1730 ème de diagonale soit 0,025 mm pour le 24X36
Sur un D850 de 45 Mpix, la dimension d'un pixel est de ~0,00436 mm.
Çà veut dire que le CdC, aux limites de la profondeur de champ, est égal à 5,7 pixels.
C'est un rapport en dimension linéaire, mais en surface, l'étalement du  CdC couvre à 5,7 ² pixels soit 32 pixels du capteur. Je ne m'attarde pas sur la différence entre les pixels carrés et le cercle du CdC.
Ça veut dire qu'avec 32 fois moins de pixels l'image sera autant définie.
45/32= 1,4  Mpix.

Quelle que soit la définition initiale du capteur le rapport dimension CdC/dimension du pixel aboutira toujours à la valeur de 1,4 Mpix..comme définition minimale aux limites de la PdC.
1,4 Mpix (1440X960) était (et reste encore pour certains calculateurs) déjà une valeur raisonnable pour juger de la netteté d'une photo..
Avec les écrans classiques ça correspond sensiblement à un format A4.

C'est donc en partant de ce calcul que je dresse les courbes.
Je calcule pour chaque point en distance la valeur du CdC et je calcule combien de CdC jointifs je peux disposer sur le capteur à chacune de ces distances et je dis  qu'il me suffit d'un pixel par CdC pour définir la photo.
Donc au fur et à mesure que je m'éloigne de la distance de mise au point il me faut de moins en point de pixels.
Lorsque la courbe descend en dessous de la valeur 1,4 on entre dans une zone où le flou (arbitraire) commence.
La valeur 0,1 correspond à une définition de l'image de 100000 pixels(384X236). C'est flou mais pas excessivement.
Tout ceci est une approche très statistique. Mais j'ai fait des simulations qui ne démentent le principe.

En ce qui concerne l'hyperfocale.
L'hyperfocale ne dépend pas de la définition initiale du capteur elle dépend seulement de la dimension du capteur. (1/1730 ème de diag)
Donc on peut représenter ce raisonnement par les courbes suivantes pour un format 24X36 et un 50 mm.
J'ai calculé la définition résultant d'un capteur de 45 Mpix pour diverses conditions relatives à la combinaison 'hyperfocale/ouverture (pour rejoindre les observations  de Verso92).
La courbe la plus basse représente la netteté pour une combinaison distance H et f8,celle du dessus H et f11
Ensuite une distance de 2H toujours à f8 puis 3H f8. H est toujours l'hyperfocale de f8 et 50mm.
On voit que fermer d'un cran fait regagner de la netteté mais peu par rapport aux 1,4 Mpix..
Il y a plus à gagner vers l'infini (donc à droite du graphique ) si on peut faire la mise au point à 2 fois l'hyperfocale et plus 3 fois, etc....
C'est vrai que les valeurs peuvent paraître extrêmes mais lorsque l'image d'un point couvre 32pixels de la photo.. au lieu de 1 seul.!!
J'espère qu'à force de l'expliquer............


triangle

quand je pense que le titre du fil, c'est la photo tranquille  ;) 

chelmimage

Citation de: triangle le Février 26, 2019, 13:39:21
quand je pense que le titre du fil, c'est la photo tranquille  ;)
Les courbes ça peut aussi servir à endormir le lecteur.. ;D ;D

eskualdun

Citation de: chelmimage le Février 26, 2019, 13:46:23
Les courbes ça peut aussi servir à endormir le lecteur.. ;D ;D
il y a longtemps que je dors! chut....

esperado

#209
Citation de: chelmimage le Février 26, 2019, 09:57:34
J'espère qu'à force de l'expliquer............
le problème, chelimage, c'est qu'il n'y a rien de si nouveau à expliquer à qui pratique souvent l'hyperfocale depuis des décennies.
La netteté, le sharpissime, sont des requis pour qui vend des packshots. L'atmosphère, pour celui qui pratique le portrait ou la photo de rue.
Les viseurs actuels permettant de parfaitement se faire une idée de ses profondeurs de champ, et, mieux encore, du rendu de ses photographie, je ne vois pas l'intérêt de telles courbes sur le terrain. C'est en forgeant qu'on devient forgeron.
Ce que je veux dire, c'est que certains, dont je suis, se foutent totalement d'avoir des crops 100% admirables, qui déclenchent des commentaires admiratifs du style "Putain, c'est vachement sharp, c'est quoi ton appareil ?".
Ce que j'ai voulu montrer avec ma dernière photo. Atmosphère, atmosphère, est-ce que j'ai une gueule d'atmosphère ?
Je m'y suis même amusé à ne proposer, comme objet "net" qu'un détail trivial et perdu dans l'angle (le banc), en clin d'œil, vers lequel j'ose espérer qu'aucun regard ne se dirige de prime abord.
Je l'ai faite en pensant à toi. Et tout, dans cette photo, qui ne vaut que ce qu'elle vaut, est une insulte aux pratiques académiques.
En tous cas, mon œil s'y promène dans une sorte de flânerie légère, comme au gré d'une brise et y trouve plus de plaisir qu'a voir ta courbe qui la précède..

chelmimage

Citation de: esperado le Février 26, 2019, 16:31:59
le problème, chelimage, c'est qu'il n'y a rien de si nouveau à expliquer à qui pratique souvent l'hyperfocale depuis des décennies.
La netteté, le sharpissime, sont des requis pour qui vend des packshots. L'atmosphère, pour celui qui pratique le portrait ou la photo de rue.
Les viseurs actuels permettant de parfaitement se faire une idée de ses profondeur de champ, et, mieux encore, du rendu de ses photographie, je ne vois pas l'intérêt de telles courbes sur le terrain. C'est en forgeant qu'on devient forgeron.
Ce que je veux dire, c'est que certains, dont je suis, se foutent totalement d'avoir des 100% admirables, qui déclenchent des commentaires admiratifs du style "Putain, c'est vachement sharp, c'est quoi ton appareil ?".
Ce que j'ai voulu montrer avec ma dernière photo. Atmosphère, atmosphère, est-ce que j'ai une gueule d'atmosphère ?
Je m'y suis même amusé à ne proposer, comme objet "net" qu'un détail trivial (le banc) vers lequel j'ose espérer qu'aucun regard ne se dirige.
Ne soit pas égoïste. Tout le monde n'a pas ton expérience depuis des décennies, ni les mêmes exigences..
Tu te fous de certaines choses.. très bien..Tant mieux pour toi..

esperado

Citation de: chelmimage le Février 26, 2019, 16:43:55
Ne soit pas égoïste. Tout le monde n'a pas ton expérience depuis des décennies, ni les mêmes exigences..
Tu te fous de certaines choses.. très bien..Tant mieux pour toi..
Je ne m'en fous pas. Elles ne m'intéressent que comme un moyen d'éviter autant que possible des ratages. J'essaye juste de partager des émotions, des sourires, des instants de vie et de me faire oublier dans mes petites images maladroites.

chelmimage

Citation de: esperado le Février 26, 2019, 16:55:17
Je ne m'en fous pas. Elles ne m'intéressent que comme un moyen d'éviter autant que possible des ratages. J'essaye juste de partager des émotions, des sourires, des instants de vie et de me faire oublier dans mes petites images maladroites.
Le moyen d'éviter des ratages ou de les comprendre est d'avoir des connaissances qu'on acquiert sur le terrain et parfois dans ce que les autres essayent de te faire partager..
Laisse les autres s'exprimer.. tu n'es pas seul sur ce fil..
Tu sais tout ça, très bien...! ;) ;)

esperado

Citation de: chelmimage le Février 26, 2019, 17:08:57
Le moyen d'éviter des ratages ou de les comprendre est d'avoir des connaissances qu'on acquiert sur le terrain et parfois dans ce que les autres essayent de te faire partager..
Laisse les autres s'exprimer.. tu n'es pas seul sur ce fil..
Tu sais tout ça, très bien...! ;) ;)
Mais, heuuuu, je suis pas contre toi. Je veux juste insister sur ce forum où la technique et le matos semblent primer, sur l'importance primordiale de faire appel à sa sensibilité et sa créativité. Et les règles au placard. Bien sur, une fois qu'on a assez bien assimilé la technique, mais ça, c'est le domaine de l'école. Ou de la vie.

chelmimage

Citation de: esperado le Février 26, 2019, 18:57:29
Mais, heuuuu, je suis pas contre toi.
C'est ce que j'avais ressenti, mais à tort donc...
Excuses moi.

esperado

Citation de: chelmimage le Février 26, 2019, 19:08:05
Excuses moi.
Pas d'agression, pas d'offence, pas besoin d'excuses, donc. (sourire complice)

esperado

Je note d'ailleurs que tu as dit quelque chose de primordial, rarement affirmé:

"L'hyperfocale ne dépend pas de la définition initiale du capteur elle dépend seulement de la dimension du capteur. (1/1730 ème de diag)"

Même le calculateur de mon site fait des calculs suivant la taille des photosites. Ce qui est assez bizarre: sur un 40Mpx de 35mm, va te servir de l'hyperfocale  avec ce truc !  Pourtant, à la même taille de tirage, c'est bien la même photo que son petit frère de 24, non ?

Le principe pratique de l'hyperfocale, c'est de tolérer comme nets des objets qui le sont plus ou moins, en jugeant de l'acceptable. Mais finalement, et surtout avec les AF modernes, et à force de posséder comme moi un SONY qui rend la map manuelle la plus pénible qu'ils peuvent, ça va tomber dans un gouffre de désuétude. Et mes vieux cailloux adorés avec. ;-)

egtegt²

Juste un petit pavé dans la mare :) : Il ne faut pas oublier la capacité du cerveau humain à interpréter et reconstruire une image à partir de ce que l'oeil a vu. Prenez l'anti aliasing par exemple :

Dans cette image, la version de gauche semble bien plus propre que celle de droite, et moi j'ai l'impression d'une ligne nette. Et pourtant, cet effet a été obtenu en ajoutant du flou (on remplit les escalier avec du gris).

Comment faire entrer les calculs de CdC dans cet exemple ?
Pour préciser : la définition est la même pour les deux images, et les pixels sont suffisamment gros pour être distingués à l'oeil nu, on le voit bien sur l'image de droite. Et pourtant on est incapable de distinguer les pixels sur celle de gauche.

Un autre exemple grossi pour bien montrer comment ça fonctionne :



esperado

Tu as déjà vu un JPG avec un logiciel genre Fireworks ? C'est comme ça qu'on interpole.
Sur un raw, la lumière s'en charge, en diagonale et en montant l'escalier, 1 pixel exposé à 100%, son voisin à 50, le suivant à 100% etc.

esperado

Et ça donne ça:

Polak

Citation de: chelmimage le Février 26, 2019, 09:57:34
Je vais être un peu long mais courage le sujet du fil parle de paysage....Je vais profiter de vos interventions pour expliquer un peu plus mon raisonnement.
Tout d'abord le
«  il est stupide....
Je ne vois pas où est la stupidité.
Comme tu le dis c'est pour des tirages "normaux" mais tout le monde ne voit pas la normalité comme toi, certains profitent même de l'anormalité pour être originaux.
Par zone nette j'entends l'intervalle en distance, où regardée en crop 100%, l'image est nette.
Si je sors de cette zone en m'écartant de la distance de mise au point l'image deviendra progressivement de plus en plus floue en crop 100%. Donc l'intervalle de distance où la photo est nette en crop 100% dépend bien de la dimension des pixels. C'est mathématique.

Le principe de calcul de mes courbes est le suivant :
Le CdC qui permet de définir les limites de PdC est fixé par les bons auteurs à 1/1730 ème de diagonale soit 0,025 mm pour le 24X36
Sur un D850 de 45 Mpix, la dimension d'un pixel est de ~0,00436 mm.
Çà veut dire que le CdC, aux limites de la profondeur de champ, est égal à 5,7 pixels.
C'est un rapport en dimension linéaire, mais en surface, l'étalement du  CdC couvre à 5,7 ² pixels soit 32 pixels du capteur. Je ne m'attarde pas sur la différence entre les pixels carrés et le cercle du CdC.
Ça veut dire qu'avec 32 fois moins de pixels l'image sera autant définie.
45/32= 1,4  Mpix.

Quelle que soit la définition initiale du capteur le rapport dimension CdC/dimension du pixel aboutira toujours à la valeur de 1,4 Mpix..comme définition minimale aux limites de la PdC.
1,4 Mpix (1440X960) était (et reste encore pour certains calculateurs) déjà une valeur raisonnable pour juger de la netteté d'une photo..
Avec les écrans classiques ça correspond sensiblement à un format A4.

C'est donc en partant de ce calcul que je dresse les courbes.
Je calcule pour chaque point en distance la valeur du CdC et je calcule combien de CdC jointifs je peux disposer sur le capteur à chacune de ces distances et je dis  qu'il me suffit d'un pixel par CdC pour définir la photo.
Donc au fur et à mesure que je m'éloigne de la distance de mise au point il me faut de moins en point de pixels.
Lorsque la courbe descend en dessous de la valeur 1,4 on entre dans une zone où le flou (arbitraire) commence.
La valeur 0,1 correspond à une définition de l'image de 100000 pixels(384X236). C'est flou mais pas excessivement.
Tout ceci est une approche très statistique. Mais j'ai fait des simulations qui ne démentent le principe.

En ce qui concerne l'hyperfocale.
L'hyperfocale ne dépend pas de la définition initiale du capteur elle dépend seulement de la dimension du capteur. (1/1730 ème de diag)
Donc on peut représenter ce raisonnement par les courbes suivantes pour un format 24X36 et un 50 mm.
J'ai calculé la définition résultant d'un capteur de 45 Mpix pour diverses conditions relatives à la combinaison 'hyperfocale/ouverture (pour rejoindre les observations  de Verso92).
La courbe la plus basse représente la netteté pour une combinaison distance H et f8,celle du dessus H et f11
Ensuite une distance de 2H toujours à f8 puis 3H f8. H est toujours l'hyperfocale de f8 et 50mm.
On voit que fermer d'un cran fait regagner de la netteté mais peu par rapport aux 1,4 Mpix..
Il y a plus à gagner vers l'infini (donc à droite du graphique ) si on peut faire la mise au point à 2 fois l'hyperfocale et plus 3 fois, etc....
C'est vrai que les valeurs peuvent paraître extrêmes mais lorsque l'image d'un point couvre 32pixels de la photo.. au lieu de 1 seul.!!
J'espère qu'à force de l'expliquer............

J'espère pour toi que tu as intégré que la taille du cdc qui est utilisé pour calculer la pdc et l'hyperfocale dépend UNIQUEMENT  de la taille de l'image et de la distance d'obsevation. Le facteur limitant pour le calcul est la capacité de l'oeil humain.
Comme tu as lu les articles de H Nasse tu as noté que les valeurs proposées dans les tables sont basées sur des conditions standards .

Dans tes calculs dont l'objet semble être d'observer une image à 100% tu utilises la notion de cdc comme facteur limitant de netteté au niveau du capteur.
On est d'accord que ça n'a pas de sens de regarder à 100% quand on parle de profondeur de champ ( voir ce qui est dit plus haut) .

On est d'accord qu'un capteur seul ne fournit aucune image.
Par ailleurs tu as lu l'article de H Nasse ( How to read MFTcurves) . Tu as donc compris que le niveau de détail fourni par un couple.objectif-capteur est une fonction complexe non linéaire. Je suppose que tu as intégré cette fonction dans le calcul de la netteté finale.

chelmimage

Une réponse globale..
La formule de calcul du CdC est admise par tous je pense.
Donc j'aurais pu faire des graphiques représentant le CdC pour toute combinaison format capteur/objectif.
ça fait une infinité de combinaison.
Pour simplifier le problème j'ai fait des graphiques qui intègrent implicitement le format du capteur en prenant comme combinaison de variables le format du capteur et le nombre de pixels.
De cette façon, une seule famille de courbes permet de rendre compte de l'influence du CdC sur la netteté (définition globale résultante) de l'image aussi bien pour du FF, de l'APSC, du 4:3.etc...
En plus la netteté est évaluée en Mpix qui me parlent plus que des dimensions de CdC. Je pense que pour vous aussi..
Polak, tu m'opposes des fonctions complexes non linéaires, est ce que les tableurs prennent en compte ce phénomène pour estimer la profondeur de champ? je n'ai jamais lu ça!
Et bien moi, je fais pareil je les néglige.
Mais je pourrais! je mets un coefficient d'abattement de 30% et le tour est joué.
Ces courbes ne sont pas des valeurs exactes, elles représentent un phénomène simplifié.. C'est surtout ce que je veux montrer.
La conséquence d'une loi physique simple sur la photographie.
D'autant plus que le haut des courbes est inexact puisque la résolution max réelle des appareils est inférieure à la résolution du capteur lui-même à cause du dématriçage, et de l'optique..
Malgré tout on voit bien que la netteté (la définition réelle de la photo) à l'infini tend vers une limite variable..
Sur ces graphiques on observe bien que les intersections entre la courbe d'une combinaison et la droite de 1,4, limites de PdC,  sont situées aux valeurs données par les tables. Et qu'à ces valeurs, pour un D850 le CdC est égal à 32 pixels.
Pour un autre appareil ce sera une autre valeur du nombre de pixels, une autre dimension, donc difficile concrètement d'en voir les conséquences. Par contre, on peut comparer sur ce graphique un FF et un 4:3.
Dans mon mode de représentation les limites de PdC sont toujours à 1,4.
Et en plus, on peut choisir n'importe quelle valeur de netteté sur l'échelle verticale., la courbe permet d'en voir tout de suite les conséquences sur les distances (échelle horizontale).

dio

#222
Citation de: Verso92 le Février 24, 2019, 17:01:52
Interdit de s'approcher !

Les gens ne s'approchent pas.  Quand c'est grand, ils reculent instinctivement. 

Les auteurs dont parle Chelmimage tiennent compte de ce comportement connu de tout temps (et scientifiquement normalisé à la renaissance) et de la résolution angulaire de la vue humaine pour définir la limite net/flou.
Même des images à double lecture (qui ont une réelle force vues de très près et une autre vues de loin), il est difficile de faire regarder les gens.  Il faut le leur signaler ou ruser pour les faire approcher.
Exemple de photo à double lecture, et que tu connais pour le pratiquer : un portrait en fringues dont les étoffes sont esthétiquement riches en détails et en tons.

De toute façon, les images où il y a un flou intentionnel (souvent en portraits) dit à tord "artistique" il faut suivre les règles établies (voir les courbes de chelmimage) car c'est ainsi que l'image fonctionne quand les gens la découvrent.

Quand on veut se passer de flou, de toute façon, on est limité par la diffraction (cas des paysages avec avant-plan proche et arrière-plan à l'horizon).   Ou bien il faut avoir une chambre à bascule et décentrement.

Enfin, on peut faire des portraits sans flou d'arrière plan.  C'est ce qui se fait traditionnellement en studio, avec un arrière-plan uni.

Niveau photo BAC -1

Verso92

Citation de: dio le Février 27, 2019, 09:50:56
Les gens ne s'approchent pas.  Quand c'est grand, ils reculent instinctivement. 

Ben... les gens ne sont pas obéissants, alors !

;-)

esperado

Citation de: dio le Février 27, 2019, 09:50:56
Les gens ne s'approchent pas.  Quand c'est grand, ils reculent instinctivement.
Oui.

L'œil humain n'a qu'une zone nette (ou plutôt définie) réduite au centre. Instinctivement, on se met à la distance où toute la photo peut être perçue dans cette zone.
De plus, avec les procédés d'impressions pixélisés des affiches, regarder une de ces grandes images collé dessus ne permet souvent même pas d'en comprendre le contenu. ("Voir sous les jupes des filles", CF mon lien vers la magnifique chanson de Souchon).
Regarder une photo sur un téléviseur grand écran ? Là aussi, on se met à une distance telle qu'on n'en perçoive pas les pixels. Un écran 4K fait 4000 pixels de large.
Le capteur de mon A7 en fait 6000. Si l'on s'intéresse à la "parfaite netteté", il faudrait déjà appliquer un coefficient de  0.66 aux calculs de notre ami chelmimage et 0.56 pour un A7R..
Et je ne mentionne pas le flou introduit par le filtre anti aliasing qui se trouve devant le capteur de mon A7...

Bref, tout ceci me semble n'avoir qu'un lointain rapport avec la photographie et je me contente, au lieu de ces calculs, comme, je pense, la majorité d'entre nous, de juger des photos sur mon écran à distance "raisonnable", réservant la loupe 100% pour aider au travail en postproduction.

Quand aux courbes de MTF ... c'est comme la vitesse max de sa voiture dont n'importe quel gendarme vous expliquera l'utilité. Elles n'indiquent que peu de choses sur son rendu. Je préfère regarder des samples de plusieurs photo pour juger de la qualité d'un objectif d'une façon totalement subjective.