Des rumeurs!

Démarré par Sebmansoros, Février 26, 2020, 13:26:29

« précédent - suivant »

Verso92

Citation de: jeandemi le Mars 09, 2020, 22:57:00
Je me dis que, si l'illuminant a une dominante de couleur (exemple: un spot bleu pour un spectacle) qui sature complètement ou pas le canal couleur correspondant, et que les autres canaux couleur sont vides, le résolution du capteur est fatalement divisée, par 4 si c'est un illuminant rouge ou bleu, par 2 s'il est vert.

Configuration qu'on ne rencontrera pas dans la réalité, de toute façon...

jeandemi

 
Citation de: Verso92 le Mars 10, 2020, 10:30:01
Configuration qu'on ne rencontrera pas dans la réalité, de toute façon...
Très rarement en tout cas, mais ça peut arriver avec les éclairages de scènes

AlainNx

Citation de: jeandemi le Mars 10, 2020, 10:33:19
Très rarement en tout cas, mais ça peut arriver avec les éclairages de scènes

Les éclairages de scène sont rarement calés à 5000K ;-)
Au contraire, les rouges y sont envahissants, et pourrissent tout.

namzip

J'ai rencontré ce phénomène en concert avec un éclairage bleu. —-> images poubelle.  :(

AlainNx

Citation de: namzip le Mars 10, 2020, 10:45:44
J'ai rencontré ce phénomène en concert avec un éclairage bleu. —-> images poubelle.  :(

Moi itou, avec des éclairages rouges : poubelle direct, car intraitable sauf passage en N&B.

cagire

En photo de spectacle pour quelle raison tenez-vous à changer la couleur des éclairages ?

jeandemi

pour ça:

jeandemi

et ça:
(Tony "TC" Coleman, l'ex batteur de B.B. King, au Leica M240)

cagire

En raw, il est possible d'atténuer fortement ces taches inopportunes, me semble-t-il.

Verso92

Citation de: jeandemi le Mars 10, 2020, 20:29:50
pour ça:

En même temps, c'est plus ou moins la lumière qu'a voulu le chef éclairagiste...

kochka

Pour les faire ressembler à des martiens de série B?
Technophile Père Siffleur

jdm


Quand c'est bleu, c'est bleu !  ;D

dX-Man

AlainNx

Citation de: jdm le Mars 10, 2020, 22:44:15
Quand c'est bleu, c'est bleu !  ;D



Tiens ! des Schtroumpfettes !

jdm

dX-Man

egtegt²

Citation de: jenga le Mars 09, 2020, 10:02:28
[...]Si je comprends bien, tu te places dans un cas où l'image ne contient pas de variations rapides de couleur, ce qui permet de déduire certaines caractéristiques d'un pixel par continuité d'une composante (chrominance, par exemple) ?
Cette dépendance réduit encore le nombre de pixels indépendants dans l'image, par définition.

Et ce n'est pas une hypothèse réaliste. En regardant autour de moi, je vois à cet instant même un coin de bâtiment rouge/ocre sur fond de ciel bleu. Un carnet de couleur bleue sur fond de bureau couleur chêne. Un stylo vert sur ce même fond. Etc.
[...]

Non tu n'as pas compris ce que je voulais dire. Si je prends ton exemple un coin de bâtiment rouge sur fond de ciel bleu, ta photo n'est pas composée d'un assemblage de pixels aléatoirement rouges ou bleus (ce que j'appelle du bruit), elle est composée d'une plage de couleur globalement rouge et d'une plage de couleur globalement bleue. Pour les parties relativement uniformes, la résolution a peu d'importance, on a quelques variations de couleur mais l'œil est fait de telle façon qu'il ne détectera pas de variation légère entre deux pixels.
Ce qui est intéressant et qui va déterminer la définition du capteur, c'est la façon dont il va pouvoir rendre la transition entre le rouge et le bleu. Et dans ce cas, la luminance des photosites adjacents va permettre de faire une extrapolation bien plus fine que si on n'avait effectivement qu'un pixel par bloc de 4 photosites.

Cela dit, j'ai fait il y a longtemps l'essai de prendre une photo avec mon appareil exactement à 1/4 de la définition (en mpix soit la moitié en résolution), donc avec strictement 1 pixel pour 4 photosites, quand on zoome à 100%, la différence est notable.

Mais au bout du compte, comme l'a démontré seba, la photo à définition nominale reste plus détaillée que la photo au quart de la définition, et elle est sans commune mesure avec la photo prise au quart de la définition puis rééchantillonnée à la définition nominale.

Car c'est ce qui me dérange dans ton argumentaire : si j'ai bien compris, pour toi un appareil 36 Mpix ne propose en fin de compte que 9 vrais Mpix et le quadruplement de la définition n'apporte aucune information supplémentaire. Et pourtant tout démontre le contraire.

namzip

J'ai retrouvé une image avec un éclairage mono bien chiant pour un post traitement.
Là c'est à peu près rattrapable mais toutes celles sous les spots bleus c'est chaud.
Pour Hugues Aufrey la seule solution c'est de passer en BW.

seba

Citation de: namzip le Mars 11, 2020, 15:34:41
Pour Hugues Aufrey la seule solution c'est de passer en BW.

Qui est cet imposteur ?

Verso92

Citation de: egtegt² le Mars 11, 2020, 14:40:03
Car c'est ce qui me dérange dans ton argumentaire : si j'ai bien compris, pour toi un appareil 36 Mpix ne propose en fin de compte que 9 vrais Mpix et le quadruplement de la définition n'apporte aucune information supplémentaire. Et pourtant tout démontre le contraire.

De toute façon, les faits son têtus.


Déjà postés, les crops à 300% entre le D810 (36 MPixels Bayer) et le Sigma DP2m (15 MPixels Foveon) sur le même sujet :

Verso92

Citation de: Verso92 le Mars 11, 2020, 17:24:23
Déjà postés, les crops à 300% entre le D810 (36 MPixels Bayer) et le Sigma DP2m (15 MPixels Foveon) sur le même sujet :

Oups... chacun aura rectifié : crops à 1 600%, bien sûr.

Verso92

Une autre façon d'aborder la chose : avec IRIS* (image non dématricée).


1 - l'image entière (36 MPixels, donc), crop 100% (on arrive à distinguer la matrice),

2 - une seule composante (R, V, V ou B(?), 9 MPixels, donc), crop 100% également.



*j'ai fortement éclairci l'image, pour plus de lisibilité.

jenga

Citation de: egtegt² le Mars 11, 2020, 14:40:03
Ce qui est intéressant et qui va déterminer la définition du capteur, c'est la façon dont il va pouvoir rendre la transition entre le rouge et le bleu. Et dans ce cas, la luminance des photosites adjacents va permettre de faire une extrapolation bien plus fine que si on n'avait effectivement qu'un pixel par bloc de 4 photosites.
Ce terme ne désigne pas un attribut existant. Un photosite ne donne pas d'information de luminance. Connaître la luminance nécessite de connaître les intensités des 3 couleurs. 

Pour un même site bleu illuminé à 10%, la luminance de l'image réelle en ce point peut varier de 1% à 90%, comme je l'ai montré plus haut dans ce fil.

Je sais bien que le noyau d'interpolation de certains dématriceurs néglige cette réalité, en mixant des sites de couleurs différentes. C'est pour cela qu'ils produisent des résultats faux lorsque l'image contient des fréquences proches de celle de Nyquist.

jenga

Citation de: egtegt² le Mars 11, 2020, 14:40:03
Car c'est ce qui me dérange dans ton argumentaire : si j'ai bien compris, pour toi un appareil 36 Mpix ne propose en fin de compte que 9 vrais Mpix et le quadruplement de la définition n'apporte aucune information supplémentaire. Et pourtant tout démontre le contraire.

Un capteur (couleur) de 36 Msites délivre... 36 M informations indépendantes, d'une seule couleur chacune. Indépendantes signifie qu'il n'est pas possible de déduire l'une des autres.

Pour avoir 36 M pixels couleur indépendants, il faut 3x36 M informations indépendantes.

Comme on ne peut pas déduire 3x36M infos indépendantes de seulement 36M, un capteur de 36M sites ne peut pas fournir 36 Mpx indépendants.

Citation de: egtegt² le Mars 11, 2020, 14:40:03
Et pourtant tout démontre le contraire.
Pas le traitement du signal, en tout cas, ni l'analyse des quantités d'information.

Ni l'expérimentation sur cible connue dans des conditions maîtrisées (fournir une image sans connaître la scène réelle ne permet pas de savoir si on a reproduit cette dernière).

Rappel:
-le D850 moire sur des cibles de fréquence nettement inférieure à la moitié de sa densité de "pixels" (DP Review)

-idem pour les capteurs 24 "Mpixels" dont les tests DP Review ont été postés dans ce fil.

Ces résultats sont inexplicables... sauf si on admet que le nombre de pixels indépendants n'est pas égal au nombre de sites monochromes, auquel cas tout rentre dans l'ordre.  :)

jdm


Et la terre, elle est plate...?  :)
dX-Man

Verso92

Citation de: jenga le Mars 11, 2020, 22:34:29
Un capteur (couleur) de 36 Msites délivre... 36 M informations indépendantes, d'une seule couleur chacune. Indépendantes signifie qu'il n'est pas possible de déduire l'une des autres.

Pour avoir 36 M pixels couleur indépendants, il faut 3x36 M informations indépendantes.

Comme on ne peut pas déduire 3x36M infos indépendantes de seulement 36M, un capteur de 36M sites ne peut pas fournir 36 Mpx indépendants.
Pas le traitement du signal, en tout cas, ni l'analyse des quantités d'information.

Ni l'expérimentation sur cible connue dans des conditions maîtrisées (fournir une image sans connaître la scène réelle ne permet pas de savoir si on a reproduit cette dernière).

Rappel:
-le D850 moire sur des cibles de fréquence nettement inférieure à la moitié de sa densité de "pixels" (DP Review)

-idem pour les capteurs 24 "Mpixels" dont les tests DP Review ont été postés dans ce fil.

Ces résultats sont inexplicables... sauf si on admet que le nombre de pixels indépendants n'est pas égal au nombre de sites monochromes, auquel cas tout rentre dans l'ordre.  :)

Il n'y a pas plus sourd etc...

seba

Jenga, tu es quand même d'accord pour dire que l'image de 36 MP dématricée est bien meilleure que l'image du Foveon de 15 MP ?