D800 / D800E - Différences... [Fils regroupés]

Démarré par visagepale, Février 04, 2012, 03:33:17

« précédent - suivant »

Del-Uks


Del-Uks

Citation de: alain2x le Février 04, 2012, 17:56:38Capture NX2, si jamais je traite des fichiers de 36 Mpix, parce que vu la vitesse à laquelle il fait ceux de D700, on peut craindre le pire.

Aperture, Lightroom, DxO, etc.

jmporcher

2 ou trois précisions. En audio, comme on devrait le faire en image, on parle plus souvent du théorème de Nyquist, qui fut le premier à publier cette règle d'un échantillonnage au moins deux fois égal à la fréquence à reproduire. D'une manière générale, on parle du théorème de Nyquist-Channon, pour ne pas faire de jaloux (Channon a repris les résultats de Nyquist pour bâtir une théorie générale de l'information automatique). Cette règle est en effet une conséquence, non pas de la numérisation en tant que telle, mais de l'échantillonnage. Au lieu de prendre un signal analogique (c'est à dire analogue au son ou à l'image à reproduire), on n'en prend que des fragments, à partir desquels on reconstituera l'image ou le son capté (l'oeil ou l'oreille étant, dans une première approche, des capteurs analogiques). Il est d'ailleurs assez facile d'en imaginer, au moins pour le son, une approche intuitive:Une fréquence est une variation de la pression de l'air en forme de sinusoïde. En numérique, on prend des instants où l'on mesure la pression (en fait le niveau électrique fournit par le micro). On donne un numéro (binaire) à chaque niveau relevé. A la lecture, on va construire une courbe de niveau reliant les points de mesure relevés. Si on ne prend pas suffisamment de points de mesure, on va "rater" une sinusoïde, ou plus, et donc on ne reproduira pas les fréquences les plus aigues. Pire : on va reproduire, en plus grave, les fréquences "mal lues" par l'échantillonnage. C'est le phénomène de repli. Et c'est le fameux moirage en photo.

jmporcher

En audio, au début du CD, pour éviter le repli, on mettait en sortie un filtre qui coupait toute fréquence supérieure à la moitié de fréquence d'échantillonnage. Application logique et brutale du théorème de Nyquist. Mais résultat très médiocre, à cause de l'imperfection de ce type de filtre. Il fallait qu'il coupe les aigues avec une pente très raide, de l'ordre de 32 dB /octave au minimum, ce qui introduisait des phénomènes de rotation de phase et d'harmoniques impaires dans les fréquences audibles. Autrement dit un son très dur, cassant, tirant sur l'aigu précis mais acide (souvenez-vous, pour les vieux :D, des premiers lecteurs CD). Puis on a imaginé un truc, une astuce purement mathématique mais géniale: le suréchantillonnage. Si, au lieu de lire une fois chaque échantillon, c'est à dire chaque point de niveau relevé à la captation, on le lisait quatre fois, par exemple, on avait, du coup, une fréquence d'échantillonnage 4 fois plus élevée. Du coup, on pouvait utiliser un filtre passe bas avec une  pente beaucoup moins raide, puisque qu'il ne devait couper les fréquence qu'à partir de 88 kHz... De nos jours, on suréchantillonne couramment 32 fois, et on ne mets plus de filtre passe bas, la fréquence "de repli" étant suffisamment haute pour que la chaine audio (ampli) ne puisse pas la reproduire...
Je rebois un coup ;D

Bernard2

Citation de: jmporcher le Février 04, 2012, 18:10:01
2 ou trois précisions. En audio, comme on devrait le faire en image, on parle plus souvent du théorème de Nyquist, qui fut le premier à publier cette règle d'un échantillonnage au moins deux fois égal à la fréquence à reproduire. D'une manière générale, on parle du théorème de Nyquist-Channon, pour ne pas faire de jaloux (Channon a repris les résultats de Nyquist pour bâtir une théorie générale de l'information automatique). Cette règle est en effet une conséquence, non pas de la numérisation en tant que telle, mais de l'échantillonnage. Au lieu de prendre un signal analogique (c'est à dire analogue au son ou à l'image à reproduire), on n'en prend que des fragments, à partir desquels on reconstituera l'image ou le son capté (l'oeil ou l'oreille étant, dans une première approche, des capteurs analogiques). Il est d'ailleurs assez facile d'en imaginer, au moins pour le son, une approche intuitive:Une fréquence est une variation de la pression de l'air en forme de sinusoïde. En numérique, on prend des instants où l'on mesure la pression (en fait le niveau électrique fournit par le micro). On donne un numéro (binaire) à chaque niveau relevé. A la lecture, on va construire une courbe de niveau reliant les points de mesure relevés. Si on ne prend pas suffisamment de points de mesure, on va "rater" une sinusoïde, ou plus, et donc on ne reproduira pas les fréquences les plus aigues. Pire : on va reproduire, en plus grave, les fréquences "mal lues" par l'échantillonnage. C'est le phénomène de repli. Et c'est le fameux moirage en photo.

Mais dans le domaine de l'image il y a un phénomène parallèle si je puis dire mais qui a une origine différente mais le même remède (le filtre AA) en effet un détail de la taille d'un pixel peut être focalisé uniquement sur un pixel vert ou rouge ou bleu alors qu'il est blanc. Si c'est un cheveu selon son orientation il peut passer successivement sur des pixels dotés de filtres différents et devenir multicolore. C'est un effet qui se rapproche du moiré couleur et qui aussi est corrigé par le passe bas qui étale les information sur un quadruplet de photosites

jmporcher

Et c'est toue l'astuce, en photo,finalement assez similaire, de la "matrice Fuji" (qui a peut-être un autre nom) implantée dans le Pro X 1. En distribuant différemment les couleurs, on peut échapper au repli occasionné par la matrice de Bayer. Ou disons ramener vers des fréquences plus hautes (donc des détails plus petits) les phénomènes sensibles à l'aliasing. Suffisamment petits pour être invisible à la définition des optiques. enfin, dans la plupart des cas. Ce qui est sûr, c'est que plus la surface des photosites (qui est l'inverse de la fréquence  d'échantillonnage en photo) est petite, plus on peut capter de fin détails sans risque de moirage. Donc, le filtre à poser peut être "moins flouteur" que celui du D700, par ex. Mais, selon la répartition des couleurs, on peut sans doute s'en passer complètement. Et là, je ne connais pas les choix de Nikon: Bayer or not Bayer..?

iceman93

hybride ma créativité

canardon7

Citation de: jmporcher le Février 04, 2012, 18:34:04
Et c'est toue l'astuce, en photo,finalement assez similaire, de la "matrice Fuji" (qui a peut-être un autre nom) implantée dans le Pro X 1. En distribuant différemment les couleurs, on peut échapper au repli occasionné par la matrice de Bayer. Ou disons ramener vers des fréquences plus hautes (donc des détails plus petits) les phénomènes sensibles à l'aliasing. Suffisamment petits pour être invisible à la définition des optiques. enfin, dans la plupart des cas. Ce qui est sûr, c'est que plus la surface des photosites (qui est l'inverse de la fréquence  d'échantillonnage en photo) est petite, plus on peut capter de fin détails sans risque de moirage. Donc, le filtre à poser peut être "moins flouteur" que celui du D700, par ex. Mais, selon la répartition des couleurs, on peut sans doute s'en passer complètement. Et là, je ne connais pas les choix de Nikon: Bayer or not Bayer..?
très interessant et très juste. Le jour où les présentateurs TV auront des chemises pleines de détails et bariolées on aura vraiment fait des progrès!

Bernard2

#58
Citation de: jmporcher le Février 04, 2012, 18:34:04
Et c'est toue l'astuce, en photo,finalement assez similaire, de la "matrice Fuji" (qui a peut-être un autre nom) implantée dans le Pro X 1. En distribuant différemment les couleurs, on peut échapper au repli occasionné par la matrice de Bayer. Ou disons ramener vers des fréquences plus hautes (donc des détails plus petits) les phénomènes sensibles à l'aliasing. Suffisamment petits pour être invisible à la définition des optiques. enfin, dans la plupart des cas. Ce qui est sûr, c'est que plus la surface des photosites (qui est l'inverse de la fréquence  d'échantillonnage en photo) est petite, plus on peut capter de fin détails sans risque de moirage. Donc, le filtre à poser peut être "moins flouteur" que celui du D700, par ex. Mais, selon la répartition des couleurs, on peut sans doute s'en passer complètement. Et là, je ne connais pas les choix de Nikon: Bayer or not Bayer..?
Bayer jusqu'à ce jour.
Mais effectivement c'est pour cela que Nikon propose maintenant l'option sans filtre Passe bas parcequ'ils savent qu'à ce niveau de densité le risque n'est plus très important même s'il existe encore.
C'est une des raisons qui pousse les fabricants à monter en densité car on limite ces problèmes et on augmente la résolution en couleur pour se rapprocher du fovéon qui perd de son intérêt par là même.

Del-Uks

Citation de: alain2x le Février 04, 2012, 18:07:59Aperture, pourquoi pas, surtout sur un Mac, mais pas convaincu par le premier.

J'ai également dû attendre la version 3 de Aperture pour être satisfait (il ne lui manque plus que la correction de la distorsion), mais avec les plugs de Nik Software (merci la technologie U-point !), le workflow est à la fois complet et rapide.

Je ne me fais aucun souci avec les futurs fichiers RAW à ~80Mo du D800.

jdm

Citation de: alain2x le Février 04, 2012, 18:07:59
Je cherche des logiciels qui traitent les Nefs, pas des bidules qui créent des fichiers à part, qui ne marchent qu'avec leur bibliothèque, leur classement.

Je cherche un logiciel, pas une usine à gaz, et après essais et beaucoup de sous gaspillés, DXO et Lightroom, c'est niet.

Aperture, pourquoi pas, surtout sur un Mac, mais pas convaincu par le premier.

Au plus basique, as-tu essayé Camera Raw?  (Voir même celui de PSE car en plus tu joins l'efficacité à l'économie)  
dX-Man

jdm

Citation de: Del-Uks le Février 04, 2012, 18:47:35
.....
Je ne me fais aucun souci avec les futurs fichiers RAW à ~80Mo du D800.

80 Mo  :o  Tu es sûr?
dX-Man

Del-Uks

Citation de: jdm le Février 04, 2012, 18:53:38
80 Mo  :o  Tu es sûr?

En me basant sur le poids des NEF 14bit du D3x... à peu de chose près... oui.

bitere

Moi ce sera sans filtre comme mes gitanes.
Enfin, les gitanes, ça fait 30 ans que j'ai arrêté.
Et le D800 sera pour plus tard  ;D
Sauf imprévu...

Tonton-Bruno

Mes fichiers RAW de D3 en 14 bits compressé sans perte font entre 12,5 et 25 MO, selon les sujets.

Les fichiers de D800 devraient faire entre 35 et 75 MO.

Disons qu'aujourd'hui on peut considérer que les fichiers RAW des D3, D3s, D700 pèsent dans les 20 MO, et que les fichiers du D800 pèseront dans les 60 MO.

Jpa244

Citation de: alain2x le Février 04, 2012, 17:19:56
C'est vraiment un super-forum, ici !

On y apprend que les usines de Nikon sont robotisées comme les usines d'automobiles, et qu'un Mac peut changer de processeur aussi vite et aussi facilement qu'un PC.

Des vérités comme ça, faudra bien un week-end entier pour les digérer  ;D ;D ;D ;D ;D

Ben moi je vais acheter un Mac sans filtre, c´est plus cher mais fichtre... :o

zuyd

jmporcher,
il n'y a aucun sur-échantillonnage dans la matrice fuji X1, c'est une matrice dotée d'une distribution couleur rvb particulière, parmi d'autres.
Le nombre d'échantillons total est commun à tous les capteurs sony, ici 16mpix.
Un moirage perçu avec une matrice de bayer sera perçu un peu différemment, mais ne sera jamais masqué.
Cette matrice particulière semble plus avoir une cause marketing que scientifique: Fuji modifie une base sony en effaçant la marque et appose la sienne dans une boîte différente, comme souvent des marques l'ont fait en audio (qq français sont spécialistes).
Bien sûr ça évite de réinventer la poudre, de bâtir un capteur identique ou presque, en perdant de l'argent dans un cycle de conception.
Pour le D800: la comparaison entre versions se fera sur des bas résille et costumes prince de galles.

paranthropus

Citation de: alain2x le Février 04, 2012, 17:19:56
C'est vraiment un super-forum, ici !

On y apprend que les usines de Nikon sont robotisées comme les usines d'automobiles, et qu'un Mac peut changer de processeur aussi vite et aussi facilement qu'un PC.

Des vérités comme ça, faudra bien un week-end entier pour les digérer  ;D ;D ;D ;D ;D
On peut comparer un appareil photo à un compteur de voiture au niveau industriel, sujet que je connais bien.
Il y a souvent une quantité importante de variantes pour un même véhicule sur une base équivalente. La gestion en ligne de production permet sans problème de réaliser, y compris en flux tendu en rapport avec le véhicule tel qu'il sera positionné dans la ligne d'assemblage, la bonne référence avec le bon logiciel. Pour Nikon qui pourra travailler en batch, je ne vois pas pourquoi il ne pourra pas le faire aussi en ligne sans avoir besoin de faire une reprise ensuite.
Bien sur, pour ne pas impacter la grande série par les coûts occasionnés par la gestion, les investissements et les études spécifiques à la petite série, ceux-ci sont amortis sur cette petite série d'où le surcoût même si c'est moins cher à fabriquer. C'est ce qui se passe dans l'automobile, c'est une question de compétitivité.
JP
Jean-Paul

patrice

Citation de: jmporcher le Février 04, 2012, 18:10:01
on parle plus souvent du théorème de Nyquist,

voilà tu l'a dit avant moi  ;)


Del-Uks

Citation de: LucienBalme le Février 04, 2012, 19:12:50
Mes fichiers RAW de D3 en 14 bits compressé sans perte font entre 12,5 et 25 MO, selon les sujets.

Les fichiers de D800 devraient faire entre 35 et 75 MO.

Disons qu'aujourd'hui on peut considérer que les fichiers RAW des D3, D3s, D700 pèsent dans les 20 MO, et que les fichiers du D800 pèseront dans les 60 MO.

Sauf que du coup, on aura peut-être envie de passer au 16 bit avec l' EXPEED 3.

cassyves

Aux dernières nouvelles : codage sur 14b pour le D800/D800E

http://nikonrumors.com/

Del-Uks


Verso92

#72
Citation de: jmporcher le Février 04, 2012, 18:10:01
2 ou trois précisions. En audio, comme on devrait le faire en image, on parle plus souvent du théorème de Nyquist, qui fut le premier à publier cette règle d'un échantillonnage au moins deux fois égal à la fréquence à reproduire. D'une manière générale, on parle du théorème de Nyquist-Channon, pour ne pas faire de jaloux (Channon a repris les résultats de Nyquist pour bâtir une théorie générale de l'information automatique).

Jamais entendu parler de Channon, pour ma part...
Citation de: jmporcher le Février 04, 2012, 18:34:04
Et c'est toue l'astuce, en photo,finalement assez similaire, de la "matrice Fuji" (qui a peut-être un autre nom) implantée dans le Pro X 1. En distribuant différemment les couleurs, on peut échapper au repli occasionné par la matrice de Bayer.

Non.
(ce n'est pas la matrice de Bayer qui est la cause du repliement... un capteur N&B sans matrice serait soumis aux mêmes contraintes, bien évidemment : voir mon schéma plus haut dans ce fil)
Citation de: zuyd le Février 04, 2012, 19:29:18
jmporcher,
il n'y a aucun sur-échantillonnage dans la matrice fuji X1, c'est une matrice dotée d'une distribution couleur rvb particulière, parmi d'autres.
Le nombre d'échantillons total est commun à tous les capteurs sony, ici 16mpix.
Un moirage perçu avec une matrice de bayer sera perçu un peu différemment, mais ne sera jamais masqué.

Tout à fait.

Nioky

Si je résume bien, il faut se poser la question suivante, est-ce que le D800 à besoin d'un filtre AA ou pas. Ou bien l'AA sur un D800 sera-t-il trop fort (flou) ou trop faible (risque de moiré), bref où en est la technologie du AA sur boitier de nos jours ?

Seul des tests d'un D800 sans AA permettront de répondre à la question donc ?

Verso92

Citation de: ripley350z le Février 04, 2012, 22:59:58
Si je résume bien, il faut se poser la question suivante, est-ce que le D800 à besoin d'un filtre AA ou pas. Ou bien l'AA sur un D800 sera-t-il trop fort (flou) ou trop faible (risque de moiré), bref où en est la technologie du AA sur boitier de nos jours ?

Seul des tests d'un D800 sans AA permettront de répondre à la question donc ?

Une chose est sûre : plus la densité de pixels est élevée, moins le filtre AA est intrusif ("flouteur")...