Pixii, un télémétrique français "radical et contemporain" en monture Leica M

Démarré par Mistral75, Septembre 30, 2018, 13:16:24

« précédent - suivant »

Mistral75

Citation de: Fred_G le Juin 05, 2025, 11:28:54Le capteur choisi pour être installé dans le tout premier Pixii était indigne d'un boitier annoncé comme devant concurrencer Leica.
(...)

C'était un capteur à vocation industrielle ("machine vision") disponible sur étagère, le capteur ams CMV12000 (ratio 4:3, 28,2 mm de diagonale et 12 Mpixels, recadré en 3:2 donc 11,1 Mpixels résiduels et un coefficient de recadrage de 1,6), choisi pour son obturateur global (Pixii est trop petit pour intéresser un des rares concepteurs et fabricants d'obturateurs plan focaux) mais dont les filtres RVB n'avaient pas pour vocation première la précision et la fidélité colorimétriques (en vision artificielle, l'important est de bien distinguer les couleurs, pas de les rendre fidèlement).

Suivant en cela le précédent des Sigma fp et fpL, les générations suivantes du Pixii ont adopté un capteur CMOS à balayage lent, Sony IMX571 (APS-C) puis Sony IMX410 (24x36), tout en continuant à se passer d'obturateur mécanique. Et au diable le rolling shutter et la synchro flash au 1/15e de seconde.

Nikojorj

Citation de: Mistral75 le Juin 05, 2025, 12:50:42ratio 4:3, 28,2 mm de diagonale et 12 Mpixels, recadré en 3:2
Ah les fourbes, ils ont pris un capteur avec le bon format d'image et ils l'ont recadré!  ;D

alain21bfr

Bon, OK, personne ne conteste et surtout pas moi ... mais c'est du passé ! Au passage, je vous ferai remarquer que même cette ratée initiale pouvait / peut encore être améliorée, mise à jour, y compris passée en plein format et identique à la dernière production .... peu de constructeurs peuvent s'en vanter.

Alain

Komm

Je pense que Pixii est un tout petit peu en avance : on peut penser que dans un futur relativement proche, l'obturateur mécanique sera du passé. En ce sens, leur plateforme est juste en avance de quelques années, le temps que Sony Semi Conductors propose au grand public un capteur empilé ou à obturateur global.

Rami

J'ai (re)regardé Pixii qui a fait l'objet de quelques articles ces derniers temps (Phototrend, lesNumériques, RéponsePhoto...)
J'ai souri sur l'argument qu'il était deux fois moins cher qu'un M11. Pour moi, il faut le comparer à un M10 qui a la même résolution et là on retombe dans les prix des M10 d'occasion, avec peut-être une meilleure valeur à la revente.
J'avoue être peu sensible au côté made in France, mais être rebuté par l'absence d'écran arrière, l'écran arrière étant remplacé par le smartphone dans la poche arrière de votre jean. Moins ergonomique dois-je avouer en plus que je sais très bien vivre sans smartphone ?)  ;)

Le seul plus possible (AMHA), c'est le N&B natif sur un capteur couleur, mais je n'ai pas très bien compris comment cela fonctionne.
Mais je préfèrerai pouvoir faire moi-même la même manip en développant le RAW, avant le dématricage, pour pouvoir jouer sur la sensibilité aux différents canaux.
Nikonairien (ou presque)

Mistral75

Citation de: Rami le Juin 06, 2025, 11:17:35(...)

Le seul plus possible (AMHA), c'est le N&B natif sur un capteur couleur, mais je n'ai pas très bien compris comment cela fonctionne.
(...)

Pour un N&B fidèle malgré un capteur muni d'une matrice de Bayer, il faut reconstituer précisément la luminance de la scène photographiée au niveau de chaque pixel. Celle enregistrée par le capteur est affectée par le filtre coloré placé devant la photodiode (dont l'appareil sait s'il est R, V ou B et connaît les propriétés de transmission en fonction de la longueur d'onde).

L'algorithme estime la chrominance pixel par pixel (en fonction de la luminance des pixels adjacents, mesurée après filtrage, et de la couleur des filtres placés devant ces pixels, en faisant l'hypothèse qu'il n'y a pas de variation brutale de chromie pré-filtrage entre un pixel et les pixels adjacents ; c'est un processus analogue à une dérawtisation), en déduit la transmittance du filtre pour ce pixel et cette longueur d'onde estimée et, à partir de là, calcule la luminance pré-filtrage.

Rami

J'aurai pensé que la transmittance du filtre (on parle bien du Bayer ?) était une donnée de l'algorithme.
Pixii n'est pas très explicite (ou moi pas assez malin pour comprendre)
Nikonairien (ou presque)

Mistral75

Citation de: Rami le Juin 06, 2025, 14:47:32J'aurai pensé que la transmittance du filtre (on parle bien du Bayer ?) était une donnée de l'algorithme.
(...)

Je n'ai pas écrit autre chose :

Citation de: Mistral75 le Juin 06, 2025, 12:07:10(...) le filtre coloré placé devant la photodiode (dont l'appareil sait s'il est R, V ou B et connaît les propriétés de transmission en fonction de la longueur d'onde).

(...)

Mais ça ne suffit pas pour déterminer la luminance du point correspondant de la scène (pré-filtrage). Par exemple, une même faible intensité lumineuse reçue par une photodiode placée derrière un filtre rouge peut notamment correspondre à une faible lumière orange (peu atténuée par le filtre) ou à une forte lumière verte (fortement atténuée par le filtre). En N&B, la première devra être rendue par un gris moyen à foncé et la seconde par un gris clair.

Autrement dit, bien qu'il connaisse la courbe de transmission de chacun des trois filtres R, V et B et qu'il sache lequel des trois filtres est placé devant une photodiode donnée, l'algorithme doit en plus déterminer, ou plutôt estimer, la chromie de l'éclairant qui est "vu" par cette photodiode.

C'est ce qu'il fait en "regardant autour". Dans mon exemple, si les photodiodes de proximité, placées derrière un filtre vert, reçoivent très peu de lumière et celles derrière un filtre bleu quasiment aucune, alors l'algorithme estimera qu'il s'agit d'une "faible lumière orange". Si les photodiodes placées derrière un filtre vert reçoivent beaucoup de lumière et celles derrière un filtre bleu assez peu, alors il estimera qu'il s'agit d'une "forte lumière verte".

Je simplifie, bien sûr, car la lumière visible est faite d'un continuum de fréquences, ce qui nécessite des comparaisons plus nombreuses et plus fines pour estimer celle de l'éclairant vu par une photodiode donnée.

De surcroît, l'hypothèse selon laquelle la chromie et la luminance ne varient que très peu entre l'éclairant d'une photodiode et ceux des photodiodes adjacentes n'est pas toujours vérifiée (lorsqu'on passe d'un objet de la scène à un autre, mais pas seulement), ce qui nécessite de raffiner les calculs pour éviter les artefacts.

Nikojorj

Donc, en gros et en une phrase, ils dématricent et ils passent en N&B, comme on le ferait sur son ordi.

Mistral75

Ce n'est pas tout-à-fait le même algorithme : compte tenu des courbes de transmission des filtres, point n'est besoin d'une estimation fine de la chromie de l'illuminant, la transmittance du filtre ne variant que peu sur une bande donnée de fréquences.

A l'inverse, un rendu fidèle des couleurs (indispensable car le cerveau, par son éducation aux couleurs, est très sensible aux erreurs en la matière, cf. par exemple le rendu des peaux) nécessite une estimation très précise de cette chromie.

Il faudrait rentrer dans le détail de ce type d'algorithme mais disons simplement qu'une incertitude résiduelle, inévitable, est distribuée entre chromie et luminance. Plus on cherche à être précis sur la chromie, moins on pourra l'être sur la luminance.

Passer en noir et blanc un dématriçage en couleurs est sous-optimal car on commence par accepter un certain niveau d'incertitude sur la luminance, au bénéfice de la chromie, pour ensuite totalement oublier cette dernière.

Si, dès le départ, on ne s'intéresse qu'à la luminance, on peut accepter une incertitude plus élevée sur la chromie, au bénéfice d'une incertitude réduite sur la luminance et, in fine, d'un résultat plus précis.

Nikojorj

On oublie totalement la chromie... sauf si on fait un filtrage logiciel. D'ailleurs, est-ce possible dans le Pixii?

Après, oui, il doit y avoir moyen d'optimiser le dématriçage si on sait qu'on va passer en N&B juste derrière.

Rami

Merci pour ses explications claires (et beaucoup plus claires pour moi que sur le site de Pixii).
Est-ce que ce genre de conversion N&B existe aussi dans des logiciels de traitement des RAW ?
Nikonairien (ou presque)


Mistral75

Citation de: Rami le Juin 06, 2025, 17:50:16(...)
Est-ce que ce genre de conversion N&B existe aussi dans des logiciels de traitement des RAW ?

Oui et non. Les logiciels de traitement des RAW (logiciels de développement) travaillent en deux étapes :

  • Ils procèdent à un "dématriçage", c'est-à-dire au remplacement d'une matrice fournie par le boîtier, dans laquelle une couleur de filtre et une intensité lumineuse mesurée par la photodiode (donc post-filtre) sont fournies pour chaque pixel du capteur, par une matrice de mêmes dimensions dans laquelle une information de luminance et une information de chrominance calculées sont fournies pour chaque zone de la scène photographiée correspondant à un pixel du capteur (donc pré-filtre).
       
  • Ensuite ils procèdent, avec intervention possible de l'utilisateur à chaque étape, à diverses corrections, notamment du bruit numérique et des défauts de l'objectif utilisé (distorsion, vignetage, aberrations chromatiques ; accentuation périphérique différenciée pour pallier certains manques de piqué), et appliquent, toujours avec intervention possible de l'utilisateur, différents réglages : courbe en S, teinte, saturation, luminosité, contraste, éventuels presets ou simulations de films argentiques, etc.

Mais la première étape est toujours mise en œuvre de la même façon, quel que soit le traitement envisagé. Par exemple il n'y a pas de "dématriçage de type A" avec priorité à la fidélité de l'information de chrominance pour des images destinées à être en couleurs et de "dématriçage de type B" avec priorité à la fidélité de l'information de luminance pour des images destinées à être en noir et blanc.

C'est cette dualité qui constitue l'originalité de la démarche de Pixii. L'appareil va fournir :

  • soit une matrice "brute de capteur" (couleur de filtre et luminance post-filtre pour chaque pixel du capteur), encapsulée dans un conteneur DNG, que l'utilisateur va traiter dans son logiciel de développement favori, lequel procédera successivement (i) au dématriçage et (ii) aux diverses corrections et aux différents réglages,
       
  • soit une matrice contenant uniquement des informations de luminance pré-filtres calculées par le boîtier (avec priorité à la fidélité de ces informations de luminance), c'est-à-dire un fichier de type bitmap (TIFF), également encapsulé dans un conteneur DNG, que l'utilisateur pourra également traiter dans son logiciel de développement favori mais le traitement correspondant commencera directement à l'étape 2 décrite ci-dessus.

Benaparis

En complément des explications très précises et techniques de Mistral, pour avoir eu grâce à un aimable membre des DNG monochromes du Pixii, sur le plan pratique ces fichiers se comportent au développement exactement de la même manière que des DNG issus de capteurs monochromes puisqu'en effet ils ne comportent aucunes informations couleurs et uniquement des informations de luminance.

Autrement dit il n'y a plus de problèmes d'artefacts liés à une filtration trop forte (a fortiori dans Lr qui est plus sensible sur ce point que C1), au bruit de chrominance (on peut aller chercher loin dans les ombres avec moutonnement lié au bruit de chrominance bien mieux maitrisé même si pas aussi bon qu'un pure fichier monochrome) ou encore à des aplats avec des saturations trop forte puisque les infos couleurs demeurent même si il y a un filtrage N&B logiciel ; bref les fichiers monochromes sont beaucoup plus robustes au développement que leur équivalent couleur qu'ils soient issus d'un capteur monochrome ou de la technique Pixii.

Ceci étant posé, les capteurs monochromes gardent leur avantage en restitution des détails (gain 30/35% supplémentaire à un capteur couleur de même définition) et bien évidemment sont très sensiblement plus performant en haute sensibilité même si comme évoqué précédemment les fichiers monochromes du Pixii restent meilleurs qu'en version couleur sur ce point quand on passe au développement.

De mon point de vue c'est donc une solution très interessante qui permet de travailler comme avec un boitier a capteur monochrome et d'en avoir le "goût" même si on en a logiquement pas toute les qualités.
Instagram : benjaminddb

Dominique

Juste un mot: la capteur SONY du pixii actuel n'est pas fourni directement par SONY, pour cause de quantités commandées insuffisantes),  mais par un industriel (inconnu ?) qui achète ce capteur et qui le revend à Pixii.Source : l'article du dernier n° de RP. A mon avis:c'est une source de fragilité pour Pixii qui n'a pas la maîtrise de son appro
Let's go !

Mistral75

Le Sony IMX410 du Pixii Max est un capteur sur étagère. Si Sony refuse de le vendre en petites quantités, de nombreux brokers se feront un plaisir de le vendre en demi-gros ou au détail. Si Pixii se le procure auprès d'un industriel ami et pas d'un broker, c'est pour bénéficier des conditions d'achat de ce dernier.

Verso92

Citation de: Mistral75 le Juin 09, 2025, 18:50:54Si Pixii se le procure auprès d'un industriel ami et pas d'un broker, c'est pour bénéficier des conditions d'achat de ce dernier.

C'est évident.


(et puis, les achats chez les brokers ne sont pas sans risques...)