Pentax K-3 II

Démarré par Mistral75, Avril 21, 2015, 16:38:39

« précédent - suivant »

Mistral75


almat

Citation
BON ANNIVERSAIRE A NOTRE AMI MISTRAL ! ! ! ! ! !

Encore un gamin l'ami Mistral ;) ;) ;)

Couscousdelight

Bon anniversaire Mistral  :)

Mistral75


vob

+1
(pas de moi le photo  ;) )
Ritax et Pencoh(pleins)

Mistral75


Diapoo®

The last but not the least : bon anniversaire et longue vie cher Mistral ! 8)
Nage au clair de lune avec ...

sebs

L'important c'est le mistral gagnant
https://www.youtube.com/watch?v=ZQ7FADJ5lo0
Et comment ne pas l'être avec le K3 II!  ;D

K10etNEX5

Quand est ce qu'il sera en vente dans les boutiques parisiennes ???

clover


Couscousdelight

La "super-résolution" en action, site traduit automatiquement du japonais.

clodomir

Citation de: clover le Mai 17, 2015, 15:38:09
A partir du 22 mai sur le site europe

http://shop-fr.ricoh-imaging.eu/reflex-pentax-k-3-ii.html
desole , je ne trouve pas ...
or , c'etait hier ...
peux-tu m'aider stp ? merciiiii ! ...
8)

clover

Ah tiens, ils ont retiré la mention...

Sinon, surveille ici ou appelle les

http://www.laboutiquepentax.com/fr/65-k-3-ii

icono

Citation de: Couscousdelight le Mai 23, 2015, 08:19:52
La "super-résolution" en action, site traduit automatiquement du japonais.
enfin je vais avoir des oiseaux en vol "super nets"

Nival

Citation de: Couscousdelight le Mai 23, 2015, 08:19:52
La "super-résolution" en action, site traduit automatiquement du japonais.

Impressionnant! :o



Mais nécessite naturellement un sujet parfaitement immobile.
La technologie pourra sans doute dans le futur, avec une bonne dose de maturité, être utilisée de façon "continue" lors d'une prise de vue unique, ce qui pourrait généraliser cette technique à des prises de vue "tout venant" (restera des limites de temps de pose minimum pour permettre le décalage du capteur sur la bonne distance, et cela introduira sans doute d'autres type d'artefacts sur les sujets en mouvements, mais sans doute plus naturels que l'effet "grille" de l'implémentation actuelle). On verra ce que les prochaines années (décennies?) nous apporteront, mais je trouve en tout cas l'idée prometteuse!

sebs

Je me demande si cette technologie, couplée à un objectif de course, permet d'égaler la définition d'un moyen-format, ce qui aurait l'avantage côté compacité.
Pour du studio, normalement le sujet ne bouge pas trop  ;D

Nival

Citation de: sebs le Mai 27, 2015, 16:21:56
Je me demande si cette technologie, couplée à un objectif de course, permet d'égaler la définition d'un moyen-format

Vus les exemples du lien donné par Couscousdelight (décidément toujours prompt à dénicher des infos de première qualité! ;)), j'ai envie de dire "largement"! (bon, en exagérant quand même un peu parce qu'on est pas pour autant à 50MP, et qu'on aura pas les mêmes possibilités en terme de profondeur de champ...)
Et effectivement cette fonctionnalité semble tailler pour le studio et la nature morte (et le paysage, mais sous réserve qu'il n'y ait pas de feuillages chahutés par le vent ou de sujets mobiles tels que passants ou véhicules).

Concrètement, on s'affranchit (enfin!) du matriçage de Bayer (quand même très limitant), donc gain crucial en définition comme en colorimétrie, et en plus on augmente terriblement la dynamique tout en faisant drastiquement chuter le bruit...
Et cela couplé à la cadence en rafale du K-3 (8,3i/s il me semble) doit rendre l'utilisation très peu contraignante.

pirlouit

De ce que j'ai compris (?) cette technologie permet de donner à chaque pixel sa couleur vraie et non pas sa couleur calculée par interpolation. Le MF quelque soit sa résolution continue avec son filtre de Bayer à nous donner des couleurs calculées, peu importe la PdC de tel ou tel surface de capteur qui n'a rien à voir avec cette technologie qui pourrait très bien être exploitée dans le prochain MF Pentax ou le prochain FF.

Nival

Ce n'est pas très compliqué à comprendre, et avec la matrice de Bayer, il n'y a pas que les couleurs qui ont une part de calcul par extrapolation par rapport aux pixels adjacent, mais aussi la luminance (et donc au final l'information de l'image réel que contient chaque pixel dans sa totalité).
Avec cette technique, chaque pixel contient l'intégralité de l'information d'image qui lui renvoi l'optique, le gain ne se fait pas qu'en terme de colorimétrie mais de définition. Et il suffit de voir les exemples cités en lien pour voir que le gain en définition saute bien plus aux yeux que celui en colorimétrie! :o

D'ailleurs je viens de faire l'essaie de réduire des images issues du moyen-format 645Z à la taille de celle du K-3, et celles venant du K-3 utilisant le "Pixel Shift" restent à mon sens largement plus définies! Ce qui effectivement, tu en as eu l'intuition Pirlouit, n'est pas tout à fait une surprise considérant que le 645Z reste tributaire des limites que lui impose la matrice de Bayer.
Il faut après ne pas non plus oublier que le 645Z est utilisable au maximum de ces capacités même sur sujet mobile, ce qui n'est plus le cas du K-3 si on considère l'énorme avancée sur l'image que constitue ce "Pixel Shift".

Et effectivement tout cela en attendant que cette technologie se généralise aux autres boitiers de la marque, ce qui rendra ses lettres de noblesse au moyen format, que ce K-3 II met quelque peu à mal il faut l'avouer.

icono

Citation de: sebs le Mai 27, 2015, 16:21:56
Je me demande si cette technologie, couplée à un objectif de course, permet d'égaler la définition d'un moyen-format, ce qui aurait l'avantage côté compacité.
Pour du studio, normalement le sujet ne bouge pas trop  ;D
il n'y a pas que le nombre de pixels, un autre élément important entre en jeu, c'est le format du capteur
et celui du K3 II est toujours aussi petit par rapport à celui d'un MF

Nival

Citation de: icono le Mai 27, 2015, 18:34:46
et celui du K3 II est toujours aussi petit par rapport à celui d'un MF

Et? La question est surtout de savoir ce que tu attends d'une taille de capteur supérieure.

Si c'est un gain en définition, en sensibilité, en dynamique, le "Pixel Shift" sur APS-C semble sans problème offrir plus qu'un 645Z (ya qu'à voir les images prises dans les deux cas) ; sous réserve bien sûr des limitations assez violentes de sujet parfaitement fixe que le "Pixel Shift" implique!!

Si c'est une plus faible profondeur de champ, c'est sûr qu'un moyen format permettra d'aller plus loin, pour des objectifs à angle de champ et ouverture relative identiques. Il faut après voir l'utilité que chacun trouvera dans une profondeur de champ liliputienne, et si finalement on prend ses photos à 100mm f/5.6 en MF, on retrouvera le même angle de vu ET la même profondeur de champ en APS-C à 50mm f/2.8 (ce qui reste très accessible!). Si on prend ses photos couramment à f/2.8 en moyen format, il faudrait opter pour des ouvertures atteignant f/1.4 pour le même rendu en APS-C, ce qui reste jouable mais se complique c'est sûr! ;) Si on aime shooter en MF à f/1.4, là pas d'alternative.

Mistral75

Citation de: Nival le Mai 27, 2015, 17:15:34
Ce n'est pas très compliqué à comprendre, et avec la matrice de Bayer, il n'y a pas que les couleurs qui ont une part de calcul par extrapolation par rapport aux pixels adjacent, mais aussi la luminance (et donc au final l'information de l'image réel que contient chaque pixel dans sa totalité).
(...)

Non, avec une matrice de Bayer l'information de luminance est parfaitement mesurée pour chaque pixel, seule l'information de chrominance est interpolée.

Avec le pixel shift ou un capteur Foveon, les deux sont parfaitement mesurées pour chaque pixel (moyennant des calculs de désatténuation pour le Foveon tricouche).

Nival

#197
Citation de: Mistral75 le Mai 27, 2015, 19:11:38
Non, avec une matrice de Bayer l'information de luminance est parfaitement mesurée pour chaque pixel, seule l'information de chrominance est interpolée.

Bah non, parce qu'en ne captant qu'une partie de la lumière ("rouge", "vert", ou "bleu") pour chaque photosite, on perd une partie non récupérable de la lumière totale arrivant sur cette zone. Si p.ex. un photosite "bleu" reçoit une lumière jaune intense mais dépourvue des longueurs d'ondes qui lui sont impartis, il ne captera pas de lumière (ou très peu), et donc une part énorme de luminance sera perdue. Ce n'est qu'un exemple caricatural, mais si chaque photosite ne capte en moyenne qu'1/3 de la lumière qui lui arrive, surtout cette fraction est en fait pour chaque photosite une fraction variable par rapport à l'image réelle qui est projetée à cet endroit, et cette variabilité ne peut être déterminée de façon absolue, et reconstituée réellement a postriori ; seulement extrapolée (càd "imaginée") à partir de ce qu'ont reçu, dans d'autres plages de fréquences, les photosites adjacents. Ce qui est une approximation (et assez violente au final).

Ce qui de toute façon, pour qui aurait du mal avec la théorie, ne fait aucun doute sur ce que montrent les images en pratique ;).
(le gain en définition est énorme!)

Mistral75

La perte de définition est surtout liée à l'interpolation en chrominance : les couleurs ne sont pas exactes, bavent, etc.

Pour préciser à propos de la luminance tout en restant schématique : l'information de luminance est déduite de l'intensité lumineuse reçue par la photodiode concernée, de la couleur supposée de la lumière reçue par un pixel (reconstituée par interpolation) et de l'atténuation du filtre (R, V ou B placé devant la photodiode) pour cette couleur (ces longueurs d'onde en fait). Elle n'est pas parfaitement exacte puisque la couleur de la lumière (les longueurs d'ondes) n'est que reconstituée mais l'imprécision est du deuxième ordre par rapport à celle qui est attachée à l'information de chrominance.

Nival

Citation de: Mistral75 le Mai 27, 2015, 19:30:03
La perte de définition est surtout liée à l'interpolation en chrominance : les couleurs ne sont pas exactes, bavent, etc.

Je ne vois pas en quoi. La perte en chrominance et en luminance sont liées et indissociables dans le cas d'une matrice de Bayer: chaque photosite ne reçoit qu'une fraction de la lumière projetée, tant en chrominance qu'en luminance (laquelle est justement limitée par le "filtrage en chrominance" si j'ose dire: la luminance perçue se limite à celle des longueurs d'ondes captées, et est donc tout autant erronée que la mesure colorimétrique, pour les mêmes raisons, et avec la même importance).

Une des limitations principales est en fait justement que les technologies actuelles ne permettent pas de dissocier la détection d'une chrominance et d'une luminance!
De toute façon on peut aussi ne considérer que l'aspect pratique de la chose, en ne considérant que la luminance des images montrées dans le lien de Couscousdelight:
(crop 100%)



(pas besoin je pense de préciser à chaque fois laquelle est prise avec "Pixel Shift" et laquelle sans ;))