Le cinquième fil des rumeurs Canon

Démarré par Mistral75, Décembre 02, 2019, 20:50:40

« précédent - suivant »

newworld666

Citation de: rol007 le Mai 12, 2022, 16:48:15
Il y a des logiciels qui font le job (avec + ou - de succès)

https://flic.kr/p/2e83Cv5

https://flic.kr/p/2jmR8RS

Il ne reste plus qu'à ce qu'ils se sortent les doigts ... et qu'ils câblent ça dans un coproc dédié de la stab  ;D ;D ;D
Canon A1 + FD 85L1.2

timouton

Citation de: Fab35 le Mai 12, 2022, 16:46:09
Laisse !  ;D :D :P ;)

C'est bon 😄

Ce que je voulais dire, c'est que l'intensité du flou du fond de la scène sera difficilement maîtrisé par le photographe. Mais bon, j'arrête.

rol007

Citation de: newworld666 le Mai 12, 2022, 16:43:09
Oui c'est exactement ça !!!!... avec un beau déphasage entre les 2 raw .. et donc très peu de pixels qui se superposent en pratique pour améliorer le rapport S/B de chaque pixel dans le champ..
Sans compter la différence d'exposition de 1/2EV entre les 2 raw également.
J'ai même l'impression que ça met en évidence un banding vertical sur cet exemple  ::)

Je ne sais pas, je ne maitrise pas ce sujet-là. Je comprends aussi RSP.

Oui tu as raison car il y a un shift entre la photo G qui prend toutes les infos des demis pixels gauche et la photo D qui prend toutes les infos des demis pixels de droite

Mais je pense que RSP a raison si on considère que la photo globale prend pour chaque pixel la "somme" des infos presque similaires du demi pixel gauche + le demi pixel droit

rol007

Citation de: newworld666 le Mai 12, 2022, 16:57:32
Il ne reste plus qu'à ce qu'ils se sortent les doigts ... et qu'ils câblent ça dans un coproc dédié de la stab  ;D ;D ;D

je pense que ça marche sur des mouvements "simples" : translation, rotation mais pas sur la trajectoire aléatoire

newworld666

Citation de: rol007 le Mai 12, 2022, 16:59:54
Je ne sais pas, je ne maitrise pas ce sujet-là. Je comprends aussi RSP.

Oui tu as raison car il y a un shift entre la photo G qui prend toutes les infos des demis pixels gauche et la photo D qui prend toutes les infos des demis pixels de droite

Mais je pense que RSP a raison si on considère que la photo globale prend pour chaque pixel la "somme" des infos presque similaires du demi pixel gauche + le demi pixel droit

Si ça se passait réellement, déjà dans ton exemple,  il n'y aurait vraiment pas beaucoup de pixels communs pour démontrer un gain au niveau S/B=> aucune chance de combiner des pixels... tout juste l'exposition sur des plages larges.
Par contre, pour positionner l'AF au mm près, même avec des optiques à F1.2, on comprend vite qu'avec une triangulation pareille en temps réels, c'est effectivement redoutable d'efficacité.
Canon A1 + FD 85L1.2

newworld666

Citation de: rol007 le Mai 12, 2022, 17:02:19
je pense que ça marche sur des mouvements "simples" : translation, rotation mais pas sur la trajectoire aléatoire

On va donc attendre encore un peu avec les proc gravés en 2nm pour rentrer tout ça.  :D :D :D
Canon A1 + FD 85L1.2

rsp

Citation de: rol007 le Mai 12, 2022, 16:59:54
Je ne sais pas, je ne maitrise pas ce sujet-là. Je comprends aussi RSP.

Oui tu as raison car il y a un shift entre la photo G qui prend toutes les infos des demis pixels gauche et la photo D qui prend toutes les infos des demis pixels de droite

Mais je pense que RSP a raison si on considère que la photo globale prend pour chaque pixel la "somme" des infos presque similaires du demi pixel gauche + le demi pixel droit
C'est incroyable ! Il n'y a pas à me comprendre ou pas, c'est un fait, c'est écrit dans les documents publiés par Canon, quand on utilise le Raw ou même quand on sort un jpg direct, les deux moitiés du pixel sont ajoutées, c'est tout.
Évidemment que quand on ne prend qu'un des deux demis pixels on perd un EV, c'est d'ailleurs la preuve que dans le cas général on utilise la somme des deux.
Sur ton animation on voit bien que ça ne "bouge" pas dans la zone nette mais que ça swingue d'autant plus que c'est flou.

rol007

Citation de: newworld666 le Mai 12, 2022, 17:04:42
Si ça se passait réellement, déjà dans ton exemple,  il n'y aurait vraiment pas beaucoup de pixels communs pour démontrer un gain au niveau S/B=> aucune chance de combiner des pixels... tout juste l'exposition sur des plages larges.
Par contre, pour positionner l'AF au mm près, même avec des optiques à F1.2, on comprend vite qu'avec une triangulation pareille en temps réels, c'est effectivement redoutable d'efficacité.

Si ça se passait réellement, déjà dans ton exemple,  il n'y aurait vraiment pas beaucoup de pixels communs pour démontrer un gain au niveau S/B=> aucune chance de combiner des pixels... tout juste l'exposition sur des plages larges. je ne te comprends pas bien, comment font-ils avec le pixel shift chez les autres constructeurs ? Je t'avoue ne pas m'y être bcps intéressé. De mémoire sur le 5dIV on avait une association étrange 1+2 et 2. Bref je ne sais plus. Je n'ai même pas joué avec ce truc alors que j'ai un 5dIV.

Par contre, pour positionner l'AF au mm près, même avec des optiques à F1.2, on comprend vite qu'avec une triangulation pareille en temps réels, c'est effectivement redoutable d'efficacité.
Efficace de précision/exactitude mais pas de rapidité, normal trouver une tranche de netteté dans un océan de flou. En animalier, c'est une plaie, je comprends les réticences à passer au ML. Tant qu'ils ne mettront une touche magique pour fermer l'optique (télé ouvert f/2.8-f/4) un bref moment pour acquérir, trouver rapidement la cible...et une meilleur gestion de l'af dans un environnement à grande variation de luminosité. En animalier sur du piaf par ex avec un ML vs un réflexe, on remplace un problème par un autre. Je vais attendre un peu plus de maturité de la gestion de l'af qui fonctionne mieux pour 90% des situations par rapport à celui d'un réflexe mais les 10% qui foirent le font dans le secteur animalier sportif sur mini sujet rapide.

newworld666

Citation de: rsp le Mai 12, 2022, 17:14:57
C'est incroyable ! Il n'y a pas à me comprendre ou pas, c'est un fait, c'est écrit dans les documents publiés par Canon, quand on utilise le Raw ou même quand on sort un jpg direct, les deux moitiés du pixel sont ajoutées, c'est tout.
Évidemment que quand on ne prend qu'un des deux demis pixels on perd un EV, c'est d'ailleurs la preuve que dans le cas général on utilise la somme des deux.
Sur ton animation on voit bien que ça ne "bouge" pas dans la zone nette mais que ça swingue d'autant plus que c'est flou.

les plaquettes commerciales et moi ...ça fait 2 => donc on laisse de côté pour Mme Michu qui veut faire de la photo.

Prends les raw (ce que j'ai fait) et mets-toi sur un moniteur pro 34" 4K  tu comprendras vite que même dans la map visible .. il n'y a pas grand-chose de commun surtout avec des optiques qui piquent grave comme mes RF50 1.2L Sigma 135F1.8 ou 300L2.8ISII (dans tous ces cas la map peut-être juste anorexique)..

Sauf à ce que les lentilles puissent être enlevées automatiquement, aucune chance de pouvoir combiner les 1/2 pixels pour en tirer bénéfices en terme de rapport S/B .. mais on reste là ... cette discussion est sans intérêt.
Canon A1 + FD 85L1.2

newworld666

Citation de: rol007 le Mai 12, 2022, 17:34:01
Si ça se passait réellement, déjà dans ton exemple,  il n'y aurait vraiment pas beaucoup de pixels communs pour démontrer un gain au niveau S/B=> aucune chance de combiner des pixels... tout juste l'exposition sur des plages larges. je ne te comprends pas bien, comment font-ils avec le pixel shift chez les autres constructeurs ? Je t'avoue ne pas m'y être bcps intéressé. De mémoire sur le 5dIV on avait une association étrange 1+2 et 2. Bref je ne sais plus. Je n'ai même pas joué avec ce truc alors que j'ai un 5dIV.

C'est .. totalement différent .. il n'y a pas de lentilles qui déphasent complètement les 2 images (ou 4 dans le futur quad pixel), les images sont justes décalées d'un pixel avec exactement la même vue dans chaque image. Donc, si le sujet est fixe => le pixel d'une image est strictement identique au pixel d'à côté de l'autre image => là on peut combiner très efficacement et même élargir d'1 pixel le champ total  ;D. Photoshop gère ça très bien ... et ne peut rien faire avec les deux fichiers dualpixels.

Le problème du dual pixels, ce sont les lentilles indispensables pour l'AF.. et pour rien d'autre.
J'ai été très déçu quand j'ai compris ce qu'il se passait avec les 2 raw pris forcément précisément au même moment contrairement au pixel shift...
D'ailleurs autant un pixel shift produit un  résultat parfaitement visible en matière de définition (sur sujets fixes), autant le dual pixel est totalement imperceptible visuellement entre 2 boîtiers avec ou sans dual pixels.
 
Canon A1 + FD 85L1.2

rsp


rol007

Citation de: rsp le Mai 12, 2022, 17:14:57
C'est incroyable ! Il n'y a pas à me comprendre ou pas, c'est un fait, c'est écrit dans les documents publiés par Canon, quand on utilise le Raw ou même quand on sort un jpg direct, les deux moitiés du pixel sont ajoutées, c'est tout.
Évidemment que quand on ne prend qu'un des deux demis pixels on perd un EV, c'est d'ailleurs la preuve que dans le cas général on utilise la somme des deux.
Sur ton animation on voit bien que ça ne "bouge" pas dans la zone nette mais que ça swingue d'autant plus que c'est flou.

C'est incroyable ! Il n'y a pas à me comprendre ou pas, c'est un fait, c'est écrit dans les documents publiés par Canon, quand on utilise le Raw ou même quand on sort un jpg direct, les deux moitiés du pixel sont ajoutées, c'est tout.
Oui, je me suis mal exprimé

Sur ton animation on voit bien que ça ne "bouge" pas dans la zone nette mais que ça swingue d'autant plus que c'est flou.
C'est là oui je suis plutôt d'accord avec newworld666. Plus la focale est courte et plus ça bouge

Donc je résume ma conviction :

l'info d'un pixel = somme des info des 2 photodiodes qui composent ce pixel. Avec ça je suis d'accord, tu as raison (même si tu n'aime pas l'expression "je comprends RSP quand il n'y a rien à comprendre...)

Newworld rétorque que l'on a un shift entre la photo prise avec les photodiodes de gauche et celle prise avec les photodiodes de droite incompatible si on les fusionne dans photoshop par ex et avec ça je suis d'accord

Mais là où je ne suis plus d'accord avec RSP c'est de dire qu'il y aurait une zone commune aux 2 photos (gauche et droite) et donc c'est la même chose que la fusion de deux photodiodes
Et là où je ne suis pas d'accord avec Newworld c'est de dire que "puisqu'il y a une photo gauche droite avec un shift, et que par conséquent on ne peut les fusionner avec photoshop alors la photo globale ne peut être le fruit de l'union des pixels = photodiode g + photodiode D. Selon moi ces 2 traitements de l'info ( donc fusion des photo G+D ou union des photosites = photodiode G+D) sont différents en résultats. Un peu comme la somme des carrés n'est pas le carré de la somme, la lumière c'est une onde et une particule....

Je ne suis pas expert, mais vous comprendrez que je ne cherche pas à être le supporter de l'un ou de l'autre, je crois que vous voyez chacun dans votre coin une facette de la réalité, l'une n'est pas l'ennemie de l'autre

newworld666

Citation de: rsp le Mai 12, 2022, 18:59:58
https://youtu.be/lgqB6VlslBY

C'est à 100% la pub de l'autofocus ... qui date de 2013, c'est dire...
En aucun cas, ils ne présentent un traitement numérique de 2 RAW  (en théorie raw = brut de fonderie sans traitement) qui serait destiné à une amélioration de la qualité de l'image (S/B, dynamique ou autre)
On y avait cru à l'époque .. et on a bien vu quand les RAW ont été décryptés que ce n'était pas du tout équivalent à un pixel shift instantané. 
Mais un bel outil de précision pour l'autofocus grâce au déphasage qui donne une belle triangulation sur la taille d'un petit capteur même APSC !!! une véritable prouesse !!!
Canon A1 + FD 85L1.2

newworld666

Moi je ne fais pas de combat de coq... et je ne cherche pas à convaincre d'une religion.

Je constate et je partage que les images RAW sont inutilisables pour autre chose que de la triangulation.. c'est tout. et qu'un raw c'est un raw ... et normalement pas le résultat d'un traitement qui viserait à annuler l'effet des lentilles en recherchant des parties communes qui n'existent juste pas .. contrairement au pixel shift.

Dans DPP Canon propose un traitement pour donner l'impression qu'on peut déplacer la map entre les 2 RAW (ce qui confirme d'ailleurs que même la map n'est pas commune entre les 2 RAW et donc aucun 1/2 pixel n'est réellement commun sur 100% du champ).

J'en reste là .. je suis sûr de mon coup.. parce que j'ai pris beaucoup de temps pour voir ce qu'on pouvait faire avec ces 2 RAW => quasi rien.
Canon A1 + FD 85L1.2

rol007

Citation de: newworld666 le Mai 12, 2022, 18:08:35
C'est .. totalement différent .. il n'y a pas de lentilles qui déphasent complètement les 2 images (ou 4 dans le futur quad pixel), les images sont justes décalées d'un pixel avec exactement la même vue dans chaque image. Donc, si le sujet est fixe => le pixel d'une image est strictement identique au pixel d'à côté de l'autre image => là on peut combiner très efficacement et même élargir d'1 pixel le champ total  ;D. Photoshop gère ça très bien ... et ne peut rien faire avec les deux fichiers dualpixels.

Le problème du dual pixels, ce sont les lentilles indispensables pour l'AF.. et pour rien d'autre.
J'ai été très déçu quand j'ai compris ce qu'il se passait avec les 2 raw pris forcément précisément au même moment contrairement au pixel shift...
D'ailleurs autant un pixel shift produit un  résultat parfaitement visible en matière de définition (sur sujets fixes), autant le dual pixel est totalement imperceptible visuellement entre 2 boîtiers avec ou sans dual pixels.


Oui, mais...c'est compliqué. Comment expliquer qu'il y a un déphasage avec le pixel shift instantané du dual pixel et pas dans un pixel shift différé d'un Sony. Et bien à mon avis parce que on fusionne des pixels entiers dans un pixel shift Sony et on fusionne des 1/2 photosites (soit gauche soit droit) dans l'une des 2 photos (incompatibles gauche droite) de l'image animée que j'ai postée. En fait si on regarde bien cette animation c'est comme si on changeait de point de vue or on est resté sur place et le capteur n'a pas bougé sur le Canon et pourtant le point de vue change, c'est comme si on faisait une rotation

Lors d'un pixel-shift à la sauce Sony, c'est comme si on faisait un pano, un shift arrière (avec lentille fixe à l'avant)

newworld666

Citation de: rol007 le Mai 12, 2022, 19:30:11
Oui, mais...c'est compliqué. Comment expliquer qu'il y a un déphasage avec le pixel shift instantané du dual pixel et pas dans un pixel shift différé d'un Sony. Et bien à mon avis parce que on fusionne des pixels entiers dans un pixel shift Sony et on fusionne des 1/2 photosites (soit gauche soit droit) dans l'une des 2 photos (incompatibles gauche droite) de l'image animée que j'ai postée. En fait si on regarde bien cette animation c'est comme si on changeait de point de vue or on est resté sur place et le capteur n'a pas bougé sur le Canon et pourtant le point de vue change, c'est comme si on faisait une rotation

Lors d'un pixel-shift à la sauce Sony, c'est comme si on faisait un pano, un shift arrière (avec lentille fixe à l'avant)

Le pixel de la  1ère image est à l'exacte position du pixel d'à côté de la deuxième image grâce au déplacement physique du capteur lui-même (utilisation de la stab capteur pour cette opération) => il n'y aucun impact de lentille ou même de l'optique .. par contre, si le sujet bouge pendant le déplacement physique du capteur, ça ne marche pas du tout pour combiner les pixels.

Le pixel shift et le dual pixel n'ont rien à voir en mise en oeuvre (purement mécanique d'un côté, et optique de l'autre) et n'ont pas du tout les mêmes objectifs d'utilisation (amélioration S/B par doublement des données des pixels dans un cas, précision de l'AF grâce au déphasage des 2 1/2 pixels dans l'autre) ..
Canon A1 + FD 85L1.2

rol007

Citation de: newworld666 le Mai 12, 2022, 19:29:18
Moi je ne fais pas de combat de coq... et je ne cherche pas à convaincre d'une religion.

Je constate et je partage que les images RAW sont inutilisables pour autre chose que de la triangulation.. c'est tout. et qu'un raw c'est un raw ... et normalement pas le résultat d'un traitement qui viserait à annuler l'effet des lentilles en recherchant des parties communes qui n'existent juste pas .. contrairement au pixel shift.

Dans DPP Canon propose un traitement pour donner l'impression qu'on peut déplacer la map entre les 2 RAW (ce qui confirme d'ailleurs que même la map n'est pas commune entre les 2 RAW et donc aucun 1/2 pixel n'est réellement commun sur 100% du champ).

J'en reste là .. je suis sûr de mon coup.. parce que j'ai pris beaucoup de temps pour voir ce qu'on pouvait faire avec ces 2 RAW => quasi rien.

Bête question si on fait 3 photos : une en mode normal (je ne me souviens plus du vocabulaire canon) et les 2 autres avec le shift, n'a-t-on-pas la photo globale (raw normal) pile poil être la situation intermédiaire de la photo G et photo D ?

Je te laisse le mot de la fin, je ne veux pas t'agacer avec tout ça...

newworld666

#3817
Citation de: rol007 le Mai 12, 2022, 19:38:36
Bête question si on fait 3 photos : une en mode normal (je ne me souviens plus du vocabulaire canon) et les 2 autres avec le shift, n'a-t-on-pas la photo globale (raw normal) pile poil être la situation intermédiaire de la photo G et photo D ?

Je te laisse le mot de la fin, je ne veux pas t'agacer avec tout ça...

Il n'y a pas de mode normal possible.... le déphasage est fixe sur chaque 1/2 pixel .. la taille du fichier RAW avec les données des 2 demi pixels fait le double du fichier RAW de base ...
Canon A1 + FD 85L1.2

rol007

Citation de: newworld666 le Mai 12, 2022, 19:47:32
Il n'y a pas de mode normal possible.... le déphasage est fixe sur chaque 1/2 pixel .. la taille du fichier RAW avec les données des 2 demi pixels fait le double du fichier RAW de base ...

Je voulais dire une photo (1) d'un sujet fixe en mode dual pixel raw désactivé = 1 photo (normale) (que j'imagine être la fusion des photodiodes g+d)
et les 2 photos G et D en mode dual pixel raw activé du même sujet fixe et sans modification du point de vue (que j'imagine être peut-être à tord la photo issue des photodiodes g et celle issue des photodiodes droites)

Je vais le faire moi-même mais pas tout de suite...

Merci Newworld666

rol007

Citation de: rol007 le Mai 12, 2022, 20:06:07
Je voulais dire une photo (1) d'un sujet fixe en mode dual pixel raw désactivé = 1 photo (normale) (que j'imagine être la fusion des photodiodes g+d)
et les 2 photos G et D en mode dual pixel raw activé du même sujet fixe et sans modification du point de vue (que j'imagine être peut-être à tord la photo issue des photodiodes g et celle issue des photodiodes droites)

Je vais le faire moi-même mais pas tout de suite...

Merci Newworld666

Ah d'accord, on ne peut pas se comprendre vu que j'ai pas compris ça

"En d'autres termes, un pixel est composé de deux sous-pixels, appelons-les A et B. La première image d'un fichier Raw Dual Pixel est composée de « A + B », tandis que la seconde est faite de sous-pixels « B » uniquement." https://www.fastrawviewer.com/DPRSplit

donc on a A+B et B, donc 2 photos mais on n'a jamais A toute seule et moi je croyais qu'il y avait moyen d'en avoir 3

rsp

Citation de: rol007 le Mai 12, 2022, 20:14:32
Ah d'accord, on ne peut pas se comprendre vu que j'ai pas compris ça

"En d'autres termes, un pixel est composé de deux sous-pixels, appelons-les A et B. La première image d'un fichier Raw Dual Pixel est composée de « A + B », tandis que la seconde est faite de sous-pixels « B » uniquement." https://www.fastrawviewer.com/DPRSplit

donc on a A+B et B, donc 2 photos mais on n'a jamais A toute seule et moi je croyais qu'il y avait moyen d'en avoir 3
To prends la fichier A+B, tu soustrais les valeurs de B, tu obtiens A. L'avantage de cette manière de faire c'est que A+B c'est le même fichier que le RAW classique.

rol007

Citation de: rsp le Mai 12, 2022, 20:21:12
To prends la fichier A+B, tu soustrais les valeurs de B, tu obtiens A. L'avantage de cette manière de faire c'est que A+B c'est le même fichier que le RAW classique.

Donc A+B = photo issue de la fusion des 2 photodiodes a et b de chaque pixel

B= image "gauche"

Et tu penses que de cette façon-là : A+B-B=A on va obtenir A l'image "droite" donc avec une perspective différente de B

j'ai des doutes, mais je n'ai pas les compétences pour l'affirmer

bon admettons mais c'est quoi alors "-" cette soustraction, dans photoshop ? comment on soustrait un raw d'un autre ?

rsp

Citation de: rol007 le Mai 12, 2022, 20:54:25
Donc A+B = photo issue de la fusion des 2 photodiodes a et b de chaque pixel

B= image "gauche"

Et tu penses que de cette façon-là : A+B-B=A on va obtenir A l'image "droite" donc avec une perspective différente de B

j'ai des doutes, mais je n'ai pas les compétences pour l'affirmer

bon admettons mais c'est quoi alors "-" cette soustraction, dans photoshop ? comment on soustrait un raw d'un autre ?
Il y a des logiciels qui permettent de manipuler les données dans les RAW, RAWDIGGER en est un me semble-t-il.
Les deux demis photosites sont derrière une même lentille et un même filtre de couleur (R, V, V ou B). Avant dématriçage le fichier contient des valeurs brutes (RAW) qui correspondent à la quantité de lumière reçue par la photodiode  pendant la durée de l'exposition après passage dans le filtre coloré de la matrice de Bayer.

Apparemment, quand ça vient d'un point situé dans le plan de netteté, les deux valeurs sont égales (au bruit près) ; si ça vient d'une zone floue les deux valeurs sont différentes. Bien entendu ça ne marche pas avec un seul point mais en analysant les valeurs sur une zone sinon  il y aurait plein de faux positifs (le hasard peut faire que les valeurs de A et B soient égales bien que le point ne soit pas "net"). C'est probablement ce qui arrive avec les longues focales quand on est très loin du plan de netteté et qu'il y a un fond uni (du fait du flou).

Pour une même case des deux RAW (A+B) et (B) il suffit de faire la soustraction entre les deux valeurs contenues dans la case, et ainsi de suite pour toutes les cases.
En tout cas c'est ce que j'ai compris et il est possible que je me trompe.
Ceci dit, je ne vois pas bien à quoi ça peut mener... donc je laisse tomber, on peut préférer la version "Canon n'utilise qu'un seul des deux demis photosites, ça leur permet de dégrader le rapport S/B et d'avoir ainsi un capteur moins performant." Sans être un fanatique de la marque, cette version ne me semble pas plausible, d'autant moins qu'à la sortie du Dual Pixel RAW des amateurs de calculs ont trituré des RAW dans tous les sens pour vérifier ce que Canon affirmait.
Je reconnais que je ne l'ai pas fait personnellement, en grande partie parce que je travaillais à l'époque et qu'on me payait pour autre chose ce qui fait que je passais mes loisirs à faire des photos plutôt que des calculs (pour lesquels je suis de plus moyennement compétent).
Fin du sujet pour moi.

Telyt560

Citation de: Fab35 le Avril 28, 2022, 09:31:55
Encore une fois ne pas s'emballer.
Sur les 32Mpix en APSC, on voit que c'est déjà difficile sur le 90D/M6II d'avoir des images qui croustillent à 100%, qu'il faut à la fois des optiques pointues et des conditions de pdv optimales, alors encore cropper x1.3, ça va pô être simple à gérer, sauf au cas par cas et si on n'exploite pas toute la def.

Aujourd'hui je photographie surtout sur R5, j'ai gardé mon 5DS et rapidement vendu mon 90D (après 6 mois d'utilisation).
Je pense que 45 Mpx est idéal, on peut toujours réduire la résolution à 24 Mpx ou recadrer si besoin, j'apprécie cette flexibilité.
Utilisé en plein format ou APS-C ces deux boîtiers sont clairement supérieurs au 90D.

Donc je suis plus intéressé à un R10 de 24 Mpx qu'un R7 à 32 Mpx

Telyt560

ric 67

Citation de: Telyt560 le Mai 17, 2022, 09:36:04
Aujourd'hui je photographie surtout sur R5, j'ai gardé mon 5DS et rapidement vendu mon 90D (après 6 mois d'utilisation).
Je pense que 45 Mpx est idéal, on peut toujours réduire la résolution à 24 Mpx ou recadrer si besoin, j'apprécie cette flexibilité.
Utilisé en plein format ou APS-C ces deux boîtiers sont clairement supérieurs au 90D.

Donc je suis plus intéressé à un R10 de 24 Mpx qu'un R7 à 32 Mpx

Telyt560
Je n'ai pas compris grand'chose à tout ce qui s'est dit plus haut , je retiens par contre que TOI Teyt 560 tu préfère en APS-C un 24Mpx à 32 Mpx , problème de bruit numérique ?