;) Bonjour à tous et ... pas taper, pas taper :-* !!!
Contexte :
J'ai pris une photo au 50 mm que j'ai passé à Mégapixel (let's enhance ou Upscaler ...) et j'ai obtenu la même photo avec 2 fois plus de pixels.
Ok. Jusque là, ça va.
Maintenant si je croppe ma photo par 2, est-ce l'équivalent d'une photo prise à 100 mm (avec la même quantité de pixels) ?
Pourquoi cette question. J'ai un zoom de voyage Tamron 18-300 (encombrement/qualité suffisante).
Je lui trouve un défaut (les autres ne me gênent pas) : il est peu lumineux aux longues focales. Mais le télé m'est parfois nécessaire.
Je regarde en ce moment un 17-70 à 2,8 constant et je me dis que si je passe des photos à la moulinette MEGAPIXEL,
j'aurais l'équivalent d'un 17-140 (toujours à diaph constant 2,8) et ça m'irait parfaitement.
Me trompe-je, mon raisonnement tient-il la route?
Sur mes photos "tests", il faut zoomer gros pour voir une différence entre la photo prise au 50 mm, doublée (Mégapixel) puis croppée par 2 avec la même photo prise directement au 100 mm.
Sur un écran PC ou smartphone, je ne vois pas de perte de qualité.
Du coup, je me dis que c'est étrange de ne pas lire des articles sur ce procédé ... ???
Ou j'ai simplement raté les articles et vidéos qui abordent le sujet.
D'où mon intervention, mon questionnement.
Alors si je me trompe je peux l'entendre.
Mais soyez bienveillant (suis fatigué des ronchons scientifiquement corrects).
:laugh: Si la photographie était une science exacte, elle serait sans émotion :laugh: .
Attention, je ne crois pas que le doublement de la définition et doublement du grossissement soient corrélés dans leur calcul.
Par exemple Leica Q3 propose ce genre de zoom numérique.
A 28mm, vous avez 61MP, par contre à 90mm (soit grossissement x3,2) vous n'avez plus que 6MP.
Hormis ces calculs de definition , je pense que l'étape extrapolation IA + crop doit quand même bien détruire les détails.
Pouvez vous montrer vos photos tests?
Citation de: Fuji_dans_la_joie le Août 22, 2024, 13:33:31Contexte :
J'ai pris une photo au 50 mm que j'ai passé à Mégapixel (let's enhance ou Upscaler ...) et j'ai obtenu la même photo avec 2 fois plus de pixels.
Ok. Jusque là, ça va.
Maintenant si je croppe ma photo par 2, est-ce l'équivalent d'une photo prise à 100 mm (avec la même quantité de pixels) ?
Oui, c'est bien ça.
A point de vue identique,
cropper d'un facteur 2 dans l'image correspond à passer d'un 50 à un 100mm (par exemple).
Mais on perd le nombre de pixels équivalent (en linéaire), sans surprise. Le x2 de
Topaz Gigapixel* permet de les "retrouver".
Alors, bien sûr, ce n'est pas tout à fait la même chose : Gigapixel fait une interpolation
intelligente pour y parvenir. Mais, souvent, c'est bluffant.
*si on parle bien de la même chose...
Citation de: Fuji_dans_la_joie le Août 22, 2024, 13:33:31Du coup, je me dis que c'est étrange de ne pas lire des articles sur ce procédé ... ???
Tu étais en hibernation, ces derniers temps ?
;-)
Salut coucou.
Hibernation ... On peut le dire d'une certaine façon ;D :D !
Depuis le changement de boitier (XT3 à XT5), la masterclass de Damien Bernal (je croyais tout savoir sur mon XT3. Ben non :-[ ), le passage à l'abonnement LR+PS à la place d'une version crackée 5.6, un nouvel horizon s'ouvre à la jeunesse de mon début de retraite (quelle belle formule !).
Alors bien sur, je youtube (du fameux verbe "Youtuber" (*)), j'ai découvert Olivier Rocq (quel pédagogue et photographe :o ;D ) et de bien d'autres.
Et je suis tombé la dessus :
Johan : Solutions digitales (https://youtu.be/Gamzg_0xZWg?si=l3EPpfQeMqFVob-M)
Choc !!!
Je vais préparer quelques photos et créer un lien de téléchargement pour avoir les photos sans compression.
Pour, je cite :
Attention, je ne crois pas que le doublement de la définition et doublement du grossissement soient corrélés dans leur calcul.
Par exemple Leica Q3 propose ce genre de zoom numérique.
Toutafé. Je ne suis pas du tout sur de la rigueur mathématique, je parle "philosophiquement" de la théorie d'agrandir sans perte (équivalent à changer de focale).
Et non, ce n'est plus du zoom numérique (qui consiste à agrandir jusqu'à pixellisation moche, d'où un poids de + en + plus faible à l'agrandissement)
Mais ce n'est pas non plus du zoom optique (par la physique de lentilles)
Va falloir trouvé un nouveau nom avec les IA.
Je propose Zoom Optinumérique ;D
Je reviens avec des photos dans quelques jours.
(*) Youtuber d'après Robert (mon grand père) : Passer trop de temps à tout regarder sur un écran.
Votre raisonnement est tout à fait juste.
Et c'est loin d'être secondaire :
Vu la qualité des interpolation avec AI, c'est bluffant. Jusqu'au ×4 au moins. On peut tout à fait en 2024 envisager avec un simple 50mm avoir un 200mm avec la même quantité de pixel que le capteur initial et sans perte de qualité. J'en ai été surpris.
(Sauf bien sûr pour la profondeur de champ qui restera celle de l'objectif initial croppé).
Et dans mon cas, la PDC sera mieux maitrisée avec un 2.8 qu'avec un 6,3. Donc tant mieux !!!
J'avais utilisé Gigapixel Ai pour monter la résolution de mes images de D700 à 360 dpi pour impression (sur format A3).
Ça marche plutôt pas mal.
Le tirage A3 :
Crop 100% :
Oui, c'est impec 👍
Oui tout à fait c'est très bien.
pour ma part, je suis en voyage en Italie et je suis parti avec un 24-105 uniquement.
Quel plaisir d'être léger.
je n'hésiterai en aucun cas à recadrer même sévèrement et augmenter la résolution( upscayl logiciel libre) pour avoir un équivalent 300 voir plus si besoin.
Citation de: Fuji_dans_la_joie le Août 22, 2024, 16:12:15Et non, ce n'est plus du zoom numérique (qui consiste à agrandir jusqu'à pixellisation moche, d'où un poids de + en + plus faible à l'agrandissement)
Mais ce n'est pas non plus du zoom optique (par la physique de lentilles)
Va falloir trouvé un nouveau nom avec les IA.
Je propose Zoom Optinumérique ;D
Ce n'est pas vraiment un zoom numérique sur les Q, juste un crop.
J'avais testé avec un Q2 en jpg direct, le crop leica à 7MP pour du 75 mm contre un jpg toujours direct boitier de 35 mm en taille moindre puis agrandie et cropé.
Mais je trouvais le crop bien meilleur que la version gigapixel.
Je pense que ce genre de manip vaut le coup avec des boitiers à plus de 50MP pourra voir déjà de la matière dans les détails.
Citation de: raymondheru le Août 22, 2024, 19:11:37Je pense que ce genre de manip vaut le coup avec des boitiers à plus de 50MP pourra voir déjà de la matière dans les détails.
Sauf qu'avec le D850 (45 MPixels), je suis
obligé de réduire la résolution pour m'aligner sur les 360 dpi de l'imprimante.
Et là, Photoshop CS6 fait très bien le job.
Alors après, pour des tirages A0, peut-être (là, je ne sais pas, n'en faisant jamais).
Citation de: Verso92 le Août 22, 2024, 21:54:16Sauf qu'avec le D850 (45 MPixels), je suis obligé de réduire la résolution pour m'aligner sur les 360 dpi de l'imprimante.
Et là, Photoshop CS6 fait très bien le job.
Alors après, pour des tirages A0, peut-être (là, je ne sais pas, n'en faisant jamais).
Pas compris?
le sujet du post est d'avoir une focale longue uniquement avec la définition et crop, donc pas vraiment de cas où il y aura besoin de réduire la taille du fichier.
Mais oui, en downsize, même les vieux CS font ça bien.
Citation de: raymondheru le Août 22, 2024, 22:04:36Pas compris?
le sujet du post est d'avoir une focale longue uniquement avec du crop, donc pas vraiment de cas où il y aura besoin de réduire la taille du fichier.
Mais oui, en downsize, même les vieux CS font ça bien.
Si tu as 50 MPixels (ou plus), tu auras d'autant moins besoin de Topaz Gigapixel (ou équivalent)...
Citation de: raymondheru le Août 22, 2024, 19:11:37Ce n'est pas vraiment un zoom numérique sur les Q, juste un crop.
C'est pareil, non ?
Citation de: Verso92 le Août 22, 2024, 22:06:12Si tu as 50 MPixels (ou plus), tu auras d'autant moins besoin de Topaz Gigapixel (ou équivalent)...
oui, c'est ce que je dis au dessus, et ce sera meilleur en qualité d'après ce que j'en ai testé.
Citation de: ViB le Août 22, 2024, 22:07:00C'est pareil, non ?
bonne question... je pensais que certains appareils/smartphone affectaient un agrandissement logiciel en plus?
Citation de: raymondheru le Août 22, 2024, 22:11:56oui, c'est ce que je dis au dessus, et ce sera meilleur en qualité d'après ce que j'en ai testé.
Le D850 est meilleur que le D700 + Topaz Gigapixel, je suis d'accord.
Mais était-ce la question ?
Citation de: Verso92 le Août 22, 2024, 22:13:12Le D850 est meilleur que le D700 + Topaz Gigapixel, je suis d'accord.
Mais était-ce la question ?
non plus ;)
Citation de: raymondheru le Août 22, 2024, 22:14:29non plus ;)
Alors, c'est quoi, la question ?
Parce que, en ce qui me concerne, j'y ai déjà répondu (et illustré)...
Citation de: Verso92 le Août 22, 2024, 22:32:20Alors, c'est quoi, la question ?
Parce que, en ce qui me concerne, j'y ai déjà répondu (et illustré)...
ben y en avait pas vraiment, vous avez juste rebondi un peu en HS sur une de mes interventions où j'expliquais à Fuji_dans_la_joie que d'après mes tests, la pratique d'avoir une focale longue non physique mais par crop peut être effectivement pratique mais que cela est bien plus qualitatif avec un crop dans un boitier hyperpixelisé (50MP mini) plutôt qu'avec du 25MP gigapixelisé.
rien de plus...
Citation de: raymondheru le Août 22, 2024, 22:36:59ben y en avait pas vraiment, vous avez juste rebondi un peu en HS sur une de mes interventions où j'expliquais à Fuji_dans_la_joie que d'après mes tests, la pratique d'avoir une focale longue non physique mais par crop peut être effectivement pratique mais que cela est bien plus qualitatif avec un crop dans un boitier hyperpixelisé (50MP mini) plutôt qu'avec du 25MP gigapixelisé.
rien de plus...
Qualitatif ?
Citation de: Verso92 le Août 22, 2024, 22:54:42Qualitatif ?
oui meilleure qualité dans les détails, comparaison à 100%
Merci Raymondheru. Tes messages sont clairs. Plus il y a de pixels, mieux c'est pour cropper. :)
Tout ça pour en arriver là. :D :D ;)
[at] Verso92
Quelle netteté ! Techniquement, tu as utilisé quel boitier et optique (si j'ai les mêmes, j'arrête la photo 8) ) ?
Citation de: Fuji_dans_la_joie le Août 23, 2024, 10:19:01[at] Verso92
Quelle netteté ! Techniquement, tu as utilisé quel boitier et optique (si j'ai les mêmes, j'arrête la photo 8) ) ?
Du
vieux matos : D700 (24x36 12 MPixels) + f/4.5~5.6 70-300VR à 70mm, f/11~1/100s, 560 ISO.
Pour ma part avec 20mpx, à 100% écran même photo faite à 200mm "physique" puis a 50mm recadré c'est quasi identique (quasi aucune différence) donc sur un tirage ce sera probablement invisible. Pour moi c'est tout bon
Citation de: Fuji_dans_la_joie le Août 23, 2024, 10:07:23Merci Raymondheru. Tes messages sont clairs. Plus il y a de pixels, mieux c'est pour cropper. :)
Pas exactement... Plus il y a de pixels "natifs" mieux c'est pour cropper, d'où ma petite réticence sur les logiciels d'agrandissement pour créer du pixel supplémentaire (je ne dépasserais pas le x1,5)
Citation de: ViB le Août 22, 2024, 22:07:00C'est pareil, non ?
Pas forcément : le zoom numérique peut s'accompagner d'une interpolation de l'image.
Le
crop, c'est juste un recadrage.
Sur le Q3, par exemple, plus on
croppe fort, plus la définition de l'image diminue.
Citation de: nicolas-p le Août 22, 2024, 16:30:13Vu la qualité des interpolation avec AI, c'est bluffant. Jusqu'au ×4 au moins. On peut tout à fait en 2024 envisager avec un simple 50mm avoir un 200mm avec la même quantité de pixel que le capteur initial et sans perte de qualité. J'en ai été surpris.
(Sauf bien sûr pour la profondeur de champ qui restera celle de l'objectif initial croppé).
Attention, quand même : la PdC n'a pas de réalité physique.
Pour prendre un exemple d'un
crop Dx réalisé sur un boitier 24x36, la PdC liée au
crop sera celle du format Dx (soit CdC = 0,02mm), alors que celle de l'image non
croppée sera celle du 24x36 (soit CdC = 0,03mm).
(si on raisonne pour un tirage de même dimension pour l'image entière ou
croppée)
Citation de: raymondheru le Août 22, 2024, 19:11:37Ce n'est pas vraiment un zoom numérique sur les Q, juste un crop.
J'avais testé avec un Q2 en jpg direct, le crop leica à 7MP pour du 75 mm contre un jpg toujours direct boitier de 35 mm en taille moindre puis agrandie et cropé.
Mais je trouvais le crop bien meilleur que la version gigapixel.
Je pense que ce genre de manip vaut le coup avec des boitiers à plus de 50MP pourra voir déjà de la matière dans les détails.
C'est le principe même d'un zoom numérique : faire un crop. ;)
Citation de: egtegt² le Août 26, 2024, 09:07:24C'est le principe même d'un zoom numérique : faire un crop. ;)
Beaucoup de gens font effectivement l'erreur de confondre les 2, mais ce n'est pas la même chose.
Le crop du Q est livré dans sa nouvelle dimension, moindre donc.
Un zoom numérique, lui va cropper et redimensionner de façon logicielle à la dimension initiale.
Citation de: raymondheru le Août 26, 2024, 09:14:16Beaucoup de gens font effectivement l'erreur de confondre les 2, mais ce n'est pas la même chose.
Le crop du Q est livré dans sa nouvelle dimension, moindre donc.
Un zoom numérique, lui va cropper et redimensionner de façon logicielle à la dimension initiale.
Et ça change quoi de redimensionner quand c'est fait avec une simple interpolation ?
Ben quand il y a interpolation c'est pas du Bio ! ;)
Citation de: egtegt² le Août 26, 2024, 09:23:34Et ça change quoi de redimensionner quand c'est fait avec une simple interpolation ?
Ben c'est juste pas la même chose.
Une "simple interpolation" est par nature une invention de pixel.
On peut préférer que le crop propose moins de définition mais avec tous ses pixels natifs.
Citation de: egtegt² le Août 26, 2024, 09:07:24C'est le principe même d'un zoom numérique : faire un crop. ;)
Pas vraiment.
Par exemple, sur mon premier APN (Coolpix 990), le zoom numérique interpole l'image.
Avec le zoom numérique, les données d'images du DTC sont traitées numériquement, la partie centrale de l'image s'agrandissant pour remplir le champ. A la différence du zoom optique, le zoom numérique n'augmente pas la quantité de détails visible dans l'image. Au contraire, les détails apparaissant lorsque le zoom est en bout de course sont agrandis, donnant ainsi une image légèrement " granuleuse ".Fort heureusement, sauf pour faire quelques essais, je n'ai pas utilisé cette fonctionnalité sur le 990. Une interpolation aujourd'hui avec Topaz Gigapixel Ai (par exemple) donnerait des résultats bien supérieurs à celle embarquée à l'époque dans l'APN, sorti il y a 24 ans...
Citation de: nicolas-p le Août 23, 2024, 10:51:49Pour ma part avec 20mpx, à 100% écran même photo faite à 200mm "physique" puis a 50mm recadré c'est quasi identique (quasi aucune différence) donc sur un tirage ce sera probablement invisible. Pour moi c'est tout bon
on peut savoir quels sont les modèles de ces 200 et 50, et à quelles ouvertures et vitesse ils ont été utilisés ?
Citation de: Verso92 le Août 26, 2024, 09:35:54Pas vraiment.
Par exemple, sur mon premier APN (Coolpix 990), le zoom numérique interpole l'image.
Avec le zoom numérique, les données d'images du DTC sont traitées numériquement, la partie centrale de l'image s'agrandissant pour remplir le champ. A la différence du zoom optique, le zoom numérique n'augmente pas la quantité de détails visible dans l'image. Au contraire, les détails apparaissant lorsque le zoom est en bout de course sont agrandis, donnant ainsi une image légèrement " granuleuse ".
Fort heureusement, sauf pour faire quelques essais, je n'ai pas utilisé cette fonctionnalité sur le 990. Une interpolation aujourd'hui avec Topaz Gigapixel Ai (par exemple) donnerait des résultats bien supérieurs à celle embarquée à l'époque dans l'APN, sorti il y a 24 ans...
Ca n'est qu'un simple interpolation, donc il n'y a pas de création d'information, il remplit juste les pixels intermédiaires avec la moyenne des pixels autour. Ca n'a rien à voir avec topaze qui lui recrée de l'information par IA.
Citation de: egtegt² le Août 28, 2024, 09:20:27Ca n'est qu'un simple interpolation, donc il n'y a pas de création d'information, il remplit juste les pixels intermédiaires avec la moyenne des pixels autour. Ca n'a rien à voir avec topaze qui lui recrée de l'information par IA.
Quand on crée un pixel qui n'était pas là avant, on crée forcément de l'information.
Et comme en plus il y a plusieurs méthodes d'interpolation, on est loin de la simple recette mathématique objective et unique.
Citation de: astrophoto le Août 28, 2024, 08:34:53on peut savoir quels sont les modèles de ces 200 et 50, et à quelles ouvertures et vitesse ils ont été utilisés ?
EOS R6+ RF 50 1.8 a f8 et ef 70-200 F4 a f8 en position 200mm: 2 photos faites sur pieds avec mêmes conditions lumineuses (peu importe donc la vitesse mais qui de mémoire était quasi identique):
le 200mm "natif" ou le 50 recadré en 200 + passage par le logiciel upscayl (Modèle Ultra Sharp utilisé) prises de vues raw et développées avec dxo en jpeg : résultats visuels à100% écran: quasi aucune différence.
test très simple a faire vous même.
le logiciel est libre (https://upscayl.org/).
il ne gère pas autre chose que du png ou jpeg et ne tient pas compte des profils colorimétriques: utiliser des jpeg srgb (test) .
en utilisation courante (photo autre que srgb): nécessité en suite de passer par un logiciel (affinity pour ma part) pour attribuer à la photo le bon profil colorimétrique : sinon couleurs à l'ouest...(c'est la limite de ce genre de logiciels "gratuit")
Citation de: raymondheru le Août 28, 2024, 09:45:05Quand on crée un pixel qui n'était pas là avant, on crée forcément de l'information.
Non, les algos déterministes se contentent d'étaler l'information existante.
Citation de: Nikojorj le Août 28, 2024, 09:50:34Non, les algos déterministes se contentent d'étaler l'information existante.
quand on "étale", on n'a plus la matière réellement saisie, donc on "crée" de l'information dans une case qui était vierge.
(et chaque méthode "l'étale" différemment de surcroit)
Pour le dire autrement, tu n'as pas plus d'informations sur ce qui se trouvait devant l'objectif qu'avant.
Citation de: Nikojorj le Août 28, 2024, 10:32:44Pour le dire autrement, tu n'as pas plus d'informations sur ce qui se trouvait devant l'objectif qu'avant.
Pour le dire autrement, si, sinon il n'y aurait pas de nouveaux pixels.
J'ai essayé d'agrandir cette image (du texte) avec AI.
C'est plus net, mais...
A mon avis, du texte est un bon test pour voir l'efficacité de l'AI.
Citation de: seba le Août 28, 2024, 11:50:20A mon avis, du texte est un bon test pour voir l'efficacité de l'AI.
l'IA de type aggrandissement d'image subit je pense un apprentissage des différentes polices de caractères, mais moins sûr qu'elle reconnaisse l'existence du mot en tant que signifiant.
C'est dommage car ça lui permettrait de faciliter la reconnaissance d'un long texte.
Citation de: seba le Août 28, 2024, 11:47:05J'ai essayé d'agrandir cette image (du texte) avec AI.
Les deux sont absolument pareils... Ils sont illisibles ;D >:D
Je n'ai pas de photos à vous montrer (je l'avais proposé en ouvrant cette discussion) parce qu'en fait mes tests ne me satisfont pas.
J'ai pris une photo à 100mm et 200mm (Tamron 18-300) à F8, sur trépied.
J'ai doublé la pixélisation de la 100mm
J'ai croppé à la taille que me donne le 200mm
La photo à 200mm reste tjs la meilleure
J'ai essayé :
Upscaly gratuit (https://youtu.be/H88FZbbTW8s?si=zwzIoVlnStRwCJGG)
Fais comme là avec MEGAPIXEL que je possède (https://youtu.be/jtV5yjstABM?si=8I444JjwVQJaDkNg)
L'accentuation par lightroom
Une cuisine de tout
Je n'ai pas essayé PureRaw Dxo (agrandir la photo 100mm et débruiter et cropper, sans passer par une sur-pixellisation)
Par contre, le résultat à 1,5 est très bon. On peut donc agrandir (un peu) sans perte. C'est déja pas mal !!!
La reconnaissance de texte était jusqu'à récemment le gros point faible de Gigapixel, le résultat était quasimemt nul.
Ils y ont travaillé et depuis quelques mois c'est bien meilleur, mais encore en retrait par rapport à ce que l'AI fait par exemple sur la végétation des paysages, y compris recréer des nervures de feuilles d'arbres absentes sur l'original !
Citation de: Verso92 le Août 22, 2024, 21:54:16Sauf qu'avec le D850 (45 MPixels), je suis obligé de réduire la résolution pour m'aligner sur les 360 dpi de l'imprimante.
Et là, Photoshop CS6 fait très bien le job.
Alors après, pour des tirages A0, peut-être (là, je ne sais pas, n'en faisant jamais).
Gigapixel sait aussi réduire, il sait créer une taille finale de tirage exacte avec un paramètre PPI donné
Citation de: Fuji_dans_la_joie le Août 28, 2024, 18:46:52Les deux sont absolument pareils... Ils sont illisibles ;D >:D
Je n'ai pas de photos à vous montrer (je l'avais proposé en ouvrant cette discussion) parce qu'en fait mes tests ne me satisfont pas.
J'ai pris une photo à 100mm et 200mm (Tamron 18-300) à F8, sur trépied.
J'ai doublé la pixélisation de la 100mm
J'ai croppé à la taille que me donne le 200mm
La photo à 200mm reste tjs la meilleure
J'ai essayé :
Upscaly gratuit (https://youtu.be/H88FZbbTW8s?si=zwzIoVlnStRwCJGG)
Fais comme là avec MEGAPIXEL que je possède (https://youtu.be/jtV5yjstABM?si=8I444JjwVQJaDkNg)
L'accentuation par lightroom
Une cuisine de tout
Je n'ai pas essayé PureRaw Dxo (agrandir la photo 100mm et débruiter et cropper, sans passer par une sur-pixellisation)
Par contre, le résultat à 1,5 est très bon. On peut donc agrandir (un peu) sans perte. C'est déja pas mal !!!
Pour ma part cela reste nickel en x2 ( modele AI ultrasharp développé pour réduire les artefacts jpeg) et excellent jusqu'à x4 A faible iso.(<800)
Pas testé à haut iso mais avec dxo que j'utilise en général la réduction de bruit à haut ISO est tellement performante que ça ne devrait pas changer grand-chose.
Ne pas oublier que entre la vue 100 % écran et un tirage, la visibilité de la "différence" sera plus tenue.
Citation de: nicolas-p le Août 28, 2024, 09:46:08EOS R6+ RF 50 1.8 a f8 et ef 70-200 F4 a f8 en position 200mm: 2 photos faites sur pieds avec mêmes conditions lumineuses (peu importe donc la vitesse mais qui de mémoire était quasi identique):
le 200mm "natif" ou le 50 recadré en 200 + passage par le logiciel upscayl (Modèle Ultra Sharp utilisé) prises de vues raw et développées avec dxo en jpeg : résultats visuels à100% écran: quasi aucune différence.
Pourtant la pdc devait être beaucoup plus grande que l'image au 50 mm, non ?
Citation de: raymondheru le Août 28, 2024, 09:56:52quand on "étale", on n'a plus la matière réellement saisie, donc on "crée" de l'information dans une case qui était vierge.
(et chaque méthode "l'étale" différemment de surcroit)
Par interpolation on crée des données, mais pas d'information. Une donnée contient de l'information uniquement si le fait de connaître sa valeur supprime une incertitude.
J'ai rendu deux dissertations de philo dans le trimestre, de même coefficient. Avant de recevoir mes notes, je suis dans l'incertitude totale. Quand j'apprends que j'ai eu 8 et 12, je reçois donc de l'information (levée d'une incertitude).
Mais quand je lis la moyenne 10 sur mon bulletin, c'est une nouvelle donnée dans une nouvelle case, mais ça n'apporte aucune information (il n'y avait aucune incertitude à ce sujet, en supposant que le prof sache calculer la moyenne de deux nombres).
Je pars d'une image ayant une résolution donnée. Dès que l'on a choisi une méthode d'interpolation, la valeur calculée par cette méthode pour tout nouveau pixel est entièrement déterminée par les pixels d'origine, avant même de faire le calcul. La connaissance de cette nouvelle valeur ne supprime donc aucune incertitude, et par conséquent elle ne contient aucune information.
Citation de: jenga le Août 28, 2024, 23:00:26Je pars d'une image ayant une résolution donnée.
Lire, bien sûr,
définition.
Citation de: jenga le Août 28, 2024, 23:00:26Une donnée contient de l'information uniquement si le fait de connaître sa valeur supprime une incertitude.
Merci de l'expliquer plus clairement que moi! ;)
Citation de: jenga le Août 28, 2024, 23:00:26Par interpolation on crée des données, mais pas d'information. Une donnée contient de l'information uniquement si le fait de connaître sa valeur supprime une incertitude.
Vous développez un argument en vous basant sur un postulat faux.
Ça ne peut donc pas s'entendre.
Une donnée colorimétrique , par exemple RVB, contient tout à fait une information de couleur.
Le nouveau pixel créé par calcul (interpolation ) contient donc évidemment une information sur sa couleur.
Qu'il soit le résultat d'une moyenne n'y change rien.
Et on ne peut en aucun cas dire que cette information est celle qu'aurait capté réellement le capteur.
Sur ça je suis d'accord avec vous, l'interpolation est un creuset d'incertitude par nature.
Ce que l'on cherche à éviter quand on veut capter une réalité avec fidélité.
Citation de: raymondheru le Août 28, 2024, 23:15:33Une donnée colorimétrique , par exemple RVB, contient tout à fait une information de couleur.
Pas au sens de Shannon non, celui qui nous intéresse.
Citation de: raymondheru le Août 28, 2024, 23:15:33Une donnée colorimétrique , par exemple RVB, contient tout à fait une information de couleur.
Pas d'
information au sens strict.
Pour un capteur Bayer, il s'agit d'interpolation pour deux couleurs sur trois pour un pixel.
L'interpolation, on en revient toujours là...
Citation de: Nikojorj le Août 28, 2024, 23:38:43Pas au sens de Shannon non, celui qui nous intéresse.
Dans ce cas on va tomber d'accord sans disserter sur Shannon.
Je valide tout :
L'interpolation crée un pixel "sans information", et " ne supprime aucune incertitude".
Deux éléments parfaitement rédhibitoires donc quand on veut capturer fidèlement une scène, me semble-t-il...
Alors là d'accord! ;)
Citation de: nicolas-p le Août 23, 2024, 10:51:49Pour ma part avec 20mpx, à 100% écran même photo faite à 200mm "physique" puis a 50mm recadré c'est quasi identique (quasi aucune différence) donc sur un tirage ce sera probablement invisible. Pour moi c'est tout bon
Ca me semble plus que douteux, d'autant que tu ne montres aucune image.
Voila un crop de l'image originale.
Le même crop réduit 4x (même chose qu'entre 200mm et 50mm).
Et cette dernière image agrandie 4x avec le moins mauvais upscaler AI en ligne que j'ai trouvé après 4 ou 5 essais.
On est très loin de retrouver la qualité de l'image originale.
Citation de: seba le Août 29, 2024, 07:25:42Et cette dernière image agrandie 4x avec le moins mauvais upscaler AI en ligne que j'ai trouvé après 4 ou 5 essais.
On est très loin de retrouver la qualité de l'image originale.
Effectivement vous avez parfaitement raison, je n'ai montré aucune image qui puisse montrer cela car je n'ai pas actuellement mon ordinateur pour le faire.
Je n'ai fait l'essai que sur des photos de paysage ou macro sans aucune "personne humaine" , visage etc...ce qui peut peut-être expliquer le fait que j'ai de meilleurs résultats que ce que vous montrez.
pour ma part le but est de pouvoir partir avec un 24-105 en promenade principalement pour du paysage ou urbain tout en ayant la possibilité d'avoir un équivalent 24-200 sans utiliser un autre objectif. Pour ma part après plusieurs essais le but est atteint.
Citation de: nicolas-p le Août 23, 2024, 10:51:49Pour ma part avec 20mpx, à 100% écran même photo faite à 200mm "physique" puis a 50mm recadré c'est quasi identique (quasi aucune différence) donc sur un tirage ce sera probablement invisible. Pour moi c'est tout bon
Il ne faut pas exagérer, quand même...
Prenons par exemple une photo faite à 24mm, que voici en vue réduite pour être vue ici :
Et voici un crop 100% de cette photo :
Je fais un crop dans l'image, pour arriver à ~50mm.
Je passe donc d'une image de 5 504 x 5 504 pixels à ~1 376 x 1 376 pixels (soit l'équivalent, environ, d'un 50mm).
Ensuite, je la passe dans Topaz Gigapixel Ai, en x4.
Voici cette image, en vue réduite :
Et le crop 100% de cette image interpolée x4.
Même si ça peut faire illusion en image Web, je suis loin, quand même, de ce que donnerait une PdV avec un 50mm visualisée à 100%...
Citation de: Verso92 le Août 29, 2024, 10:08:05Et le crop 100% de cette image interpolée x4.
Même si ça peut faire illusion en image Web, je suis loin, quand même, de ce que donnerait une PdV avec un 50mm visualisée à 100%...
Cette conclusion me semblait évidente dès le départ. Tout aussi évident est le fait que c'est néanmoins meilleur que si tu avais fait du zoom numérique en te contentant d'une interpolation basique.
Citation de: egtegt² le Août 29, 2024, 10:12:16Cette conclusion me semblait évidente dès le départ. Tout aussi évident est le fait que c'est néanmoins meilleur que si tu avais fait du zoom numérique en te contentant d'une interpolation basique.
Oui, bien sûr.
Il faut utiliser les outils dont on dispose avec Parcimonie (où n'importe quelle jeune femme de bonne compagnie).
Après, c'est l'avantage d'utiliser des boitiers "haute def", aussi . Avec les D8x0, j'ai quand même de la marge quand je sors mes carrés en A3 (l'image fait moins de 30x30cm) : je peux recadrer (raisonnablement) dans mes images, le cas échéant.
Citation de: egtegt² le Août 29, 2024, 10:12:16Cette conclusion me semblait évidente dès le départ. Tout aussi évident est le fait que c'est néanmoins meilleur que si tu avais fait du zoom numérique en te contentant d'une interpolation basique.
meilleure, mais à quel point de vue ? Des détails visibles sur la photo j'imagine (je préfère ne pas utiliser le mot "information" :D ). Mais que valent ces détails supplémentaires ?
Dans ma compréhension (limitée) de l'IA, celle-ci se base sur l'expérience de milliers de photos (pillées sur internet ? mais c'est un autre débat) pour « compléter » l'image avec des choses supplémentaires. Mais de la même manière qu'il n'y a pas d'argent magique, il n'y a pas d'information magique : si elle n'a pas été enregistrée dans l'image d'origine, sachant que l'IA n'est pas une boule de cristal, que vaut cette « information » ? Ce qui est rajouté n'est pas réel, ce serait donc quelque chose de « possible » ou « probable », imaginé à partir d'une base de connaissances et/ou d'autres photos ?
Si on regarde attentivement l'exemple de seba, on y voit des choses intéressantes. Pour le personnage de dos au centre, sur l'image réduite on voit quand même qu'il y a une tête et un tronc distincts, alors qu'après IA on a une espèce de truc bizarre d'un seul bloc, comme une grande chevelure qui descendrait jusqu'à la taille. Sur la personne de profil en bas à droite avec casquette, après IA il faut déjà arriver à retrouver où se trouve la tête ! Le personnage juste derrière elle, qui a des lunettes noires, se transforme avec une grosse tête et des lunettes bizarres !
Supposons que ces personnages soient un peu plus détaillés mais pas assez pour distinguer la couleur des yeux, qu'est-ce que l'IA va faire ? Mettre une couleur au hasard ? Il y a des cas où compléter une texture de feuillage avec quelque chose de vraisemblable ne me choque pas. Mais s'il s'agit d'une photo d'un château, est-ce que l'IA va me rajouter des détails qui n'existent pas (ex : des structures dans les fenêtres, des créneaux, des tuiles sur le toit) ? Si c'est un insecte, est-ce qu'elle va me rajouter des détails qui n'existent pas ? Des poils en plus aux pattes des mouches ? Des yeux supplémentaires aux araignées ? Quand je regarde une photo, je peux admirer le coup d'œil et la technique du photographe, mais je peux aussi admirer les prouesses d'un architecte ou la créativité de la nature, et dans ce cas je veux savoir si ce que je vois est réel ou comporte pour partie des choses qui n'existent pas !
J'ai l'impression qu'on entre dans une zone grise où on va voir de plus en plus des choses qui paraissent jolies et vraisemblables, sans savoir ce qui est du lard ou du cochon... ???
Citation de: astrophoto le Août 29, 2024, 10:55:49meilleure, mais à quel point de vue ? Des détails visibles sur la photo j'imagine (je préfère ne pas utiliser le mot "information" :D ). Mais que valent ces détails supplémentaires ?
Dans ma compréhension (limitée) de l'IA, celle-ci se base sur l'expérience de milliers de photos (pillées sur internet ? mais c'est un autre débat) pour « compléter » l'image avec des choses supplémentaires. Mais de la même manière qu'il n'y a pas d'argent magique, il n'y a pas d'information magique : si elle n'a pas été enregistrée dans l'image d'origine, sachant que l'IA n'est pas une boule de cristal, que vaut cette « information » ? Ce qui est rajouté n'est pas réel, ce serait donc quelque chose de « possible » ou « probable », imaginé à partir d'une base de connaissances et/ou d'autres photos ?
Si on regarde attentivement l'exemple de seba, on y voit des choses intéressantes. Pour le personnage de dos au centre, sur l'image réduite on voit quand même qu'il y a une tête et un tronc distincts, alors qu'après IA on a une espèce de truc bizarre d'un seul bloc, comme une grande chevelure qui descendrait jusqu'à la taille. Sur la personne de profil en bas à droite avec casquette, après IA il faut déjà arriver à retrouver où se trouve la tête ! Le personnage juste derrière elle, qui a des lunettes noires, se transforme avec une grosse tête et des lunettes bizarres !
Supposons que ces personnages soient un peu plus détaillés mais pas assez pour distinguer la couleur des yeux, qu'est-ce que l'IA va faire ? Mettre une couleur au hasard ? Il y a des cas où compléter une texture de feuillage avec quelque chose de vraisemblable ne me choque pas. Mais s'il s'agit d'une photo d'un château, est-ce que l'IA va me rajouter des détails qui n'existent pas (ex : des structures dans les fenêtres, des créneaux, des tuiles sur le toit) ? Si c'est un insecte, est-ce qu'elle va me rajouter des détails qui n'existent pas ? Des poils en plus aux pattes des mouches ? Des yeux supplémentaires aux araignées ? Quand je regarde une photo, je peux admirer le coup d'œil et la technique du photographe, mais je peux aussi admirer les prouesses d'un architecte ou la créativité de la nature, et dans ce cas je veux savoir si ce que je vois est réel ou comporte pour partie des choses qui n'existent pas !
J'ai l'impression qu'on entre dans une zone grise où on va voir de plus en plus des choses qui paraissent jolies et vraisemblables, sans savoir ce qui est du lard ou du cochon... ???
C'est une question de mesure, quand tu agrandis de façon excessive, l'IA invente des tas d'éléments, parfois jusqu'à créer des artefacts ou comme tu l'indiques inventer des yeux qui n'ont pas grand chose à voir avec l'original. Pour moi c'est utile si tu as une photo correcte à la base et que tu veux l'imprimer en grand.
J'ai fait l'exercice récemment, quelqu'un m'a donné une photo d'une personne photographiée avec 2 autres (avec un APN 24 Mpixels) en me demandant un recadrage assez important pour n'avoir que cette personne mais en format A4. Je l'ai agrandie avec TOPAZ et le résultat était parfait pour l'usage. Mais à la base j'avais une photo propre imprimable en format 10x13 correctement, pas une vignette où on ne reconnaissait pas la personne. Il n'y a pas de miracle.
Citation de: egtegt² le Août 29, 2024, 15:45:32Je l'ai agrandie avec TOPAZ et le résultat était parfait pour l'usage. Mais à la base j'avais une photo propre imprimable en format 10x13 correctement, [...]
Est-ce que tu as été jusqu'à tenter d'imprimer le recadrage de départ en A4 (ça devait tomber à 120/150dpi j'imagine?)?
Citation de: raymondheru le Août 28, 2024, 23:15:33Vous développez un argument en vous basant sur un postulat faux.
Discussion intéressante.
Heureusement, cette définition de l'information (de façon informelle: ce qui réduit une incertitude) n'est pas mienne ;D
On peut bien sûr trouver d'autres définitions pour "information", mais comme le sujet concerne les mathématiques et plus précisément le traitement du signal, il me semble qu'utiliser la définition donnée par le grand bonhomme du domaine peut se justifier.
Citation de: raymondheru le Août 28, 2024, 23:15:33Ça ne peut donc pas s'entendre.
Une donnée colorimétrique , par exemple RVB, contient tout à fait une information de couleur.
Le nouveau pixel créé par calcul (interpolation ) contient donc évidemment une information sur sa couleur.
C'est exact, mais il s'agit de la même information que celle contenue dans les pixels de départ. Il n'y a pas de création d'information. Un calcul déterministe ne peut pas en créer, il ne peut que la présenter différemment.
Si je parle d'un carré et que je précise "2 cm de côté", je donne une information.
Si je calcule "de surface 4 cm2", la surface de 4cm2 est aussi une information mais c'est la même que précédemment.
Citation de: jenga le Août 29, 2024, 20:37:57Si je parle d'un carré et que je précise "2 cm de côté", je donne une information.
Si je calcule "de surface 4 cm2", la surface de 4cm2 est aussi une information mais c'est la même que précédemment.
A condition que les quatre côtés du carré soient égaux.
Tu veux dire, à condition qu'il ait 4 côtés?
Un géographe, un ingénieur et un mathématicien sont dans l'Eurostar et sortent du tunnel sous la Manche côté Brit. Ils voient paître un mouton, noir.
Le géographe s'exclame : "Ça alors, en Angleterre les moutons sont noirs!
L'ingénieur le reprend : "Non, on peut juste dire qu'en Angleterre au moins un mouton est noir".
Le mathématicien reprend l'ingénieur : "Non, on peut juste dire qu'il y a au moins un mouton dont au moins un côté est noir".
Citation de: Nikojorj le Août 29, 2024, 16:01:06Est-ce que tu as été jusqu'à tenter d'imprimer le recadrage de départ en A4 (ça devait tomber à 120/150dpi j'imagine?)?
J'avoue que non, je me suis contenté de l'afficher à l'écran au format A4 environ, mais ça se voyait déjà assez bien que la résolution était légère.
Ce qui me gêne un peu avec Mexapixel, c'est l'évolution ultra rapide du logiciel qui fait que l'on doit réapprendre sans cesse à l'utiliser, avec sans cesse de nouveaux modes/modèles, fonctions, de nouvelles fonctions beta, faut suivre :D
Citation de: nicolas-p le Août 22, 2024, 16:30:13Vu la qualité des interpolation avec AI, c'est bluffant. Jusqu'au ×4 au moins.
Il ne s'agit pas d'interpolation ici mais d'extrapolation. Nuance qui a son importance.
L'interpolation était ce que faisaient les logiciels, avant, avec l'agrandissement. Ils se servaient de l'information présente sur les pixels existants pour remplir les pixels manquants.
Les logiciels avec IA n'interpolent plus, ils imaginent l'information manquante à partir des banques de données qu'ils ont explorées pour leur apprentissage. C'est de l'extrapolation pure.
Citation de: Fred_76 le Septembre 29, 2024, 17:25:03Il ne s'agit pas d'interpolation ici mais d'extrapolation. Nuance qui a son importance.
L'interpolation était ce que faisaient les logiciels, avant, avec l'agrandissement. Ils se servaient de l'information présente sur les pixels existants pour remplir les pixels manquants.
Les logiciels avec IA n'interpolent plus, ils imaginent l'information manquante à partir des banques de données qu'ils ont explorées pour leur apprentissage. C'est de l'extrapolation pure.
Je ne suis pas tout à fait d'accord avec ton interprétation, pour moi interpolation c'est quand tu combles les trous entre des valeurs existantes, extrapolation c'est quand tu essaye de deviner ce qui va au delà. Quand tu ajoutes une bande au bord d'une photo pour l'agrandir, c'est de l'extrapolation, quand tu ajoute de l'information entre les pixels existants avec des algorithmes, même qui imaginent l'information, c'est de l'interpolation.
Citation de: Verso92 le Août 24, 2024, 08:48:13Attention, quand même : la PdC n'a pas de réalité physique.
Bizarre, bizarre. J'avais expliqué ceci ici et une grande partie des forumeurs ont rétorqué que c'était faux. Toutefois, une minorité avait compris (tant mieux pour eux !).
Un changement d'objectif (à diaphragme égal) ne change pas la netteté des différents plans. Cela revient au même que le crop.
Citation de: ChatOuille le Septembre 30, 2024, 00:16:43Bizarre, bizarre. J'avais expliqué ceci ici et une grande partie des forumeurs ont rétorqué que c'était faux. Toutefois, une minorité avait compris (tant mieux pour eux !).
Un changement d'objectif (à diaphragme égal) ne change pas la netteté des différents plans. Cela revient au même que le crop.
Pas compris...
(dommage que tu aies tronqué le message cité)
Citation de: Verso92 le Septembre 30, 2024, 00:33:56Pas compris...
(dommage que tu aies tronqué le message cité)
Chatouille fait référence au fil sur la profondeur de champ. Il se base sur le fait que le CdC après crop n'est plus le même. Mais, évidemment, quand on regarde une photo, on ne la "croppe" pas.