Algorithme augmentation définition par répétition de la prise de vue

Démarré par FroggySeven, Septembre 27, 2017, 13:59:03

« précédent - suivant »

FroggySeven

Si mes souvenirs sont bons, certains boitiers Olympus possèdent cette option,
et grosso modo, à partir de mois d'une dizaine d'images on augmente de 25% la définition (on agmente de 50% le nombre de pixles)

L'idée est de "deviner" ce qu'il y a entre deux pixels grace à au léger décalage qui existe entre les différentes photos
(donc ça ne fonctionne que sur des sujets fixes ET il ne faut pas utiliser un pied, ou alors bouger à chaque fois).

Est-ce que quelqu'un connait l'algorithme (j'aimerais le programmer) ???

plaubel

Il faut upsampler à 200%, aligner  puis faire une moyenne.
Photoshop fait cela très bien ou alors ImageMagick + image-align

Franciscus Corvinus

je pense que c'est beaucoup plus subtil que ca. En faisant une moyenne la seule chose que tu vas faire c'est "adoucir" ton image plutot que de la rendre plus croustillante la ou il y a des détails a faire ressortir.

FroggySeven

Oui c'est peut-être plus subtil que ça...

Mais non, cet algorithme ne conduit pas au même résultat qu'un bête "sur-échantillonnage" à partir d'une seule image.

MERCI plaubel  :D  C'est l'idée que j'avais en tête, mais comme je n'étais pas sûr j'hésitais avant de me lancer.
Je vais tester (et peut-être comparer avec ce qu'un logiciel donne pour confirmer que ce n'est que ça).

Jean-Claude

Cette technique est aussi utilisée sur les smartphones (app. Hydra) ainsi mon iPhone de 12 Mpix fait des images de 36 Mpix.
Le problème est que le temps que la rafale de plus de 40 images soit faite, les sujets qui bougent sortent tout flou.

FroggySeven


Franciscus Corvinus

Citation de: FroggySeven le Septembre 27, 2017, 15:33:50
Mais non, cet algorithme ne conduit pas au même résultat qu'un bête "sur-échantillonnage" à partir d'une seule image.
On est d'accord, mais la méthode du moyennage ne va pas te donner plus de détails, elle pourra meme en faire disparaitre.

Prends le cas idéal ou tu photographies des lignes noires (0) et blanches (255) qui ont le bonheur de coincider avec la trame de ton capteur. Il va te restituer 100% de l'image originale, avec tout son contraste.

Maintenant du décale d'un demi pixel. L'image est uniformément grise (128).

Tu dédoubles et tu moyennes: tu auras une bande a 192, une bande a 128, une a 64, une a 128, etc. Tu as diminué le contraste par deux.

Evidemment tu peux voir le probleme d'un point de vue opposé: si ton image de départ était la deuxieme, tu as multiplié le contraste par l'infini, ce qui n'est pas si mal. Comme chaque cas a une chance sur deux de se produire (et tous les cas intermédiaires sur lesquels il faudrait intégrer), tu arrives en fait au meme résultat statistique: tu n'as pas crée d'information.

Ca peut etre tres utile pour éliminer le moiré. Mais ca n'est pas ce que tu veux.

Le vrai test serait de prendre des lignes deux fois plus fines que ta trame. Pourrais-tu les détecter? Sur une premiere image chaque pixel sera gris (128); décalé d'un demi pixel chaque pixel sera a nouveau gris (128). Donc tu n'as aucun moyen de créer plus d'information par le moyennage.

D'ou mon commentaire que c'est en fait beaucoup plus subtil que ca.

Jean-Claude

qui a dit que c'était un moyennage ?

on ne passe pas de 12 Mpix à 36 Mpix par moyennage  ::)

Je crois plutôt qu'ils mettent à profit le microbougé sur la rafale et en faire un genre de focus stacking, du moins sur les smartphones

Franciscus Corvinus

Citation de: Jean-Claude le Septembre 28, 2017, 06:59:27
qui a dit que c'était un moyennage ?
Bystegue et moule de rhum! C'est pas comme si c'était écrit dans la premiere réponse...

FroggySeven

 ;)

Citation de: Jean-Claude le Septembre 28, 2017, 06:59:27
1) on ne passe pas de 12 Mpix à 36 Mpix par moyennage  ::)
2) Je crois plutôt qu'ils mettent à profit le microbougé sur la rafale et en faire un genre de focus stacking, du moins sur les smartphones

1) Toute la question est là. J'aurais tendance à penser que si... malgré les arguments intéressants de Franciscus Corvinus
   
2) non non non ça n'a rien à voir avec une augmentation de la PdC, ça c'est sûr.

Jean-Claude

Citation de: FroggySeven le Septembre 28, 2017, 17:11:58
non non non ça n'a rien à voir avec une augmentation de la PdC, ça c'est sûr.

je n'ai pas dit cela, simplement qu'un algorithme genre focus stacking appliqué sur une série d'images à map fixe peut très bien prendre les détails les plus « perçants »  de chaque image shotée pour les appliquer à l'image résultante.

Ce n'est pas un moyennage mais plutot un cumul  :D

Franciscus Corvinus

C'est un peu dans ce sens que j'irais:
- detection de contour sur chaque image par filtre de sobel par exemple
- élimination du rcénelage et moiré par heuristique, encore sur chaque image
- comparaison des images entre elles pour combiner les contours par addition
- extension des "gaps" dans les contours par heuristique encore une fois
- remplissage des intervalles entre contours par couleurs choisies sur les images les plus discriminantes (i.e, celles ou les contours sont les plus forts)

C'est, je suis sur, un algorithme tres imparfait. Et pourtant d'une complexité déja bien trappue. A mon avis le sujet est un peu ambitieux pour une these de doctorat (je me fonde sur ce que faisais mes copains thésards quand j'étudiais le traitement d'image). Et pourtant c'est 3 ans a temps plein; alors un amateur sans acces a la recherche, le soir apres le boulot... Ca n'empeche pas d'essayer: chacun s'amuse avec ce qui le passionne et je comprends tres bien, pour des raisons évidentes, les gens passionnés par le traitement d'image. Mais il faut se faire une idée réaliste de la tache a accomplir et du résultat probable.

vob

Citation de: FroggySeven le Septembre 27, 2017, 13:59:03
Si mes souvenirs sont bons, certains boitiers Olympus possèdent cette option,
et grosso modo, à partir de mois d'une dizaine d'images on augmente de 25% la définition (on agmente de 50% le nombre de pixles)

L'idée est de "deviner" ce qu'il y a entre deux pixels grace à au léger décalage qui existe entre les différentes photos
(donc ça ne fonctionne que sur des sujets fixes ET il ne faut pas utiliser un pied, ou alors bouger à chaque fois).

Est-ce que quelqu'un connait l'algorithme (j'aimerais le programmer) ???


Ce ne serait pas cela tes souvenirs Olympus ?

https://www.dpreview.com/reviews/olympus-om-d-e-m5-ii/4

Dans ce cas il n'y a pas que des calculs, il faut aussi un positionnement très précis des l'images (décalages de pas d'un ou d'un demi pixel)
Ces  techno sont utilisées aussi chez Hasseblad pour la résolution spaciale et chez Pentax pour supprimer l'interpolation des couleurs
Ritax et Pencoh(pleins)

restoc

L'augmentation de définition ou de résolution par shift, existe depuis 30 ans dans diverses sciences ou applications des images des satellites qui peuvent repasser à la verticale du même endroit mais forcémment avec toujours un petit décalage qui va automatiquement faire le shift. Cà n'a pas été popularisé parce qu'en satellite le pb ce sont les nuages et le prix d'exploitation pour obtenir un jeu d'images ad hoc.
C'est utilisé aussi depuis encore plus longtemps sur les "images" sismiques en prospection pétrolière: au moins 45 ans!.

Il y a différentes techniques selon que l'on veut sortir un fichier à taille nominale ou un fichier de définition doublée.
La base algorithmique pour un travail de qualité  sans génération d'artefact et sans les pertes des réech en PPV, donc pas ce qu'on fait dans un boîtier, est une déconvolution suivi de différentes techniques de décorrélation.

C'est trés gourmand en puissance de calcul et bien sûr en exigences à la pdv  pour un travail de qualité.
En gros on essaye une fois ou deux pour s'amuser. Et comme il reste quand même des artefacts, visuellement en photo on n'est jamais trés satisfait.
Il y avait il y a qqs années un logiciel qui faisait çà à partir de fichiers tiff. Je ne sais pas s'il existe tjrs.



FroggySeven

#15
Un grand merci pour toutes ces infos, liens et autres réflexions !
La description du système Olympus ne correspond pas à ce que je crois ( ??? ) avoir vu ailleurs à main levée :
il s'agit ici d'un système à 8 expositions décalées très précisément, donc forcément ( ??? ) sur pied,
en lien étroit avce la notion de matrice de Bayer.

De mon côté j'ai fait un petit essai "in vitro" (plus facile, en particulier pour voir l'influence de différents paramètres) assez frappant :
1) sujet virtuel=mire 400x100 pixels                            3) 100 photos décallées (de 0 à 9 pixels) superposées (SANS interpolation)
                                                                                    (c'est pisseux mais pas plus qu'en 40x10, et infiniment plus détaillé/lisible)
2) première photo virtuelle 40x10 sans décallage          4) la même avec augmentation du contraste (Gimp)
   c'est crado, illisible, plein d'artefacts.                           (idyllique mais pas très réaliste, cf sujet très particulier)

Moralité : même sans interpolation au moment de passer les photos de 40x10 à 400x100(=super bourin  :P )
on gagne clairement en résolution avec un bête algorithme de moyennage.
...Mais évidemment, ça ne veut pas dire qu'il n'y a pas beaucoup plus efficace comme algorithme (cf posts précédents).

Je vais voir ce que ça donne in vitro avec une zolie interpolation, avec une vraie photo, puis dans la vraie vie.  

remico

Citation de: vob le Septembre 29, 2017, 20:37:12
Ce ne serait pas cela tes souvenirs Olympus ?

https://www.dpreview.com/reviews/olympus-om-d-e-m5-ii/4

Dans ce cas il n'y a pas que des calculs, il faut aussi un positionnement très précis des l'images (décalages de pas d'un ou d'un demi pixel)
Ces  techno sont utilisées aussi chez Hasseblad pour la résolution spaciale et chez Pentax pour supprimer l'interpolation des couleurs

Pour les boitiers récents Pentax il y a une fonction pixel-shift, celle-ci décale le capteur en 4 fois et permet d'avoir une image non-interpolée.

Pour le mode Haute résolution Olympus le décalage est plus fin et permet de détecter les transitions. Dans le cas où un pixel est à cheval sur une transition il fait la moyenne, s'il est décalé il va changer de valeur. Il y a aussi une allusion à l'utilisation de la déconvolution dans cet article (tout à fait en bas de page) :
http://www.imaging-resource.com/PRODS/olympus-e-m5-ii/olympus-e-m5-iiTECH2.HTM

FroggySeven