Comment annuler le bougé important d'une photo

Démarré par jmp76, Décembre 10, 2010, 16:50:05

« précédent - suivant »

jmp76

Bonjour à tous,

Je me suis amusé ces derniers jours à annuler le bougé complexe d'une photo (non linéaire, et vitesse variable), grâce à des traitements mathématiques (déconvolution)
Je vous invite à regarder les résultats, tout à fait satisfaisants, de la méthode (pas de maths! et beaucoup d'explications et de photos montrant les étapes de la méthode):

http://pichotjm.free.fr/Photos/Traitement/Deconv/Deconv.php
et
http://pichotjm.free.fr/Photos/Traitement/Deconv/Deconv2.php (la fin)

Il s'agit bien du traitement d'une image réelle qui trainait sur les NGs (pas de simulation, et ce n'est pas ma photo)

Bonne balade dans les espaces de Fourier! Vous ne serez pas déçus!

Et puis, dites-moi ce que vous en pensez.

JMP

CLeC

Intéressement probablement  :) , mais je n'ai pas fait un doctorat de maths.  ;)

chelmimage

Je trouve que le résultat est encourageant..Bel outil les maths! j'allais oublier la tête qui va avec!!
pour enregistrer le bougé, c'est très simple..il faut attendre qu'il pleuve..Bon je plaisante..
Voici quelques années je m'étais trouvé avec des photos où on voyait qu'un capteur, avec stabilisation, avait un petit tressaillement..Voir ici>>>
http://www.chassimages.com/forum/index.php/topic,2881.msg52091.html#msg52091
Et on voit le bougé qui atteint au max 2 pix peut être pendant un temps court relativement à l'exposition totale sans bougé.
C'est resté sans suite à cause du peu d'importance de la perturbation dans la netteté de l'image. Et puis les conditions ne sont pas toujours favorables à la visibilité des gouttes (pour faire des tests de stabilisateurs bien sur).

rsp

Très intéressant : on aura bientôt des appareils sans stabilisateur et sans flou ?

chelmimage

Citation de: rsp le Décembre 10, 2010, 17:52:43
Très intéressant : on aura bientôt des appareils sans stabilisateur et sans flou ?
Suffirait-il de conserver les mesureurs (gyros, accéléros) sur l'appareil pour enregistrer le bougé et de reporter le traitement après coup par le logiciel? On gagne le système de stabilisation par platine mobile..

davidt

Très intéressant!
Mais ta conclusion l'est tout autant :
"J'ai plein d'autres idées pour améliorer le procédé, mais est-ce bien utile? Il suffit de prendre des photos non bougées!"  ;)

helveto

Tu devrais vendre ton truc à DxO ou a Toshop, cela ferait un plugin intéressant !

Amitiés

jmp76

Citationmais je n'ai pas fait un doctorat de maths.

Moi non plus! J'aurai pu le faire, mais aligner des formules pour le plaisir n'était pas mon truc.
Mais j'ai j'ai toujours été intéressé par les concepts, et surtout leurs représentations dans mon esprit. et d'en tirer profit intellectuellement.

jmp76

Citationpour enregistrer le bougé, c'est très simple..il faut attendre qu'il pleuve..

Le problème de la pluie est plus compliqué, car la déformation n'est pas la même pour les gouttes proches et les plus éloignées.
Mon essai part du principe que le bougé est identique sur toutes les parties de l'image.

Ce problème de la pluie peut aussi se rapprocher du flou qui dépend de la distance.

jmp76

CitationTu devrais vendre ton truc à DxO ou a Toshop, cela ferait un plugin intéressant !

C'est la deuxième personne qui me dit cela. Mais c'est une idée qui traine dans ma tête depuis 45 ans! Tous les ingénieurs ou scientifiques ont appris cela pendant leurs études. Je n'ai jamais compris pourquoi cette technique a toujours donné de mauvais résultats. Comme toujours, il a fallu que je le fasse pour démontrer le contraire!   ;-)   M... c'est quand même pas mon métier!  ;-)
Il va falloir un jour que je regarde ce que font DxO et PhotoShop...

Cordialement

Bob Léponge

Citation de: jmp76 le Décembre 11, 2010, 11:45:26
Il va falloir un jour que je regarde ce que font DxO et PhotoShop...

Pour ce même probleme? Rien.
C'est pour ça qu'en effet il serai intéressant que tu le propose. Tous les ingénieurs et scientifiques qui on appris ça n'ont peut-être pas jugé utile de mettre cette technique
en application et à disposition de tout le monde.  :-\

astrophoto

#11
Faudrait tout de même pas trop prendre les ingénieurs et les scientifiques pour des billes non plus  :D

Ne réinventons pas l'eau tiède  ;)  Les déconvolutions et restaurations d'images, ça fait des décennies que ça existe, il y a bien eu (au moins) un milliard de thèses et de papiers là-dessus. Sur le papier, ça marche. En pratique ça marchotte aussi et ça peut sauver des situations un peu désespérées, mais il y a de très lourds inconvénients : le rapport signal sur bruit est considérablement dégradé (le bruit monte beaucoup, du coup certains font du binning pour cacher la misère  ;)), et des artefacts divers et variés. Un peu comme une accentuation sur laquelle on aurait eu la main (très) lourde.

Les ingénieurs et les scientifiques de la NASA, quand ils ont eu le choix entre 1/ lancer un télescope dans l'espace et 2/ continuer à utiliser des télescopes au sol (considérablement gênés par la turbulence atmosphérique) et d'appliquer sur leurs images des traitements de déconvolution, ils ont choisi...de lancer Hubble dans l'espace, même si c'était incomparablement plus cher. Pourtant, c'est pas les moyens informatiques et scientifiques qui manquent à la NASA, c'est autre chose que Photochiotte et Dxo  :D. Et quand le même Hubble, une fois lancé s'est révélé être myope, ils ont eu le choix entre 1/ aller le réparer et 2/ utiliser ses images telles quelles et appliquer des restaurations dessus (facile, le défaut optique était parfaitement modélisé). Et ils ont choisi...d'aller le réparer (et à plus d'un milliard de dollars le lancement de navette, il fallait que ça vaille le coup). Aujourd'hui, les grands télescopes au sol commencent à mettre en oeuvre les techniques d'optique adaptative, qui permettent de compenser en partie des dégâts de la turbulence atmosphérique et qui consistent à "redresser" l'onde lumineuse avant qu'elle n'atteigne le capteur. C'est très compliqué, ça demande des moyens puissants au niveau optique, mécanique, électronique et informatique, mais au final c'est infiniment plus efficace que d'essayer de bidouiller les images avec des traitements de restauration.

A mon avis, les optiques série L et les stabilisateurs d'image ont encore de beaux jours devant eux...   ;)  Cela dit, l'expérience de l'auteur de ce fil est très instructive.
Thierry Legault
astrophoto.fr

astrophoto

Thierry Legault
astrophoto.fr

Pat91

Bonjour,

Citation de: helveto le Décembre 11, 2010, 10:37:10
Tu devrais vendre ton truc à DxO ou a Toshop, cela ferait un plugin intéressant !

Il existe déjà des plugins implémentant ces algorithmes (ou similaires) : le récent InFocus de chez Topaz ou bien le plus ancien Focus Magic. J'ai testé les deux sur des photos légèrement à moyennement floutées. Je nai pas testé Nik Software Sharpener Pro qui peut également être utilisé dans ce but (déflouter).

Dans certains cas, le résultat est quasi miraculeux. Dans d'autres, on ne voit pas la moindre amélioration. Il semble établi que plus la résolution de l'image est élevée et plus le paramètre rayon (au même sens que radius dans un processus d'accentuation) est grand, plus les calculs sont longs et compliqués (le nombre d'opérations croissant exponentiellement). InFocus donne des résultats spectaculaires sur des images en basse résolution (ce qui est d'ailleurs le cas pour les images exemple de leur page produit sur leur site) mais est pour le moment absolument inefficace sur des images en haute résolution. La seule chose qu'il fait, c'est de produire des artefacts grossiers. Focus Magic, quoique doté d'une interface utilisateur très "démodée", m'a paru plus efficace. Il accepte d'ailleurs un paramètre rayon de 20 pixels alors qu'InFocus est limité à 10. Ceci explique cela.

Dans tous les cas, ces produits ne peuvent être que des outils de dernier recours à utiliser quand on doit absolument récupérer une photo (ou une info sur une photo - comme un numéro de plaque automobile illisible - quelqu'un qui passerait vraiment très vite devant le radar par exemple :) ). Mais ça ne fonctionnera que dans des cas de figure bien précis.
Patrick

Lyr

Citation de: astrophoto le Décembre 11, 2010, 14:37:44
Faudrait tout de même pas trop prendre les ingénieurs et les scientifiques pour des billes non plus  :D

Ne réinventons pas l'eau tiède  ;)  Les déconvolutions et restaurations d'images, ça fait des décennies que ça existe, il y a bien eu (au moins) un milliard de thèses et de papiers là-dessus. Sur le papier, ça marche. En pratique ça marchotte aussi et ça peut sauver des situations un peu désespérées, mais il y a de très lourds inconvénients : le rapport signal sur bruit est considérablement dégradé (le bruit monte beaucoup, du coup certains font du binning pour cacher la misère  ;)), et des artefacts divers et variés. Un peu comme une accentuation sur laquelle on aurait eu la main (très) lourde.

Les ingénieurs et les scientifiques de la NASA, quand ils ont eu le choix entre 1/ lancer un télescope dans l'espace et 2/ continuer à utiliser des télescopes au sol (considérablement gênés par la turbulence atmosphérique) et d'appliquer sur leurs images des traitements de déconvolution, ils ont choisi...de lancer Hubble dans l'espace, même si c'était incomparablement plus cher. Pourtant, c'est pas les moyens informatiques et scientifiques qui manquent à la NASA, c'est autre chose que Photochiotte et Dxo  :D. Et quand le même Hubble, une fois lancé s'est révélé être myope, ils ont eu le choix entre 1/ aller le réparer et 2/ utiliser ses images telles quelles et appliquer des restaurations dessus (facile, le défaut optique était parfaitement modélisé). Et ils ont choisi...d'aller le réparer (et à plus d'un milliard de dollars le lancement de navette, il fallait que ça vaille le coup). Aujourd'hui, les grands télescopes au sol commencent à mettre en oeuvre les techniques d'optique adaptative, qui permettent de compenser en partie des dégâts de la turbulence atmosphérique et qui consistent à "redresser" l'onde lumineuse avant qu'elle n'atteigne le capteur. C'est très compliqué, ça demande des moyens puissants au niveau optique, mécanique, électronique et informatique, mais au final c'est infiniment plus efficace que d'essayer de bidouiller les images avec des traitements de restauration.

A mon avis, les optiques série L et les stabilisateurs d'image ont encore de beaux jours devant eux...   ;)  Cela dit, l'expérience de l'auteur de ce fil est très instructive.

+1, le sujet est très bien connu, c'est de l'ordre des études, genre exercice fait pendant les cours.
Les complications sont dans la capacité à trouver le mouvement qui a généré le flou, gérer les effets de bord qui vont inévitablement apparaître, etc.

C'est le genre de soupe que l'on peut appliquer au cas par cas, mais modéliser un truc autonome qui puisse prendre n'importe quelle image ayant un flou de bougé pour le faire en tout auto ou presque, c'est là que ça se complique (enfin, à priori, j'ai pas approfondi depuis).

Sinon, Hubble, ils ont quand même employé des méthodes numériques pendant des années avant les réparations.

rsp

D'où ce que je suggérais : on enregistre les mouvements au lieu de les compenser en temps réel puis on les corrige en temps différé. Avantage immense : on n'est pas limité par les performances du système de compensation.
C'est toute la différence avec une modélisation des perturbations : on mesure leur valeur pendant la durée d'exposition.
Sur que c'est déjà dans les cartons de certains si ça peut marcher, voire même peut-être en application dans certains appareils qui ne le disent pas. Après tout ils font aussi du HDR en une seule prise de vue "triplée" sur certains compacts : comme le sujet a pu bouger entre la première et la dernière, peut être utilisent-ils ce genre de technique ?

Lyr

Ou on garde la stabilisation telle qu'elle est actuellement, mais le senseur de mouvement enregistre également les mouvements "non compensés".
Une règle générale reste de partir de l'image la plus propre possible, donc autant profiter des technologies existant déjà et y ajouter la déconvolution en prime cadeau.

johel

les derniers papiers sur ce sujet montrent effectivement qu'à partir de 2 (minimum) images bougées on arrive à en reconstituer une bien plus nette qu'avec une simple deconvolution.
donc si vous savez que vous allez bouger, shootez en rafale...
pour ceux qui aiment la lecture :
http://www.visionbib.com/bibliography/motion-i776.html

astrophoto

Citation de: Lyr le Décembre 11, 2010, 17:24:51
Sinon, Hubble, ils ont quand même employé des méthodes numériques pendant des années avant les réparations.

oui : faute de merles on mange des grives !  ;)   Il a fallu 3 ans pour étudier le système correcteur (une optique complexe à placer à l'intérieur du télescope, et chargée de corriger le faisceau lumineux avant qu'il atteigne le capteur : après, il est trop tard) et préparer la mission de navette spatiale de réparation. En attendant, le traitement d'image était la seule solution, et il est bien connu que les images de planètes données à l'époque par Hubble, même avec leur arsenal de déconvolutions, étaient quasiment du niveau de ce qu'un amateur chevronné pouvait obtenir avec un télescope de 300mm (8 fois moins que Hubble) et bien moins bonnes que ce que les mêmes amateurs obtiennent aujourd'hui avec le même instrument. Alors que maintenant, avec son optique correctrice, il est très très loin devant.

Citation de: rsp le Décembre 11, 2010, 17:42:45
D'où ce que je suggérais : on enregistre les mouvements au lieu de les compenser en temps réel puis on les corrige en temps différé. Avantage immense : on n'est pas limité par les performances du système de compensation.

ça ne change pas grand chose, il reste les gros inconvénients : bruit, artefacts (et grosse puissance de calcul nécessaire). Et puis quitte à mesurer des mouvements, autant les corriger tout de suite : encore une fois, c'est infiniment plus efficace de corriger en optique qu'en informatique. Et c'est bien ce qui est fait dans la réalité : si ça marchait aussi bien, il y a longtemps que les corrections soft auraient remplacé les stabilisateurs.

Je dois avouer que j'ai quand même vu une fois un truc hallucinant, une image toute petite et complètement floue rendue toute nette et super détaillée, d'un clic de souris. Je ne me souviens plus quel logiciel avait été utilisé, mais ça doit pouvoir se retrouver : c'était à la télé, dans une série avec des experts. Sont forts les américains, quand même !   :D

Citation de: rsp le Décembre 11, 2010, 17:42:45
Sur que c'est déjà dans les cartons de certains si ça peut marcher, voire même peut-être en application dans certains appareils qui ne le disent pas. Après tout ils font aussi du HDR en une seule prise de vue "triplée" sur certains compacts : comme le sujet a pu bouger entre la première et la dernière, peut être utilisent-ils ce genre de technique ?

penser qu'il y aurait dans certains appareils des dispositifs comme ça, à l'insu de toute le monde...on nage en pleine science-fiction !    :D
Thierry Legault
astrophoto.fr

Pat91

Citation de: johel le Décembre 11, 2010, 18:56:05
les derniers papiers sur ce sujet montrent effectivement qu'à partir de 2 (minimum) images bougées on arrive à en reconstituer une bien plus nette qu'avec une simple deconvolution.

Dans ce domaine, voir les possibilités de PhotoAcute.
Patrick

rsp

Citation de: astrophoto le Décembre 11, 2010, 23:55:23
penser qu'il y aurait dans certains appareils des dispositifs comme ça, à l'insu de toute le monde...on nage en pleine science-fiction !    :D

Ben quoi, un peu de science fiction, ça ne peut pas faire de mal. Et par ailleurs, quelqu'un a démontré dans un autre fil que Canpn a planqué des données dans les fichiers RAW pour réaliser le mode PRHL. Dans les entreprises où nous travaillons (presque la même toi et moi), il nous arrive parfois de réaliser des choses qui paraitraient impossibles à certains.