Ça arrache le slip quand même: https://bmild.github.io/rawnerf/ (https://bmild.github.io/rawnerf/) :P
Le fichier d'exemples raw.zip fait 20GB et demande un environnement python.
Impressionnant, c'est le moins qu'on puisse dire.
Ça va justifier la rafale de certains boîtiers, combinée à un bracketing de multiples paramètres...
Très impressionnant.
https://www.dpreview.com/news/6268499546/seeing-in-the-dark-google-researchers-use-ai-to-create-novel-hdr-views-from-noisy-raw-images pour qq détails en plus ; ça reste de l'invention de texture, j'ai peur.
Citation de: Nikojorj le Août 26, 2022, 18:57:51
https://www.dpreview.com/news/6268499546/seeing-in-the-dark-google-researchers-use-ai-to-create-novel-hdr-views-from-noisy-raw-images pour qq détails en plus ; ça reste de l'invention de texture, j'ai peur.
S'ils analysent 25 à 200 RAW de la même scène avec des paramètres variant un peu, dont l'angle de pdv, on peut penser qu'il y a matière à alimenter correctement un algorithme.
J'ai du mal à comprendre exactement à quoi sert l'AI en fait ; c'est vrai que si c'est pour permettre d'empiler des vues qui ne correspondent pas parfaitement entre elles, ça me semble plus utile que d'inventer des textures qui ne se voient pas, à mon goût.
De ce que j'ai compris, ça n'a rien d'un empilement. C'est l'analyse d'un grand nombre de vues de la même scène avec des variations sur les paramètres de pdv (exposition, mais aussi point de vue, mise au point) qui permet d'en proposer différentes interprétations.
Tu pourrais faire ces 200 pdv, puis choisir quels morceaux de quelles images tu vas détourer puis fusionner selon l'effet que tu veux obtenir. Là c'est une IA qui fait le boulot. Je pense qu'elle n'invente rien, elle utilise ce qui lui semble pertinent dans le gros paquet de pdv.
Je me gourre peut-être totalement...
:D