Quelle config Mac ou PC ?

Démarré par PBnet2, Août 10, 2022, 15:10:45

« précédent - suivant »

Nikojorj

Citation de: tenmangu81 le Septembre 21, 2022, 10:41:30
un tirage A2 (42x59,4 cm) imprimé à 300 dpi se regarde, dans les "meilleures" conditions, à une distance égale à sa diagonale, à savoir 73 cm.
Il faut savoir! Si on le regarde depuis la diagonale, la vielle règle qui sous-tend l'hyperfocale dit qu'il suffit de 1.4MPx quelle que soit la taille! C'est un peu sous-évalué, mais avec qq chose comme 6 ou 12MP on y est large.
Après, si tu tires au max des imprimantes soit 300dpi (chez Canon, ou 360 chez Epson) là une telle densité de point correspond plutôt à une distance d'observation minimale assez faible, de l'ordre de 20-30cm au grand maximum.

Enfin, si tu estimes que la qualité d'un tirage est très bonne en A3+, le même en A2 ne va pas subitement s'effondrer en diminuant la résolution d'un facteur 1.4!

Citation de: PBnet2 le Septembre 21, 2022, 13:55:48
Giga Pixel Ai est à essayer voilà tout, pour savoir "si oui ou non" ça fonctionne, et comparer deux tirages A2 avec, et sans ce logiciel. Toute autre démarche est théorique mais a bien sûr ses fondements, ses repères ! mais l'AI est peut être la pour remédier à la démarche de simplement rajouter des pixels comme lors d'un simple redimensionnement ?
Tout ce que j'ai vu de ce genre de soft qui essaye d'inventer les pixels, plutôt que de juste étaler (ce qui est facile à faire et déjà assez efficace), ne m'a pas convaincu : pour quelques coups où ça marche plutôt bien, il y a toujours 1 coup où la texture inventée ne colle aps du tout à l'image.
Cf. https://www.chassimages.com/forum/index.php/topic,329173.0.html pour des exemples.

Zaphod

Citation de: Nikojorj le Septembre 21, 2022, 14:04:30
Tout ce que j'ai vu de ce genre de soft qui essaye d'inventer les pixels, plutôt que de juste étaler (ce qui est facile à faire et déjà assez efficace), ne m'a pas convaincu : pour quelques coups où ça marche plutôt bien, il y a toujours 1 coup où la texture inventée ne colle aps du tout à l'image.
Cf. https://www.chassimages.com/forum/index.php/topic,329173.0.html pour des exemples.
C'est ce que fait DeepPrime aussi, d'une certaine manière, d'après ce que j'ai compris.
Après tout est dans le dosage.

Et pour un visage totalement flou / pixellisé comme l'exemple donné sur le site de Topaz, c'est probablement moins magique si on connait la personne photographiée.
Dans la mesure où ça recrée des détails basé sur des millions de photos similaires, comme ils disent, tu as des chances d'obtenir un visage "neutre" mais dans lequel tu ne reconnais pas la personne.
Quand c'est présenté en tant que avant/après, on a tendance à considérer que la réalité ressemble au "après", mais ça serait intéressant de mettre ça en parallèle avec une vraie photo réussie du sujet "avant".

C'est marrant, finalement on en arrive aux procédés type "X-Files" : regardez j'ai cette photo totalement floue, on zoome, on traite, on rezoome, on retraite et paf le détail qu'on voulait voir y est !
Sauf qu'en fait ce détail est inventé, ça n'est pas la réalité.

tenmangu81

Citation de: Nikojorj le Septembre 21, 2022, 14:04:30
Il faut savoir! Si on le regarde depuis la diagonale, la vielle règle qui sous-tend l'hyperfocale dit qu'il suffit de 1.4MPx quelle que soit la taille! C'est un peu sous-évalué, mais avec qq chose comme 6 ou 12MP on y est large.
Après, si tu tires au max des imprimantes soit 300dpi (chez Canon, ou 360 chez Epson) là une telle densité de point correspond plutôt à une distance d'observation minimale assez faible, de l'ordre de 20-30cm au grand maximum.

Je vais regarder ça de plus près, et vais faire quelques essais de tirages. Pas beaucoup, vu le prix du papier !!

Citation de: Nikojorj le Septembre 21, 2022, 14:04:30
Enfin, si tu estimes que la qualité d'un tirage est très bonne en A3+, le même en A2 ne va pas subitement s'effondrer en diminuant la résolution d'un facteur 1.4!

Je suis d'accord. Ça ne chute pas brutalement.

Citation de: Nikojorj le Septembre 21, 2022, 14:04:30
Tout ce que j'ai vu de ce genre de soft qui essaye d'inventer les pixels, plutôt que de juste étaler (ce qui est facile à faire et déjà assez efficace), ne m'a pas convaincu : pour quelques coups où ça marche plutôt bien, il y a toujours 1 coup où la texture inventée ne colle aps du tout à l'image.
Cf. https://www.chassimages.com/forum/index.php/topic,329173.0.html pour des exemples.

Je l'ai utilisé assez souvent pour améliorer une faible définition, et ça marche assez bien dans la plupart des cas. Il peut y avoir des artefacts dans certains cas, en effet, rarement rencontrés dans mon expérience. De toute façon, les 3 logiciels de Topaz sont à manipuler avec précaution, en sachant ce qu'on fait et sans trop pousser les curseurs, ni en demander trop. Il faut savoir ce qu'on fait, et pas seulement avec les logiciels de Topaz !!

PBnet2

Citation de: Zaphod le Septembre 21, 2022, 14:30:13
C'est ce que fait DeepPrime aussi, d'une certaine manière, d'après ce que j'ai compris.
Après tout est dans le dosage.

Et pour un visage totalement flou / pixellisé comme l'exemple donné sur le site de Topaz, c'est probablement moins magique si on connait la personne photographiée.
Dans la mesure où ça recrée des détails basé sur des millions de photos similaires, comme ils disent, tu as des chances d'obtenir un visage "neutre" mais dans lequel tu ne reconnais pas la personne.
Quand c'est présenté en tant que avant/après, on a tendance à considérer que la réalité ressemble au "après", mais ça serait intéressant de mettre ça en parallèle avec une vraie photo réussie du sujet "avant".

C'est marrant, finalement on en arrive aux procédés type "X-Files" : regardez j'ai cette photo totalement floue, on zoome, on traite, on rezoome, on retraite et paf le détail qu'on voulait voir y est !
Sauf qu'en fait ce détail est inventé, ça n'est pas la réalité.

Si dans le film "Blade Runner" de 1982 ! ;)

PBnet2

Citation de: tenmangu81 le Septembre 21, 2022, 14:32:13
Je vais regarder ça de plus près, et vais faire quelques essais de tirages. Pas beaucoup, vu le prix du papier !!

Je suis d'accord. Ça ne chute pas brutalement.

Je l'ai utilisé assez souvent pour améliorer une faible définition, et ça marche assez bien dans la plupart des cas. Il peut y avoir des artefacts dans certains cas, en effet, rarement rencontrés dans mon expérience. De toute façon, les 3 logiciels de Topaz sont à manipuler avec précaution, en sachant ce qu'on fait et sans trop pousser les curseurs, ni en demander trop. Il faut savoir ce qu'on fait, et pas seulement avec les logiciels de Topaz !!

As-tu des exemples à poster ici svp ?

PBnet2

Compte tenue de la lourdeur des logiciels qui certainement dans un avenir proche utiliseront l'AI, attendre le mini M2 n'est peut être pas stupide !?

Zaphod

Sur le mini m2 tu as globalement 25% de puissance en plus, et 30-40% de potentiel en plus sur le "neural engine".
Pour un prix certainement en hausse de 15-20%.
S'il y a une option 24 Go de ram, je prends...

A priori, pas de potentiel d'écran externe en plus (donc pas de bi-écran 6k :) ), un petit peu plus de prises usb & co ne serait pas de refus mais je pense qu'un dock ou hub restera nécessaire.

Il est probable que la mise à jour arrive bientôt, perso ça reste mon alternative #1 au cas où mon studio de remplacement est aussi bruyant que le premier.

PBnet2

Citation de: Zaphod le Septembre 21, 2022, 17:36:42
Sur le mini m2 tu as globalement 25% de puissance en plus, et 30-40% de potentiel en plus sur le "neural engine".
Pour un prix certainement en hausse de 15-20%.
S'il y a une option 24 Go de ram, je prends...

A priori, pas de potentiel d'écran externe en plus (donc pas de bi-écran 6k :) ), un petit peu plus de prises usb & co ne serait pas de refus mais je pense qu'un dock ou hub restera nécessaire.

Il est probable que la mise à jour arrive bientôt, perso ça reste mon alternative #1 au cas où mon studio de remplacement est aussi bruyant que le premier.

Ok et pour quand environ ce mini M2 si il sort !?

kochka

Citation de: Zaphod le Septembre 21, 2022, 14:02:04
Pas seulement, car il y a une part de reconnaissance de textures & co, qui fait que ces softs recréent des détails qu'ils devinent.
D'une certaine manière ça crée de l'info.

C'est ce qu'ils expliquent ici :
https://www.topazlabs.com/topaz-photo-ai
Paragraphe "enhance image resolution with real details".
J'y vois surtout une intelligente augmentation du contraste et de la disparition des nuances lorsqu'il y a une différence de couleur ou de forme, qui fait apparaitre l'image plus nette, et peut-être moins floue.
Ce peut être un choix pour améliorer une image assez floue, mais cela n'a rien à voir avec un capteur plus défini.
C'est toujours la technique du coup de crayon noir des anciens, pour souligner le changement de zone, mais sous une forme nettement plus sophistiquée.
Ce ne sont pas de vrais détails, mais du contraste appuyé.
Ce parait être sous une autre forme, ce que fait DXO clear vew, avec le photos dans le brouillard ou la voile atmosphérique.
Je le vois comme un palliatif intelligent à des photos floues pour avoir été trop agrandies, mais rien à voir avec un outil magique qui remplacerait un capteur plus défini.
Technophile Père Siffleur


tenmangu81

Citation de: PBnet2 le Septembre 21, 2022, 17:03:46
As-tu des exemples à poster ici svp ?

Voici un exemple. Il s'agit d'une centrale solaire.
Ci-dessous l'image initiale, prise avec un Leica M240 (24 Mpx) et que j'ai recadrée ensuite pour m'affranchir des fils et avoir plus de détails ensuite.

PBnet2

Est-ce que les logiciels optimisés pour la puce M1 le seront-ils toujours pour la série M2 ? oui si l'on voit le MPA M2 ?

tenmangu81

Et ci-dessous un détail de l'image, en haut non traitée (crop 100%), en bas traitée avec Gigapixel x2 (crop 50%).


tenmangu81

Autre détail.

PBnet2

Citation de: tenmangu81 le Septembre 21, 2022, 18:32:14
Et ci-dessous un détail de l'image, en haut non traitée (crop 100%), en bas traitée avec Gigapixel x2 (crop 50%).

C'est assez net la différence si je puis dire ! merci ! as-tu un autre exemple de paysage svp ?

tenmangu81

Sur des structures, de l'architecture, ça marche bien. Par contre, sur les visages, le résultat risque d'être moins bon (voir le fil cité un peu plus haut par Nikojorj). Ce sont les visages que notre oeil et notre cerveau analysent le plus en détail et dans toutes leurs subtilités, et pour cause....

Zaphod

Citation de: kochka le Septembre 21, 2022, 18:08:45

J'y vois surtout une intelligente augmentation du contraste et de la disparition des nuances lorsqu'il y a une différence de couleur ou de forme, qui fait apparaitre l'image plus nette, et peut-être moins floue.
Sur l'exemple du visage, c'est clairement de la reconstruction d'image en essayant de deviner le sujet, pour moi.

Après, les visages c'est sans doute là où les limites de ce genre d'algorithmes sont les plus visibles, comme dit tenmangu81.

Pour l'augmentation de constraste local, c'est un effet secondaire, généralement ce genre de softs ont des curseurs beaucoup trop poussés qu'il ne faut pas hésiter à adapter pour éviter les effets indésirables.

PBnet2

Citation de: PBnet2 le Septembre 21, 2022, 18:33:57
C'est assez net la différence si je puis dire ! merci ! as-tu un autre exemple de paysage svp ?

Avec structures complexes ?

tenmangu81

Citation de: PBnet2 le Septembre 22, 2022, 10:59:54
Avec structures complexes ?

Non, je n'ai pas d'exemple avec des structures complexes (c'est quoi, au juste ?). Le meilleur moyen serait de tester Topaz Labs Gigapixel (ou Topaz Photo, maintenant) pour se faire une idée avec ses propres images.

PBnet2

Citation de: tenmangu81 le Septembre 22, 2022, 12:03:24
Non, je n'ai pas d'exemple avec des structures complexes (c'est quoi, au juste ?). Le meilleur moyen serait de tester Topaz Labs Gigapixel (ou Topaz Photo, maintenant) pour se faire une idée avec ses propres images.

Merci tenmangu81 mais j'ai déjà essayé sur mon PC en Bretagne, Dell XPS avec 16 Go, un i7, une carte graphique et un SSD, qui n'est pas "mince", et ce fut un échec au niveau de la lenteur et il finissait par bugger...donc stop pour moi pour le moment. Si je prends dans l'avenir un mini là je pourrai à nouveau tester sur mes photos...mais dans l'attente impossible ! sur mon vieux PC portable ici je ne peux même pas installer PS CC auquel je suis abonné...
En fait je cherche des structures complexes inscrites dans les paysages (sable, arbres, eau, ciel, roche, bateau au loin etc...) comme je le fais avec mes paysages marins en Bretagne depuis longtemps. Merci quand même ! ;) si j'investis dans l'avenir dans mini je vous tiendrai au courant avec mes photos mais faudra-t-il ouvrir un autre fil !?

Mais peut être sur ta photo tu pourrais comparer avant/après au niveau du sable et au niveau des arbustes de droite en premier plan ?

tenmangu81

OK. Le mieux est donc d'attendre, avant de faire un essai, l'achat d'une machine plus performante !!

tenmangu81

Citation de: PBnet2 le Septembre 22, 2022, 13:01:46
Mais peut être sur ta photo tu pourrais comparer avant/après au niveau du sable et au niveau des arbustes de droite en premier plan ?

Voilà !!

PBnet2

#373
Merci tenmangu81 ! cette fois-ci sur ces détails on voit que c'est amélioré mais pas de façon extraordinaire comme pour les poteaux électriques de départ ! je verrai en temps et en heure en essayant avec une nouvelle config ! merci quand même mais globalement ta photo de départ a été nettement améliorée ! donc on peut dire qu'à partir d'un A3+ de très bonne qualité (ton Leica et l'optique qui va avec), on peut réaliser sans problème un x2 de très grande qualité mais ta photo à la base est de très grande qualité aussi !

kochka

Citation de: Zaphod le Septembre 21, 2022, 14:30:13
C'est ce que fait DeepPrime aussi, d'une certaine manière, d'après ce que j'ai compris.
Après tout est dans le dosage.

Et pour un visage totalement flou / pixellisé comme l'exemple donné sur le site de Topaz, c'est probablement moins magique si on connait la personne photographiée.
Dans la mesure où ça recrée des détails basé sur des millions de photos similaires, comme ils disent, tu as des chances d'obtenir un visage "neutre" mais dans lequel tu ne reconnais pas la personne.
Quand c'est présenté en tant que avant/après, on a tendance à considérer que la réalité ressemble au "après", mais ça serait intéressant de mettre ça en parallèle avec une vraie photo réussie du sujet "avant".

C'est marrant, finalement on en arrive aux procédés type "X-Files" : regardez j'ai cette photo totalement floue, on zoome, on traite, on rezoome, on retraite et paf le détail qu'on voulait voir y est !
Sauf qu'en fait ce détail est inventé, ça n'est pas la réalité.
D'après ce que j'en ai compris, Deep prime agit pour diminuer le grain, pas le flou en lui même, à lors que là ça ressemble à l'effet DXO clear vew plus.
Il serait interessant de traiter la même photo avec pour voir le résultat.
Technophile Père Siffleur