Mon nouveau PC un peu extrême et ce que ca change dans LR et Photoshop

Démarré par Nicolas Meunier, Janvier 04, 2016, 10:41:30

« précédent - suivant »

Nicolas Meunier

Bonjour

On débat souvent ici des config "minimum" pour bien tirer parti de LR ou photoshop.
En général on se chamaille entre Core i5 qui coute moins cher et Corei7 qui a de l'hyperthreading mais on garde en tête que LR5 ne le gérait pas vraiment... mais on en est à LR6...
Pour photoshop une bonne carte graphique on trouvait ca cool, mais on se chamaillait sur le "bonne" carte graphique, entre celles a 100€ et celles à plus de 200.

Là je me suis refait un PC pour faire de la 3D... autant dire que le besoin de puissance n'est pas du tout le même.

Au programme un Core i7 Extrême 5930 (6coeurs / 12 thread) et deux GForce GTX 980Ti et que du SSD.

...et forcément ca reste ma machine de tous les jours pour la retouche.

Alors pour LR les 6 coeurs 12 Thread vont vraiment plus vites que mon Core i7 précédant. Pour en tirer parti on peut lancer plusieurs exports en même temps et le deuxième export va aussi vite que le premier seul... et même un troisième export en même temps ne ralenti pas vraiment l'ensemble.
Je préférerais que LR utilise de lui même un peu plus ma machine mais bon...

Sous Photoshop tout est bien fluide, grace au processeur le flou de surface va beaucoup plus vite (ca reste encore long mais ca devient utilisable). Les filtres qui utilisent le GPU vont à la vitesse de l'eclair.

Bien sûr pour rien au monde je ne vous conseillerais de prendre une telle machine juste pour de la retouche photo... mais petit à petit nos softs préférés tirent parti de nos machines.

On est cependant encore très loin des optimisations des logiciels de rendus 3D : j'utilise Octane et avec lui deux cartes graphiques ca va exactement deux fois plus vites... il peut en gérer 12...

Un dernier détail : mes softs de 3D utilisent les GPU, LR et Photoshop plus le CPU (un peu le GU seulement)... et bien je retouche sans pb pendant que le soft de 3D calcul.

Enfin : QUAND LR va-t-il enfin gérer les PSB!!!!! j'en ai marre de cette limite de 2Go que j'atteint vraiment trop vite.


kochka

Je me pose la même question pour DXO.
J'ai actuellement un I7 quad turbo depuis bientôt trois ans, que j'envisage de changer pour un six cœurs turbo, voire un 8 coeurs, lorsque le nouveau sortira cette année.
Pour le six cœurs, je n'ai pas  pas d'état d'âmes, il n'est pas plus cher que ne l'était le quad actuel au moment de son achat, mais le 8 fait le double de prix pour au maximum 25% de puissance théorique en plus.
Quant on sait qu'entre la puissance théorique et le gain réel constaté, il y a une "légère" différence, et qu'en plus il me faudrait une nouvelle carte mère pas donnée, il y a de quoi largement hésiter, surtout si c'est pour récupérer 10% de puissance réelle
Kika une idée et surtout une expérience?
Technophile Père Siffleur

RolandH

Bonsoir,

DXOOpticsPro exploite pleinement les ressources qu'une telle machine met à sa disposition; avec 12 photos traitées en parallèles, le CPU est utilisé à 100% en quasi permanence, l'utilisation de la RAM monte à plus de 31GO sur 32 ...

Mon CPU est un i7-5930 légèrement overclocké, la consommation et la température reste raisonnable; la CG est une Quadro K2200, je pense qu'avec une ou deux GeForce, comme dans la config à Nicolas, DXO serait encore plus à l'aise.

Will95

Salut Nicolas ! Je m'étonne que tu ai fait le choix de CG qui ne gère pas le 3 x 10 bits dans une config de course ... Ou alors tu as une config "gamer" ?

Miaz3

 [at]  Nicolas Meunier
CitationOn est cependant encore très loin des optimisations des logiciels de rendus 3D : j'utilise Octane et avec lui deux cartes graphiques ca va exactement deux fois plus vites... il peut en gérer 12...
En l'occurrence vous êtes avec un moteur de rendu 100% GPU comme redShift et/ou des moteur de rendu offrant des calculs RT (en temps réel).
Sous octane beaucoup tourne avec 3x980 + une carte pour l'affichage (type PRO ou non). Ce qui permet de dissocier l'affichage du calcul.
http://www.tomshardware.de/geforce-quadro-workstation-grafikkarte-gpu,testberichte-241759-3.html

Je suis de votre avis concernant les config minimal, c'est bien pour les petites bourses mais si l'occasion le permet au temps partir sur une configuration qui permet d'obtenir un confort quotidien.
Et ça c'est royal ;)

[at] Kochka
CitationQuant on sait qu'entre la puissance théorique et le gain réel constaté, il y a une "légère" différence, et qu'en plus il me faudrait une nouvelle carte mère pas donnée, il y a de quoi largement hésiter, surtout si c'est pour récupérer 10% de puissance réelle
Si vous êtes sur le point d'acheter du matériel je vous conseil d'attendre la fin de l'année. Car les techno qui sortent (en ce moment) ont des perf ahurissante ! c'est du simple au double.
http://cdn.wccftech.com/wp-content/uploads/2015/03/Screenshot-91.png
http://www.hardware.fr/focus/109/comprendre-memoire-hbm-introduite-par-amd.html
http://images.anandtech.com/graphs/graph8526/67748.png

kochka

je vais effectivement attendre que les processeurs skylake sortent en 6 et 8 cœurs.
Pour les cartes vidéo, mon boitier actuel coince sur la longueur de la carte. Il va me falloir probablement le changer, mais j'ai du mal à savoir ce qu'apportera avec Dxo une grosse  carte vidéo par rapport à une moyenne à 200€.
Technophile Père Siffleur

Miaz3

Citationmais j'ai du mal à savoir ce qu'apportera avec Dxo une grosse  carte vidéo par rapport à une moyenne à 200€.
Aucune idée  ??? je ne connais pas DXO, et LR je ne l'utilise plus.
Oui c'est sur, le mieux serai de se référer à la doc. Et vérifier comment et quels outils utilisent plus le gpu que le cpu. Ou alors qu'il y ai une aide gpu quand le cpu sature...?!


M@kro

Et pourquoi ne pas avoir 2 (voir 4) CPU ?
C'était déjà très fréquent à une certaine époque pour la 3D (3D max and cie)
Après, reste le cluster, mais là, faut être assez riche (sans parler de la conso EDF, clim, etc...)
Nikoniste, ex-Pentaxiste

Miaz3

CitationEt pourquoi ne pas avoir 2 (voir 4) CPU ?
C'était déjà très fréquent à une certaine époque pour la 3D (3D max and cie)
Même encore aujourd'hui, et ça dépend du type de workflow.

Nicolas Meunier, utilise un moteur de rendu basé GPU (Octane Render) je pense que c'est pour ça qu'il a voulu investir dans deux cartes.
CitationOctaneRender is the world's first and fastest GPU-accelerated, unbiased, physically correct renderer. What does that mean? It means that Octane uses the graphics card in your computer to render photo-realistic images super fast. With Octane's parallel compute capabilities, you can create stunning works in a fraction of the time.

CitationAprès, reste le cluster, mais là, faut être assez riche (sans parler de la conso EDF, clim, etc...)
Ensuite ça dépend, on peut se faire une petite render Farm de 4 nodes pour moins de 2500e. Et/ou passer par AWS. bref c'est à calculer.

kochka

Citation de: M [at] kro le Février 14, 2016, 15:34:58
Et pourquoi ne pas avoir 2 (voir 4) CPU ?
C'était déjà très fréquent à une certaine époque pour la 3D (3D max and cie)
Après, reste le cluster, mais là, faut être assez riche (sans parler de la conso EDF, clim, etc...)
D'après ce que j'ai compris prendre deux CPU de 4 coeurs ne donne pas le même résultat que lune seule en  8 coeurs, sauf si tu prends des Xeon, hors de prix. Ne me demande pas pourquoi, il y aurait une sombre histoire de communication entre CPU, volontairement bloquée par Intel, hors Xeons.
Technophile Père Siffleur

Nicolas Meunier

Citation de: Miaz3 le Février 14, 2016, 13:34:02
Aucune idée  ??? je ne connais pas DXO, et LR je ne l'utilise plus.
Oui c'est sur, le mieux serai de se référer à la doc. Et vérifier comment et quels outils utilisent plus le gpu que le cpu. Ou alors qu'il y ai une aide gpu quand le cpu sature...?!

j'ai testé et DXO ADORE les grosses cartes graphiques. mes 1500€ de GPU sont entièrement utilisés par exemple.

Nicolas Meunier

Citation de: kochka le Février 14, 2016, 19:09:43

D'après ce que j'ai compris prendre deux CPU de 4 coeurs ne donne pas le même résultat que lune seule en  8 coeurs, sauf si tu prends des Xeon, hors de prix. Ne me demande pas pourquoi, il y aurait une sombre histoire de communication entre CPU, volontairement bloquée par Intel, hors Xeons.

Alors : déjà pour mettre plusieurs CPU il faut des processeurs qui le supporte (très cher) et des cartes mères adaptées...

Sinon à frequences égales un CPU 8 coeurs et 2 CPU 4 coeurs donneront grossomodo la même chose, mais les frequences ont tendance ) baisser plus vite quand tout est confiné dans le même CPU.

Pour la 3D, on a tendance à ne plus utiliser le CPU mais les GPU. Par exemple j'utilise un moteur 3D qui n'utilise rigoureusement que le GPU (Nvidia) et est parfaitement scalable. Donc 2 GPU vont exactement deux fois plus vite que un seul et le logiciel peut en gérer 12 dans une machine et faire du rendu multi machine. A l'inverse un simple Core i5 dual core lui suffira.
En 3D les CPU servent encore beaucoup pour les simulations physique (particules par exemple).

Mon Core i7 Extreme est en tout point identique à un Xeon, mais à frequence plus élevé et sans mémoire ECC (ce qui en change rien au performance).

kochka

Technophile Père Siffleur

Phil_C

Pour les cartes graphiques utilisées en mode "Direct Compute" ou "Open CL", le lien suivant est intéressant
http://www.videocardbenchmark.net/directCompute.html
J'ai aussi monté un PC récent, j'ai une Radeon HD7950/R9 280 benchée à 2712, couplée a un Xeon E3 1241 et 8 Go de mémoire à 2400 Mhz, il me faut 3.4s pour traiter un RAW de D4s sous DxO10. Faire mieux couterait excessivement plus cher, et je pense pas qu'on puisse gagner plus de 3s...

Nicolas Meunier

Citation de: Phil_C le Février 19, 2016, 20:24:46
Pour les cartes graphiques utilisées en mode "Direct Compute" ou "Open CL", le lien suivant est intéressant
http://www.videocardbenchmark.net/directCompute.html
J'ai aussi monté un PC récent, j'ai une Radeon HD7950/R9 280 benchée à 2712, couplée a un Xeon E3 1241 et 8 Go de mémoire à 2400 Mhz, il me faut 3.4s pour traiter un RAW de D4s sous DxO10. Faire mieux couterait excessivement plus cher, et je pense pas qu'on puisse gagner plus de 3s...

faut que je teste avec mes 2 980Ti alors :) avec leur bench à plus de 13000

Miaz3

CitationSinon à frequences égales un CPU 8 coeurs et 2 CPU 4 coeurs donneront grossomodo la même chose, mais les frequences ont tendance ) baisser plus vite quand tout est confiné dans le même CPU.
Non, un pc avec un i7 8coeurs (16 threads) n'auras pas la même patate qu'un bi xéon 2*8coeurs physique.

CitationPour la 3D, on a tendance à ne plus utiliser le CPU mais les GPU. Par exemple j'utilise un moteur 3D qui n'utilise rigoureusement que le GPU (Nvidia) et est parfaitement scalable. Donc 2 GPU vont exactement deux fois plus vite que un seul et le logiciel peut en gérer 12 dans une machine et faire du rendu multi machine. A l'inverse un simple Core i5 dual core lui suffira.
En 3D les CPU servent encore beaucoup pour les simulations physique (particules par exemple).

Mon Core i7 Extreme est en tout point identique à un Xeon, mais à frequence plus élevé et sans mémoire ECC (ce qui en change rien au performance).

Hein ?
A l'heure actuelle les calculs sont exclusivement en CPU. A moins d'avoir une team de R&D et disposant d'un parc machine avec des HPC...
De plus les solutions de calcul (nodal) sont : soit CPU, soit GPU. Pour vous donner une idée zieuté les solutions de HPC en ligne... ~0.80euros/h pour un bi-CPU contre 2euros/h pour une solution GPU.
La frontière aujourd'hui est surtout au niveau du portefeuille. Car il est indéniable que les calcul GPU sont plus rapide, cependant ça coute très cher !

Ensuite pour de la simu, dépend aussi des API utilisées mais tu as le choix (GPU/CPU). (Suivant les API) Mais le calcul GPU est plus rapide, mais il faut prendre en compte la RAM embarqué par la CG car en simu le plus important c'est la RAM. Ou alors bien calculer sont coup pour éviter les swap et/ou dédié un cache.
Ton i7 extrême est tout point identique à un xéon, mais il calcul à pleine charge h24/7 365jr/an ? je ne pense pas.

Bref, encore une fois dépend du type de flux de travail. En tout cas on ne part pas sur un moteur de calcul unbiased GPU sur un coup de tête.

En on n'as pas parlé des stations d'étalonnage vidéo ^^

Nicolas Meunier

Citation de: Miaz3 le Février 22, 2016, 10:55:50
Non, un pc avec un i7 8coeurs (16 threads) n'auras pas la même patate qu'un bi xéon 2*8coeurs physique.

Hein ?
A l'heure actuelle les calculs sont exclusivement en CPU. A moins d'avoir une team de R&D et disposant d'un parc machine avec des HPC...
De plus les solutions de calcul (nodal) sont : soit CPU, soit GPU. Pour vous donner une idée zieuté les solutions de HPC en ligne... ~0.80euros/h pour un bi-CPU contre 2euros/h pour une solution GPU.
La frontière aujourd'hui est surtout au niveau du portefeuille. Car il est indéniable que les calcul GPU sont plus rapide, cependant ça coute très cher !

Ensuite pour de la simu, dépend aussi des API utilisées mais tu as le choix (GPU/CPU). (Suivant les API) Mais le calcul GPU est plus rapide, mais il faut prendre en compte la RAM embarqué par la CG car en simu le plus important c'est la RAM. Ou alors bien calculer sont coup pour éviter les swap et/ou dédié un cache.
Ton i7 extrême est tout point identique à un xéon, mais il calcul à pleine charge h24/7 365jr/an ? je ne pense pas.

Bref, encore une fois dépend du type de flux de travail. En tout cas on ne part pas sur un moteur de calcul unbiased GPU sur un coup de tête.

En on n'as pas parlé des stations d'étalonnage vidéo ^^


Bonjour

Alors pour rappel on est sur un forum photo... donc les besoins en calcul 365j/an 7j/7 24h/24... on ne l'a pas trop.

Pour ta comparaison de CPU, on ne parle pas de la même chose : je parlais de deux proc 4coeurs face à un proc 8 coeurs... pas de notion d'hyperthreading là dedans... mais des coeurs physiques.

enfin en 3D pro... genre cinema... le GPU a supplanté méchament le le CPU, c'est un fait... et pour un coût bien plus faible. Pour te dire les parcs sont renouvellés tous les 4/5ans et la baisse de conso d'énergie suffit à payer le matos.

En simulation ca dépend des cas, certains sont plus CPU et d'autres GPU.

Donc tu vas m'expliquer en quoi en 3D tous les calculs sont exclusivement en CPU...

Si on prend les solutions "grand publc" les moteurs 3D qui sortent sont quasi tous en GPU :
le ténor VRay est passé à VRay RT il y a 18mois... GPU
le p'tit dernier qui fait parler beaucoup de lui : Octane : 100% GPU
et il y en a encore beaucoup comme ca.

Voila du GPU et de la 3D...

https://www.youtube.com/watch?v=eDiuTvk_dEY

Encore une "petite" société qui ne fait que du GPU https://www.youtube.com/watch?v=HgoqPd9PeFg

Donc sincèrement je ne sais pas de où te vient ton expérience... mais il est possible que ca date un p'tit peu.

Il y a 15ans on avait au bureau un beau Cray et des grosses Silicon Graphics... mais ca c'était avant. Maintenant c'est des fermes de PC IBM/NVIDIA avec 16GPU par PC

Miaz3

Citation
Alors pour rappel on est sur un forum photo... donc les besoins en calcul 365j/an 7j/7 24h/24... on ne l'a pas trop
Pour ta comparaison de CPU, on ne parle pas de la même chose : je parlais de deux proc 4coeurs face à un proc 8 coeurs... pas de notion d'hyperthreading là dedans... mais des coeurs physiques.

Effectivement j'ai lu en diagonal, méa-culpa. Bon après tu lance le sujet alors continuons...
Mais il est bon de rappeler la fonction des Xéon, car la plupart du temps je vois que c'est cher et c'est équivalent au i7.
Donc oui et non, ce n'est pas totalement comparable.

Citationenfin en 3D pro... genre cinema... le GPU a supplanté méchament le le CPU, c'est un fait... et pour un coût bien plus faible. Pour te dire les parcs sont renouvellés tous les 4/5ans et la baisse de conso d'énergie suffit à payer le matos.
D'accord, des exemples parce que là... ? renouveler un parc machine, why not ?! mais Quid des serveur de calcul ? bon tu va me dire : les calculs sont fait sur AWS, Avere et cie mais bon quand même.
Parce que (quand même) beaucoup de films sont fait à partir de moteur de rendu CPU. Mais des prototypes (GPU) sont dans les tuyaux et en cours de production.
As-tu bien regarder le PRIX des serveurs de Calcul only GPU ?

CitationDonc tu vas m'expliquer en quoi en 3D tous les calculs sont exclusivement en CPU...
Pas tous, lis bien :
CitationBref, encore une fois dépend du type de flux de travail.
Donc toi qui fait du OctaneRender, très bien par contre celui qui fait Maxwell, guerilla, Arnold et/ou Prman et j'en passe. Bof.

CitationSi on prend les solutions "grand publc" les moteurs 3D qui sortent sont quasi tous en GPU :
le ténor VRay est passé à VRay RT il y a 18mois... GPU
le p'tit dernier qui fait parler beaucoup de lui : Octane : 100% GPU
et il y en a encore beaucoup comme ca.
Alors non ça ne fait pas 18 mois pour Vray, mais depuis 2008 enfin officiellement 2009...bref passons. Vray à la possibilité de proposer des calcul biased/unbiased, en pre-calc ou RT(GPU).
Octane render (GPU) date de 2009, racheté depuis...donc pas nouveau non plus.
Ensuite il y a RedShift (GPU) aussi.

Citation
Voila du GPU et de la 3D...

https://www.youtube.com/watch?v=eDiuTvk_dEY
C'est con, tu balance un lien de showReel d'un Développer de logiciel de VFX (ce qui n'a rien à voir).
Et dans cette showReel on ne peux pas savoir. A moins d'aller vérifier une à une...et de voir SI tel ou tel boite dispose d'un renderFarm 100% GPU.
Et c'est re-con parce que je bosse sur un de leur logiciel le plus connus, Nuke.

CitationEncore une "petite" société qui ne fait que du GPU https://www.youtube.com/watch?v=HgoqPd9PeFg
Lol, on n'as plus besoin de présenter ILM. Ceci dit j'aimerai bien savoir d'ou tu tiens une telle information; que dans "Transformers: Dark of the Moon" la totalité des calculs ont été fait en GPU ?
Tu sais je suis un peu comme St Thomas moi  ;)

CitationDonc sincèrement je ne sais pas de où te vient ton expérience... mais il est possible que ca date un p'tit peu.
Et bien ça va t'en bouché un coin, mais ça va faire 8 ans que je bosse dans des studios de films d'animation et de série TV, OUI !
Donc, si j'interviens sur ce sujet c'est je sais de quoi je parle...
Par contre maintenant je sais que toi non, tu n'y connais pas grand chose.

CitationIl y a 15ans on avait au bureau un beau Cray et des grosses Silicon Graphics... mais ca c'était avant. Maintenant c'est des fermes de PC IBM/NVIDIA avec 16GPU par PC
16GPU par PC, CàD ?


Phil_C

Citation de: Nicolas Meunier le Février 22, 2016, 09:35:39
faut que je teste avec mes 2 980Ti alors :) avec leur bench à plus de 13000
Oui, ce serait intéressant de voir ce que l'on gagné en temps de traitement suivant la conf, cela permettrait d'investir juste ce qu'il faut...

Nicolas Meunier

Citation de: Miaz3 le Février 22, 2016, 15:49:24

D'accord, des exemples parce que là... ? renouveler un parc machine, why not ?! mais Quid des serveur de calcul ? bon tu va me dire : les calculs sont fait sur AWS, Avere et cie mais bon quand même.
Parce que (quand même) beaucoup de films sont fait à partir de moteur de rendu CPU. Mais des prototypes (GPU) sont dans les tuyaux et en cours de production.
As-tu bien regarder le PRIX des serveurs de Calcul only GPU ?

Alors oui je connais très bien le prix des serveurs de calcul only GPU. Au deux extrêmes, la personne voulant se faire une machine (Archi, ou independant de la 3D) va se faire une machine Quad Ttitan pour environ 7000€ et va être bien plus performant qu'un PC plus cher. A l'autre bout de l'industrie de la 3D, en prenant en compte l'exploitation des machines avec la clim et la conso, il y a un virage massif au GPU. ILM a été le précursseur mais loin d'être le seul.

16GPU c'est 8 K80 par exemple et ca s'appelle un serveur NVIDIA GRID (de mémoire).

Sinon en 94 j'ai codé mon premier moteur 3D sur une Indigo2, en 99 j'avais une Onyx a côté de moi et un Cray2 dans le batiment à côté pour faire de la simu de crash test de voiture.
Ajd dans mon entourrage proche professionel il y a des gens en VFX, dont ILM mais pas que (Digital Domain et beaucoup de plus petites), des architectes, des gens de pub (VFX et Animations)... voilou... même si je ne vois pas le rapport avec le schmillblick ;)

Enfin mon propos n'est pas qu'il suffit de claquer dans les doigts pour tranformer un soft optimisé CPU en GPU, ni qu'aujourd'hui tout est en GPU... mais qu'i y a un virage qui a bien commencé.
ILM qui a sa propre R&D a fait ses solutions 100%GPU il y a déjà quelques années et NVIDIA a concu avec eux les serveurs qui vont bien.

Ca a pris pas mal de temps pour que les solutioons sur etagères evoluent mais ca vient. On a cité toi et moi VRay RT et Octane, il y en a de plus en plus.
Même un monde, comme celui de l'animation de particules, qui était très gourmand en CPU, commence à sortir des choses en GPU.

Bon sur ce... on s'eloigne bougrement ;) Donc si tu veux continuer on peut faire ca en MP, ca serait plus gentil pour l'initiateur du fil.

Miaz3

CitationOui, ce serait intéressant de voir ce que l'on gagné en temps de traitement suivant la conf, cela permettrait d'investir juste ce qu'il faut...
Sur le site de DXO ils n'expliquent pas les configuration requise et le gain de perfs suivant la CG embarquée ?

CitationBon sur ce... on s'eloigne bougrement Clin d'oeil Donc si tu veux continuer on peut faire ca en MP, ca serait plus gentil pour l'initiateur du fil.
Comme tu veux, sachant que c'est toi l'initiateur du fil, je me disais que ça ne posais pas de problème :)

++

Nicolas Meunier

Citation de: Miaz3 le Février 23, 2016, 11:08:36
Sur le site de DXO ils n'expliquent pas les configuration requise et le gain de perfs suivant la CG embarquée ?
Comme tu veux, sachant que c'est toi l'initiateur du fil, je me disais que ça ne posais pas de problème :)

++


J'ai inité ce fil vraiment pour la photo, le reste c'est une autre vie.

Pour DXO, comme pas mal d'applications photos qui utilisent du GPU, les perfs suivant les CG sont très mal indiqué... on sait qu'il y a des gains, mais pas précisément indiqué. Je pense que de toute facon c'est plus difficile à prédire qu'en 3D. J'utilise Octane par exemple et 2 cartes vont deux fois plus vite. A l'inverse pour Photoshop c'est pas du tout linéaire sur les flous et une carte milieu de gamme est très proche du haut de gamme. DXO semble mieux coder... donc à tenter quand même.

Miaz3

C'est fou ça, payer un logiciel ou aucune doc expliquant le pourquoi du comment coté hardware...

Pour fermer ce sujet sur la 3D GPU et je tiens à le dire ici. Des collègues de la R&D m'ont sortis le même discours que toi (bhé oui j'aime bien croiser les infos ::)).
A me relire j'ai été arrogant sur ce sujet et je trouve que tu as été très courtois, donc je ne peux que te remercier de cet échange !
Parallèlement je suis tombé sur les articles de ILM&Nivida très intéressant.

Nicolas Meunier

Citation de: Miaz3 le Février 24, 2016, 15:58:29
C'est fou ça, payer un logiciel ou aucune doc expliquant le pourquoi du comment coté hardware...

Pour fermer ce sujet sur la 3D GPU et je tiens à le dire ici. Des collègues de la R&D m'ont sortis le même discours que toi (bhé oui j'aime bien croiser les infos ::)).
A me relire j'ai été arrogant sur ce sujet et je trouve que tu as été très courtois, donc je ne peux que te remercier de cet échange !
Parallèlement je suis tombé sur les articles de ILM&Nivida très intéressant.

et bien merci et tout fini bien alors ;)

les photographes, contrairement au gens de la 3D on va dire, sont vu par les developpeurs comme des gens ne connaissant rien au logiciel ou même au hardware, donc le discours est "vous allez voir c'est magique, ca va plus vite", mais je suis de ton avis c'est decevant.

kochka

Et tu utilises quelles cartes graphiques STP?
Tant qu'à investir, autant en prendre une adaptée.
Technophile Père Siffleur