Une base de donnée des temps de réponse de Lightroom

Démarré par OuiOuiPhoto, Janvier 23, 2017, 15:16:16

« précédent - suivant »

OuiOuiPhoto

Bonjour a tous

je vois souvent des questions concernant la configuration nécessaire pour faire tourner confortablement LR. Avez vous connaissance de base de données sur le net qui ont se genre de chose

Si ça n'existe pas ça serait peut être intéressant d'en créer une. Il faudrait préciser

1) Le type d'appareil photo utilisé avec la taille des RAW. Exemple 7DMKII 20Mo
2) Le type de processeur. Exemple I7-6800K
3) La taille le type et la vitesse de la RAM. Exemple 8Go DDR4 3333
4) Le type de disque et débit  ou est installé le système. C'est trouvable avec diskmark par exemple
5) Le type de disque et débit  ou est installé Lightroom. C'est trouvable avec diskmark par exemple
6) Le type de disque et débit  ou est installé Lightroom. C'est trouvable avec diskmark par exemple
Puis ensuite on définirais quelques manips de base et on mesurerais le temps

1) Exportation d'une collection de 100 photos en tant que catalogue avec les négatifs sur le DD ou se trouve Lightroom
2) Exportation d'une collection de 100 photos en tant que catalogue avec les négatifs sur le DD ou se trouve Les RAW
3) Exportation de 100 photos en Jpeg recadrées en 1000px bord large avec une qualité de 75 et une netteté pour écran standard sur le DD ou se trouve Lightroom
4) Exportation de 100 photos en Jpeg recadrées en 1000px bord large avec une qualité de 75 et une netteté pour écran standard sur le DD ou se trouve Lightroom

Vous en pensez quoi ? Ca semble farfelu ou cela a du sens

phil67

Citation de: OuiOuiPhoto le Janvier 23, 2017, 15:16:16
Bonjour a tous
je vois souvent des questions concernant la configuration nécessaire pour faire tourner confortablement LR. Avez vous connaissance de base de données sur le net qui ont se genre de chose
Si ça n'existe pas ça serait peut être intéressant d'en créer une. Il faudrait préciser
1) Le type d'appareil photo utilisé avec la taille des RAW. Exemple 7DMKII 20Mo
2) Le type de processeur. Exemple I7-6800K
3) La taille le type et la vitesse de la RAM. Exemple 8Go DDR4 3333
4) Le type de disque et débit  ou est installé le système. C'est trouvable avec diskmark par exemple
5) Le type de disque et débit  ou est installé Lightroom. C'est trouvable avec diskmark par exemple
6) Le type de disque et débit  ou est installé Lightroom. C'est trouvable avec diskmark par exemple
Puis ensuite on définirais quelques manips de base et on mesurerais le temps
1) Exportation d'une collection de 100 photos en tant que catalogue avec les négatifs sur le DD ou se trouve Lightroom
2) Exportation d'une collection de 100 photos en tant que catalogue avec les négatifs sur le DD ou se trouve Les RAW
3) Exportation de 100 photos en Jpeg recadrées en 1000px bord large avec une qualité de 75 et une netteté pour écran standard sur le DD ou se trouve Lightroom
4) Exportation de 100 photos en Jpeg recadrées en 1000px bord large avec une qualité de 75 et une netteté pour écran standard sur le DD ou se trouve Lightroom
Vous en pensez quoi ? Ca semble farfelu ou cela a du sens

Ouaip, ça a l'air pas mal, et après j'en fais quoi ? Car si j'ai un pc de merde, ce sera toujours un pc de merde...
Quand j'investi, je suis toujours limité par mon p..ain de Budget !
Pour le moment un vieux I7-3770 avec 16GB DDR3 de ram, W7 sur SSD 350x, Catalogue et Raw sur SSHD 2To....
et je me plains pas.
Il y a tellement de variables que je suis pas sur que ton tableau sera exhaustif !

Samoreen

Pour créer un index de performance qui soit réellement pertinent, il faut maîtriser absolument tous les paramètres impactant la mesure. À mon sens, cela implique donc ce qui suit :

- Il faut travailler sur un lot d'images partagé. Le temps de traitement peut varier avec les images et les réglages qu'elles ont subis dans LR (notamment le nombre et l'importance des retouches locales).

- Il faut que le contexte d'exécution soit le même : qu'est-ce qui tourne sur le système pendant qu'on fait le test ?

- La taille de la mémoire seule ne suffit pas. Il faut caractériser la taille et la localisation du fichier de pagination (sur SSD ou pas ? par exemple, j'utilise un vieux SSD différent du SSD système sur lequel il n'y a que le fichier de pagination et les dossiers de scratch, les caches, le répertoire TMP, etc.).

- Bien évidemment il faut tenir compte de la configuration graphique et de l'activation ou non de la GPU dans  LR.

Et j'en passe... Pour moi, gérer de manière cohérente une telle base de données est un boulot qui prendra trop de temps par rapport à l'utilité du résultat, sachant que les facteurs les plus significatifs sont déjà connus.
Patrick

OuiOuiPhoto

Citation de: phil67 le Janvier 23, 2017, 15:37:16
Ouaip, ça a l'air pas mal, et après j'en fais quoi ?

L'idée c'est lorsque tu va changer d'appareil photo ou de PC de voir l'amélioration que tu peux espérer avoir. Et pour celui qui débute voir des configurations réelles avec temps de réponse réels et pas des chiffres théoriques.

Il ne faut surtout pas faire un tableau exhaustif car ça rebutera tout le monde et ca va devenir trop technique. C'est plus pour avoir une tendance. Dans les deux test que je propose l'un est surtout orienté disque et l'autre est plus orienté processeur. En plus je ne pense pas que les différentes version de LR ai un gros impact sur les résultats de ces deux tests


OuiOuiPhoto

Citation de: Samoreen le Janvier 23, 2017, 15:51:07
Pour créer un index de performance qui soit réellement pertinent, il faut maîtriser absolument tous les paramètres impactant la mesure. À mon sens, cela implique donc ce qui suit :

- Il faut travailler sur un lot d'images partagé. Le temps de traitement peut varier avec les images et les réglages qu'elles ont subis dans LR (notamment le nombre et l'importance des retouches locales).

- Il faut que le contexte d'exécution soit le même : qu'est-ce qui tourne sur le système pendant qu'on fait le test ?

- La taille de la mémoire seule ne suffit pas. Il faut caractériser la taille et la localisation du fichier de pagination (sur SSD ou pas ? par exemple, j'utilise un vieux SSD différent du SSD système sur lequel il n'y a que le fichier de pagination et les dossiers de scratch, les caches, le répertoire TMP, etc.).

- Bien évidemment il faut tenir compte de la configuration graphique et de l'activation ou non de la GPU dans  LR.

Et j'en passe... Pour moi, gérer de manière cohérente une telle base de données est un boulot qui prendra trop de temps par rapport à l'utilité du résultat, sachant que les facteurs les plus significatifs sont déjà connus.

L'idée n'est pas de caractériser des configurations mais juste d'avoir des tendances. Si on fait un scénario trop compliqué personne ne fera l'essai. Moi le premier. Ca sera trop contraignant. En plus ca deviendra théorique et pas pratique.

Le facteurs sont connus mais leur impact sont-ils mesurés ? C'est un peu l'idée. On pourra par exemple constater que pour le même processeur on a des différences importantes en fonction des autres paramètres et cela donnerais des fourchettes. 

Pour la GPU je ne sais pas si cela a un impact dans les deux test que je propose. Faudra que je vérifie. Pour le premier je suis a peu prêt sur que non mais pas pour le deuxième

OuiOuiPhoto

Citation de: OuiOuiPhoto le Janvier 23, 2017, 16:02:11
Pour la GPU je ne sais pas si cela a un impact dans les deux test que je propose. Faudra que je vérifie. Pour le premier je suis a peu prêt sur que non mais pas pour le deuxième

Donc après vérification l'activation ou pas de la GPU n'affecte pas le temps nécessaire a faire un export. J'ai testé l'export sur un SSD super rapide et sur un DD normal et avec GPU et sans GPU. Les temps sont a chaque fois identiques. Donc le goulot d'étranglement est bien le processeur dans ce cas

baséli

Citation de: OuiOuiPhoto le Janvier 24, 2017, 10:58:00
Donc après vérification l'activation ou pas de la GPU n'affecte pas le temps nécessaire a faire un export. J'ai testé l'export sur un SSD super rapide et sur un DD normal et avec GPU et sans GPU. Les temps sont a chaque fois identiques. Donc le goulot d'étranglement est bien le processeur dans ce cas

Alors les benchs de processeur suffisent? Je ne veux pas te casser le moral, mais Samoreen n'a pas vraiment tort. Si l'environnement n'est pas contrôlé, les résultats peuvent être (seront?) incohérents.

Par contre une info intéressante sur les performances d'export serait de voir l'influence du nombre de cores, du nombre de threads, de la taille de la mémoire, de la fréquence du processeur sur la performance. Sachant que cela est en théorie dépendant de la version de LR utilisée.

Mais je peux te dessiner la tendance générale grâce à ma gigantesque connaissance informatique: plus tu as de cores qui vont vite et assez de mémoire, mieux c'est :-)

OuiOuiPhoto

Citation de: baséli le Janvier 24, 2017, 14:02:29
Alors les benchs de processeur suffisent? Je ne veux pas te casser le moral, mais Samoreen n'a pas vraiment tort. Si l'environnement n'est pas contrôlé, les résultats peuvent être (seront?) incohérents.

Je préfère  dire qu'ils seront réels qu'incoherents ;)  Ce n'est pas la même approche.  L'idée  étant  justement de voir ce qui se passe dans la réalité plus tôt que dans un ca d'école qui n'a rien de reel.

Mais bon comme ca ne déchaîne pas les foules je vais faire autre chose ;)

baséli

Citation de: OuiOuiPhoto le Janvier 24, 2017, 15:57:40
Mais bon comme ca ne déchaîne pas les foules je vais faire autre chose ;)

Ma foi, je n'ai pas vu de différence fantabuleuse entre mon Mac mini 2012 et le nouveau Mac book pro 15 pouces avec le processeur le plus rapide auquel j'ai accès . Économies...

Si tu me prouves qu'un PC Windows enterre les deux macs pour la moitié du prix, je vais encore dépenser des sous. Alors abstiens-toi stp  ;D