Je viens de mettre a jour le portable Hp de mon epouse que je lui ai offert a noel il y a 3 ans.....c'est un engin d'entrée de gamme que j'avais paye dans les 500 euros à l'époque, avec un processeur Amd......j'en ai profité pour y mettre capture nx2 et view nx2 pour lire mes fichiers de 800... En me disant que j'allais bien voir......eh bien j'ai vu.....c'est d'abord tout-à-fait possible d'ouvrir les raws de tous mes boitiers sans y passer une plombe, et de faire du post-traitement léger sans aucun problème.....
Le 800 et les derniers boitiers pixellisés comme le 600 ne doivent pas faire peur....puisque le portable d'entrée de gamme de ma tendre( pas tant que ça quelquefois) fait l'affaire !
Alors bonnes photos a tous.....
Mon PC portable a quatre ans.
Ce n'était pas un modèle bas de gamme, mais je n'ai pas assez d'espace disque pour transférer toutes les photos de sport prises en trois jours à Jardy, et je dois utiliser le DD annexe.
Je me suis dit que pour 100€ je pouvais remplacer mon disque dur 2,5' de 240 GO par un disque de 1TO.
Oui, mais quand je vois comme CaptureNX2 rame avec les RAW du D600, et comment CS6 a du mal à gérer un assemblage de 6 fichiers JPG de D600, je me dis qu'il vaut mieux envisager l'achat d'un PC de bureau musclé, afin de pouvoir passer à CS7 en toute sérénité.
J'ai aussi un Acer de bureau en I5 avec 8 GO de Ram et une bonne carte graph et 2 TO de DD....+ un portable MSI en I7 avec 8Go de rem 1 To de DD ( 2 fois 500 go en raid0 â 7.200 tours)et une carte GTX....c'est sûr que pour du traitement muscle et un Workflow important, il vaut mieux un ordo muscle.....mais les besoins d'un amateur ne sont pas ceux d'un amateur expert et encore moins d'un pro.....
Citation de: SurSon31 le Octobre 06, 2012, 16:44:50
Dés qu'on se lance dans des travaux un peu ambitieux en post-prod il faut une machine sérieuse.
Rien de nouveau sous le soleil et ce n est pas le d800 qui l impose mais le poids des fichiers sous photoshop par exemple. Ajuster des contrastes dans lightroom c est une chose, faire un développement ou une retouche complexe en est une autre.... Suffit de prendre un boitier obsolète genre 12 mpix ;-) un tiff 16 bit pese 80 mo on superpose une dizaine de calques et on lance l outils liquify par ex , et la on voit si la machine tient la route...
Mais dans ce cas le pc de mme suliacais prend feu c est une évidence ...
Un traitement d'un raw D700 qui passe par LR4 puis PS smart object puis Silver Efex pro 2 met mon iMac 8go de ram de 2010 à genoux... Le même workflow avec un raw de D800 je préfère même pas y penser ;)
(Cela dit Silver Efex utilise la CG et celle de l'iMac n'est pas très puissante, une Nvidia 9200M... Sur mon MacBook retina c'est beaucoup plus fluide)
Citation de: suliaçais le Octobre 06, 2012, 16:26:55
J'ai aussi un Acer de bureau en I5 avec 8 GO de Ram et une bonne carte graph et 2 TO de DD....+ un portable MSI en I7 avec 8Go de rem 1 To de DD ( 2 fois 500 go en raid0 â 7.200 tours)et une carte GTX....c'est sûr que pour du traitement muscle et un Workflow important, il vaut mieux un ordo muscle.....mais les besoins d'un amateur ne sont pas ceux d'un amateur expert et encore moins d'un pro.....
Entièrement d'accord avec ce que tu écris.
Merci Jeanbart le seul à avoir compris le sens du fil de Suliaçais
Suliaçais parle de post traitement légers !c'est clair il n'est en aucun moment question d'autre chose!
Citation de: SurSon31 le Octobre 06, 2012, 17:06:54
Tu peux l'expliquer ?
Si on bosse en RAW juste pour les visualiser sans les traiter sérieusement autant bosser en JPG direct, non ?
Un jour j ai fait la même réflexion que j ai fait plus haut et bernard 2 qui semble avoir une bonne connaissance du marche m a fait a son tour une réflexion.
"90 pourcent des gens qui parlent de faire des pdv en raw ne se servent du développeur pour ajuster contraste et bdb et de bruiteur auto" ...
Le pire c est qu il a surement raison...
Citation de: paulin le Octobre 06, 2012, 17:13:46
Suliaçais parle de post traitement légers !c'est clair il n'est en aucun moment question d'autre chose!
Je pense plutot que de post traitement suliacais parle de regler le contraste et la nettete , mais pour cela est il necessaire de trimballer des fichier de plus dizaine voire centaine de mo ?
Et si un jour il achète un PC + puissant il pourra toujours retraiter ses NEF alors que les JPEG c'est cuit
Citation de: paulin le Octobre 06, 2012, 17:18:36
Et si un jour il achète un PC + puissant il pourra toujours retraiter ses NEF alors que les JPEG c'est cuit
A bon des jpeg ca ne se traite pas ?
Tient en v´ la une autre !!!!
Citation de: SurSon31 le Octobre 06, 2012, 17:24:24
Cela se traite mais avec bien plus de limites au champ des possibles 8)
Disons que je ne souhaite pas rentrer dans ce genre de débat ici ca évitera les grosses polémique, mais bon le cote "jpeg ca ne se traite pas " me fait sourire, c est tout....
Mon avis est que Un fichier jpeg est moins flexible qu un tiff ou un raw mais un jpeg se traite très bien tant qu on ne tire pas trop dessus (en particulier du cote de la chromie)
L'ordinateur portable de son épouse ,ce qui laisse entendre qu'il y a au foyer un autre ordi voire plus . Pour moi le sens de sa phrase on l'utilise pour dépanner , voyages ,vacances , dépannage il me
semble
Les photos prennent de la place en RAM, mais pas tant que ça: 36 MPix = 216 Mo de RAM une fois décompressé. Donc en dehors de l'utilisation de 50 calques dans Photoshop, normalement n'importe quel PC actuel (avec donc entre 4 et 8 Go de RAM) devrait faire plus que largement l'affaire. De même pour le CPU, un core i5 est plus que suffisant, un vieux core2duo ou équivalent étant là aussi largement suffisant. En fait, le problème est bien souvent au niveau du Disque Dur, en particulier avec l'utilisation de Lightroom ou Aperture, c'est à dire avec des logiciels intégrant une gestion de bibliothèque. Là, il faut que le logiciel accède le plus rapidement possible à une grande quantité de données. Plus le disque dur sera rapide, plus le logiciel répondra rapidement.
Donc en priorité, prendre un gros disque dur rapide. L'inconvénient: 1To en SSD, ça coûte un bras.
Citation de: arno06 le Octobre 06, 2012, 17:30:05
Disons que je ne souhaite pas rentrer dans ce genre de débat ici ca évitera les grosses polémique, mais bon le cote "jpeg ca ne se traite pas " me fait sourire, c est tout....
Mon avis est que Un fichier jpeg est moins flexible qu un tiff ou un raw mais un jpeg se traite très bien tant qu on ne tire pas trop dessus (en particulier du cote de la chromie)
Donc vous êtes d'accord: un fichier jpeg se traite, avec plus de limitations qu'un RAW.
Arno 06 Vous savez très bien que les JPEG traités une fois enregistrés sont irrattrapables pas de retour au JPEG initial possible
Citation de: SurSon31 le Octobre 06, 2012, 17:35:44
Il me semble que suliaçais a été simplement agréablement surpris de constater que les RAW du D800 n'étaient pas les monstres prés à faire rendre grâce à tout ordinateur de plus de six mois ne coutant pas un bras que certain ont présenté ici sous un ton apocalyptique et qu'il voulait partager ce constat.
Rien de plus.
Et moi j'ai tenté de dire que le simple D600 va m'obliger à changer d'ordinateur plus tôt que prévu.
Rien de plus.
Citation de: SurSon31 le Octobre 06, 2012, 17:39:48
Cela avait été bien compris, non ?
Espérons-le !
Hier j'ai eu a traiter une centaine de fichiers sous NX2. Juste pour ajuster le point noir et le point blanc, car les photos avaient peu de contraste.
Cela m'a pris l'après-midi !
C'est incroyable ce que CaptureNX2 peut être long, juste pour exporter un fichier de D600 en JPG qualité maximale !
Citation de: paulin le Octobre 06, 2012, 17:36:37
Arno 06 Vous savez très bien que les JPEG traités une fois enregistrés sont irrattrapables pas de retour au JPEG initial possible
Oui mais cela est au même titre qu un raw développe si on ne conserve pas une copie de l original.
Perso j utilise les deux formats de fichiers et sauvegarde toujours séparément le travail développe ou fini du fichier original...
J aime bien le jpeg du fait de sa rapidité de traitement et du faible poids des fichiers...
Mon ordi n est pas un foudre de guerre et les fichiers jpeg sont un vrai régal en terme de productivité... Apres comme il a été dit au dessus c est un peu plus limite qu un tiff 16 bits en particulier en travail de chromie... ...
Citation de: SurSon31 le Octobre 06, 2012, 17:38:35
Tout dépend de ce qu'on applique comme traitement aux images, essayes de traiter 100 RAW de D800 avec DxO sans accélération GPU avec un Core2duo.
Bon, j'ai pas DxO, et donc je ne peux pas essayer avec ce logiciel. Par contre, j'utilise Lightroom depuis peu, et ai aussi acheté un SSD pour mon désormais ancien Core2Duo. Appliquer la correction automatique de l'objectif sur un ensemble conséquent de ma bibliothèque (~15000 RAW de D200) n'a pas pris tant de temps que ça, avec le SSD travaillant à fond (~130Mo/s en lecture et écriture, de manière quasi constante). Je ne peux pas donner de mesure exacte, ayant changé d'ordinateur aussi depuis.
Citation de: paulin le Octobre 06, 2012, 17:13:46
Suliaçais parle de post traitement légers !c'est clair il n'est en aucun moment question d'autre chose!
Je crains qu'il ne serve à rien de répondre. Ici si l'on demande un conseil pour se prendre un D5100 et un 18-105 on retrouve invariablement des gens qui vont orienter la conversation vers un boîtier 24x36; idem pour les objectifs, l'utilisation du jpeg, ..., et les ordinateurs. ;D
D'un côté on nous explique que l'essentiel des réglages se fait à la prise de vue et de l'autre que l'on est une tanche si l'on ne fait pas quinze calques de traitement sous CS6 et que l'on ne fait pas de traitement par lot en batch de 800 photos.
Assumant totalement mon caractère déviant, je dis vive le jpeg, le post traitement light, les boîtiers FX utilisés en DX, le D800E en photo de sport à main levée, etc... etc...
Citation de: SurSon31 le Octobre 06, 2012, 17:50:50
Il y a longtemps que j'ai abandonné NX2 justement pour ses problèmes de performance, cela ne c'est pas amélioré ?
Les softs nikon en tiennent une belle c est clair!
Il y a pire quand même essayes un jour hyper utility de fuji et la ca te passe l'envie de bosser en raw ;D
Citation de: SurSon31 le Octobre 06, 2012, 17:50:50
Il y a longtemps que j'ai abandonné NX2 justement pour ses problèmes de performance, cela ne c'est pas amélioré ?
Non.
Je l'ai en version Démo depuis hier et il y a déjà eu deux plantages, parce que j'essayais d'ouvrir et de traiter deux images à la fois ! ;D ;D ;D
Je vais acheter CS7 d'ici Noël, et en attendant, NX2 me dépannera... tant bien que mal...
Citation de: SurSon31 le Octobre 06, 2012, 15:51:07
Pour un travail un peu poussé il est quand même préférable de disposer d'une machine disposant de pas mal de RAM et d'un sous système disque assez performant.
PS : Plus une bonne carte graphique pour les soft sachant en tirer parti tel DxO.
En même temps, ça tombe bien, la RAM ne coûte quasiment plus rien en ce moment. Pour une fraction du prix d'un D600 ou D800 (moins de 200€), on peut porter un PC de bureau à 32 Go de RAM, ce qui devrait être plus que suffisant au niveau mémoire pour de la photo. La seule limitation, c'est d'avoir une carte mère permettant de recevoir 4 barrettes ou plus.
Même chose pour les disques durs, le prix des SSD a considérablement baissé et on peut avoir un disque de capacité convenable (pour accueillir l'OS, les photos en cours de traitement, le fichier d'échange et les fichiers temporaire) pour une somme très raisonnable.
Concernant la carte graphique, je suis assez dubitatif sur l'intérêt d'une carte haut de gamme. Les cartes haut de gamme sont orientés jeux et ont des contraintes assez différentes du traitement photo (bande passante mémoire, fonctionnalités) et du coup je ne sais pas si mettre plus de 400 € dans une carte haut de gamme offre vraiment un gain significatif. Il serait intéressant d'avoir un réel banc d'essai là dessus, avec par exemple un logiciel comme DxO et différentes gammes de GPU (circuit intégré, carte discrète entrée de gamme, milieu de gamme et haut de gamme).
Avec le D800 il faut se préparer à prendre en charge l'embonpoint des fichiers sur le disque principal mais aussi sur les sauvegardes.
Un RAW 14 bits compressé sans perte ça fait dans les 45Mo de moyenne, il est donc assez facile d'évaluer en fonction de ses besoins photographiques ce qu'il faut en stockage...
CS6 est sortie fin avril 2012 - le cycle de développement est de 18 mois chez Adobe,
va falloir attendre encore un peu Tonton-Bruno ;-) car c'est pour Noel 2013 la version CS7 ...
NX2 est très bien, Photoshop CS6 également, mais ce que fait l'un, l'autre ne le fait pas (ou pas aussi bien) (et inversement )
14 bits non compressé c'est 77 Mo en NEF, et 210 Mo en TIF 16 bits après l'export
ou un dock Storeva Quattro et pleins de disque de 2 To
la solution IBM me fait penser aux cartouches ZIP de l'époque (même si dans ton cas c'est sur une bande ;-)
Citation de: MarcF44 le Octobre 06, 2012, 18:13:53
Avec le D800 il faut se préparer à prendre en charge l'embonpoint des fichiers sur le disque principal mais aussi sur les sauvegardes.
Pour les sauvegardes, on peut aussi avoir une solution dans le cloud avec un volume illimité. J'utilise par exemple Crashplan qui me coûte moins de 10 euros par mois pour toutes mes machines.
Citation de: Lictor le Octobre 06, 2012, 19:09:28
Pour les sauvegardes, on peut aussi avoir une solution dans le cloud avec un volume illimité. J'utilise par exemple Crashplan qui me coûte moins de 10 euros par mois pour toutes mes machines.
Une solution type cloud ne me dispensera jamais d'avoir les fichiers en plus à la maison !
le problème du "Cloud" c'est la vitesse de transfert avec des gros fichiers, allez hop je transfert 32 Go (400 images NEF du d800e) avec ma connexion à 17 Mega de mon FAI (1.5 Mo/s en Upload ...)
à la maison, sur mon "Cloud" perso (double NAS et à plusieurs disques) en 1000 Base T, oui j'ai du 97 Mo/s, là ça se tient, mais via Internet, peut être un jour, uniquement quand l'Upload sera plus rapide que mon VDI (c'est à dire avec du 10G Base T sur la ligne du FAI)
solution économique : dock Storeva Quattro et des disques de 2 To
Citation de: d800e le Octobre 06, 2012, 19:20:28
le problème du "Cloud" c'est la vitesse de transfert avec des gros fichiers, allez hop je transfert 32 Go (400 images NEF du d800e) avec ma connexion à 17 Mega de mon FAI (1.5 Mo/s en Upload ...)
Oui, c'est sûr que faire partie des privilégiés qui ont la FTTH à la maison aide un peu ;) J'upload à 15 Mo/s et du coup le backup se fait de manière complètement transparente.
Mais même avec une connexion plus lente, ça passe encore. Même en ADSL à 128 kb/s, soit un peu moins d'un Mo par minute, la carte sera sauvegardée en moins d'une heure, ce qui reste raisonnable.
Citationà la maison, sur mon "Cloud" perso (double NAS et à plusieurs disques) en 1000 Base T, oui j'ai du 97 Mo/s, là ça se tient, mais via Internet, peut être un jour, uniquement quand l'Upload sera plus rapide que mon VDI (c'est à dire avec du 10G Base T sur la ligne du FAI)
L'avantage via Internet, c'est que ça permet d'avoir un backup qui ne met pas toutes les données au même endroit. Et du coup, ça protège également en cas de vol ou d'incendie.
De même, le NAS a l'inconvénient d'être en ligne à tout moment - ainsi, un malware qui va effacer toutes les images sur les disques ira également taper sur le NAS si les disques sont montés (ce qui était déjà arrivé à mon précédent boulot : toutes les images du réseau y étaient passées en même temps). Même chose en cas de corruption de données, si on ne fait pas attention, on peut se retrouver à écraser assez facilement les versions saines avec des version corrompues lors des sauvegarde. Alors que via le cloud, j'ai une vraie gestion de version des fichiers avec une rétention sur plus d'une année qui permet de revenir en arrière en cas de catastrophe.
[at] SurSon31
archivage temporaire c'est clair, mais économique et rapide
au fil du temps, on changera avec l'évolution de la technologie
c'est idem avec la solution LTO, qui dans 20 ans ne fonctionnera plus
ya pas de solution pérenne
Citation de: Lictor le Octobre 06, 2012, 19:34:15
...Alors que via le cloud, j'ai une vraie gestion de version des fichiers avec une rétention sur plus d'une année qui permet de revenir en arrière en cas de catastrophe.
A 10 euros par mois, est-ce que ton contrat te garantie à vie l'intégrité des données stockée, quel taux de disponibilité , quel taux de transfert garantie côté hébergeur ?
En cas de perte, quelle est l'indemnisation prévue ?
Citation de: SurSon31 le Octobre 06, 2012, 19:30:49
Se reposer sur des disques pour de l'archivage est un rien irréaliste ;)
Ca dépends de ce qu'on archive, on parle de photo ici et avoir déjà 10.000 photos à consulter une fois arrivé en bout de piste c'est déjà difficile à exploiter...
(je parle d'un usage amateur)
[at] Lictor , le pb est en cas de coupure Internet, pas d'accès au données
NAS sous unix et crypté , non connecté au réseau Internet, tous les disques, même externe, sont crypté + copies externalisées
je préfère ma solution "maison"
comme le débit à 15 Mo / s est insuffisant pour mes besoins, et avant d'avoir un FTTH en 10GBT, il va se passer encore quelques années
[at] SurSon31, nous sommes complétement d'accord sur les 2 notions
Le pb du nuage est la nécessité de réduire les photos.
Tu répondras mieux des photos réduites que plus rien.
C'est juste mais dur de s'y résoudre. je préfère encore un DD bien enveloppé dans du plastique à bulle, et plan qué en deux exemplaires chez deux personnes différentes.
Citation de: SurSon31 le Octobre 06, 2012, 19:42:20
Je ne vois pas en quoi le fait que les données soient des photos rend moins périlleux le fait de les perdre suite à un stockage hasardeux ???
PS : Tu as ajouté la notion d'usage amateur, mais même là perdre ses souvenirs est quand même souvent vécu comme un traumatisme.
Tu as écris qu'il n'est pas réaliste d'avoir une stratégie d'archivage avec des disques durs...je répondais juste que je ne suis pas d'accord (on peut faire de la redondance sur 2 lieux, renouveler régulièrement le matériel etc.) ;)
[at] SurSon31 via RSYNC et CRONTAB, cela se fait tout seul et avec des disques en RAID , cette solution fonctionne sans trop d'emmerdements - le tout c'est de trouver sa solution, mais rien n'est idéal
Citation de: Tonton-Bruno le Octobre 06, 2012, 17:37:25
Et moi j'ai tenté de dire que le simple D600 va m'obliger à changer d'ordinateur plus tôt que prévu.
Rien de plus.
On peut aussi ne changer que certaines pièces, ce qui coute moins cher au final.
Citation de: MarcF44 le Octobre 06, 2012, 19:38:20
A 10 euros par mois, est-ce que ton contrat te garantie à vie l'intégrité des données stockée, quel taux de disponibilité , quel taux de transfert garantie côté hébergeur ?
En cas de perte, quelle est l'indemnisation prévue ?
Non, pour cela il faudrait que je passe en contrat pro ou entreprise, ce qui revient beaucoup plus cher et dont je n'ai pas besoin. Ayant un usage amateur, je peux passer deux heures sans mes photos si je dois attendre pour les récupérer, donc je ne vois pas l'intérêt de payer un surcoût pour avoir de la disponibilité.
De toute façon, il faut rester réaliste. Un service avec un SLA court, une garantie de disponibilité à 99.9% et une assurance significative en cas de perte de données serait hors de portée de la bourse d'un amateur ou même d'une TPE...
En même temps, la solution HDD ou bande n'est pas mieux :
- garantie à vie : néant, les disques sont garanties 2 ans - aucune solution ne donne de toute façon une garantie à vie, ne serait-ce que parce que les conditions commerciales changent ou les entreprises disparaissent. Par exemple, j'ai déjà basculé de Mozy à Crashplan à cause d'un changement de politique tarifaire. Ce n'est pas un problème : j'ai juste conservé les deux backups en parallèle le temps de faire la transition - et à l'époque j'étais en ADSL avec environ 600 Go de données à sauvegarder, donc la transition a été longue. D'ailleurs, si on a les moyens, personne n'interdit de tourner avec deux solutions de backup dans le cloud en même temps.
- taux de disponibilité : 100% tant que ça ne tombe pas en panne, autrement perte de quelques heures à jour le temps de racheter ou de quelques semaines si on attend après le SAV pour changer le disque gratuitement
- indemnisation : 0€, tous les fabricants de disques durs excluent très explicitement toute indemnisation.
Le taux de transfert n'est en fait pas très pénalisant : le backup tourne en permanence, donc les données finissent bien par être transférées sans que j'ai à m'en occuper. Comme je disais, j'étais en ADSL avant sans que ça me pose problème pour les photos.
A noter que les deux solutions ne sont pas non plus exclusives : Crashplan gère également très bien le backup automatique entre deux ou plusieurs PC (par exemple, mes données du bureau sont sauvegardées chez moi vu que mon entreprise n'a pas de backup et que j'ai moyennement envie de refaire des semaines de boulot en cas de problème) ou sur un disque dur externe. Avec l'avantage que ce backup est incrémental et intègre la gestion de version.
Après, tout ce joue sur une affaire de confiance. J'ai nettement plus confiance dans des bandes traitées dans un datacenter que dans des disques durs de sauvegarde qui prennent la poussière chez moi.
Citation de: M [at] kro le Octobre 06, 2012, 20:30:04
On peut aussi ne changer que certaines pièces, ce qui coute moins cher au final.
C'est le gros avantage de monter une tour soi-même : au lieu de changer de PC tous les 3 ans, on peut changer quelques pièces de temps en temps. Sachant que certaines pièces, comme la tour (100€ si on prend de la qualité) ou l'alimentation (100-150€), peuvent être conservées assez longtemps et sont autant d'économies par rapport au changement de PC (sachant que les PC de marques économisent souvent honteusement sur ces pièces). Surtout, on peut changer uniquement les composants qui ont réellement un impact sur ses besoins. Avec en plus la possibilité de recycler les anciens composants dans un HTPC ou un NAS. Si on a pas besoin de mobilité, c'est clairement la solution que je conseille.
Par contre, c'est nettement plus problématique avec un portable. Autant j'ai pu faire évoluer mon Macbook 2008 (rajout de RAM, rajout d'un SSD en plus du disque dur) autant je ne pourrais plus avec mon futur Macbook Air 2012.
Citation de: SurSon31 le Octobre 06, 2012, 19:30:49
Se reposer sur des disques pour de l'archivage est un rien irréaliste ;)
Idem pour le LTO.
[at] d800e
Euh, quel type d'usage as-tu pour que 15 Mo/s soit insuffisant ??? Il y a pas mal de NAS en réseau local qui n'atteignent même pas ce débit quand ils sont montés en RAID 5 ! Ce genre de débit me donne tout de même la capacité d'envoyer une dizaine de disques durs sur le cloud en 24h... Je vois mal comment on peut générer autant de données à une seul personne.
Le vrai problème est avec les liaison ADSL, qui sont effectivement épouvantablement lente en upload.
Après, tout dépend des usages. Tous les photographes amateurs ne mitraillent pas plusieurs cartes haute capacité tous les jours sans discontinuer.
A noter que la plupart des services de backup sur le cloud offrent la possibilité d'initialiser le backup en envoyant des disques durs par la poste. Ce qui compte réellement n'est pas le volume total de données, mais bien le volume de données réellement nouvelles générées tous les jours - sachant que ces backups gérent assez bien de n'envoyer que des différences et que du coup une simple retouche sur un NEF ne génère que très peu de données à transmettre. La retouche sur JPEG est nettement plus consommatrice.
"NAS sous unix et crypté , non connecté au réseau Internet, tous les disques, même externe, sont crypté + copies externalisées"
Oui, mais :
- le NAS est connecté au réseau local, non ? S'il est monté via le partage Windows ou Mac, un simple ver ou virus pourra aller effacer le contenu du NAS comme d'un disque dur local. Et s'il n'est pas connecté, le risque est d'oublier de faire les backups ou de les faire de manière trop peu fréquente. Par comparaison, mon backup envoie les changements sur les fichiers toutes les 15 minutes.
- le chiffrage n'apporte pas de sécurité supplémentaire. Au contraire, il fragilise les données et augmente la probabilité de bug corrompant les données.
[at] kochka
"Le pb du nuage est la nécessité de réduire les photos."
Pourquoi faudrait-il réduire les photos ?
Je ne travaille plus qu'en NEF depuis des années. Mon backup sur Crashplan intègre la totalité de mes NEF, c'est tout l'intérêt d'avoir un stockage illimité. J'ai actuellement un peu plus de 1 To stocké chez eux, entre mes photos, ma bibliothèque iTunes et mes documents.
Il y a également d'autres services qui permettent de stocker les photos en NEF, il me semble que c'est le cas chez DarQroom par exemple.
Citation de: SurSon31 le Octobre 06, 2012, 20:05:39
Ok, on peux effectivement y arriver vaguement avec ce type d'acrobaties en étant très précautionneux, assidue, pas étourdit et en acceptant de perdre potentiellement une masse relativement conséquente de donnés 8)
Ce type de démarche est franchement très lourde et s'y tenir sans impair relève presque de l'ascétisme.
Bah non, mon Mac est sauvegardé en intégralité chez moi et au boulot par Time Machine. Donc les photos courantes sont constamment sauvées dans deux endroits différents sans avoir à faire d'acrobatie particulière, juste en branchant ma machine sur deux réseaux différents. Pour les photos archivées (une fois de temps en temps, pour faire de la place), là on peut faire un petit effort et les archiver deux fois, c'est pas bien compliqué.
Citation de: Lictor le Octobre 06, 2012, 23:04:44
[at] d800e
- le NAS est connecté au réseau local, non ? S'il est monté via le partage Windows ou Mac, un simple ver ou virus pourra aller effacer le contenu du NAS comme d'un disque dur local. Et s'il n'est pas connecté, le risque est d'oublier de faire les backups ou de les faire de manière trop peu fréquente. Par comparaison, mon backup envoie les changements sur les fichiers toutes les 15 minutes.
- le chiffrage n'apporte pas de sécurité supplémentaire. Au contraire, il fragilise les données et augmente la probabilité de bug corrompant les données.
Je ne travaille plus qu'en NEF depuis des années. Mon backup sur Crashplan intègre la totalité de mes NEF, c'est tout l'intérêt d'avoir un stockage illimité. J'ai actuellement un peu plus de 1 To stocké chez eux, entre mes photos, ma bibliothèque iTunes et mes documents.
Il y a également d'autres services qui permettent de stocker les photos en NEF, il me semble que c'est le cas chez DarQroom par exemple.
D'abord, le NAS peut très bien être programmé pour démarrer et effectuer le backup à heures fixes. Mon NAS de backup ne démarre que quelques heures par semaine pour le backup. Ensuite on a la possibilité de jouer sur les deux tableaux, ce que je fais : NAS + Crashplan. Ca me donne un backup local sécurisé, mais aussi une sauvegarde distante et protégée d'autres risques (incendie par ex.).
Citation de: SurSon31 le Octobre 06, 2012, 19:30:49
Se reposer sur des disques pour de l'archivage est un rien irréaliste ;)
Bjr,
Peux-tu nous en donner les raisons ? Merci.
Citation de: Lictor le Octobre 06, 2012, 20:45:32
Non, pour cela il faudrait que je passe en contrat pro ou entreprise
...
Après, tout se joue sur une affaire de confiance.
La confiance non contractualisée avec une entreprise dont le but est de faire les marges les plus importantes possible c'est toi qui voit...Personnellement si je devais déplacer des données importantes exclusivement dans un Cloud ça me filerait les jetons sous ces conditions.
Je ne suis pas fondamentalement contre mais il faudrait que les débits augmentent (dans mon bled c'est 200Kb/s descendant, pas pratique avec des RAW de D800E ;D)
Et choisir 2 fournisseurs différents par sécurité...Ca fait 20 euros par mois (le coût de renouvellement des disques dur dans la durée ne sera pas si éloigné cela dit...)
[at] Lictor, quel est ton gentil FAI qui te donne un upload de 15 Mega Octet / s ? et quel tarif ?
pour répondre à tes questions :
. usage pro, besoin de débit mini sup à 80 Mega Octet / s
. chiffrage (à 448 bits) = données non inexploitable en cas de vol des disques
. les NAS ne sont pas connecté sur l'extérieur, tout comme les stations de travail
. le poste Internet a son propre réseau séparé (et ya pas de wifi)
. firewall matériel sous OpenBSD
Citation de: Yann.M le Octobre 07, 2012, 07:26:16
Bjr,
Peux-tu nous en donner les raisons ? Merci.
Pour une activité presse ou pour un pigiste la fiabilité du moyen de stockage est très importante , pour le reste je ne vois pas non plus ...
cout / prix de la solution LTO ?
pérennité LTO sachant que le consortium change de version tous les 4 matins (... en 10 ans 5 générations de lecteur ...)
bref, jamais de pb en doublant la copie des données sur HDD
Citation de: arno06 le Octobre 07, 2012, 11:18:16
Pour une activité presse ou pour un pigiste la fiabilité du moyen de stockage est très importante , pour le reste je ne vois pas non plus ...
Je considère au contraire que la fiabilité des moyens de stockage est beaucoup plus importante pour le grand public.
J'ai un cousin qui a perdu 100 ans de photos de famille à la suite d'une inondation.
C'est une perte irréparable, pour lui et pour toute sa famille.
Le pigiste qui perd ses photos, c'est juste le cas d'un artisan dont le fonds de commerce est détruit. C'est une sacrée tuile, et il a intérêt d'être bien assuré, mais ses petits-enfants, dans 50 ans, n'en auront rien à cirer.
[at] tonton-bruno,
entièrement d'accord (même si cela serait une grosse cata pour le pro)
cf précédent message : CS7 c'est noel 2013 (cs6 vient de sortir en avril 2012, cycle de 18 mois chez adobe)
je te prépare également des clichés au Voigtlander Nokton avec le d800e (c'est pas du zeiss mais c'est bon quand meme, cf l'autre topic)
Citation de: arno06 le Octobre 07, 2012, 11:18:16
Pour une activité presse ou pour un pigiste la fiabilité du moyen de stockage est très importante , pour le reste je ne vois pas non plus ...
Pour une activité presse ou pour une pige pour client en général tu livres le boulot au client et après tu oublies...même si tu en gardes quelques unes à la rigueur pour toi et ton book !
Je pourrai sans aucun pb perdre les photos de mes clients (je sais en plus que je pourrai les retrouver), mais perdre la naissance de mes enfants, mes grand-parents et tous ceux qui m'étaient chers : non !
;)
Mais ma question n'était pas sur la philosophie du stockage mais sur le support ???
Je confonds toujours les numéros des version d'Adobe Camera Raw (ACR) avec celles de Photoshop CS.
J'édite mes photos avec ACR 6 pour CS6, et pour pouvoir ouvrir les NEF du D600, il va me falloir passer à ACR 7.
[at] tonton-bruno, c'est ACR 7.2 (7.2.0.46) sur CS6 actuellement
Citation de: d800e le Octobre 07, 2012, 12:14:52
[at] tonton-bruno, c'est ACR 7.2 (7.2.0.46) sur CS6 actuellement
Oui, ai je n'ai que CS5
Grrr... Je m'étais encore planté !
Citation de: Tonton-Bruno le Octobre 07, 2012, 12:06:00
Je confonds toujours les numéros des version d'Adobe Camera Raw (ACR) avec celles de Photoshop CS.
J'édite mes photos avec ACR 6 pour CS6, et pour pouvoir ouvrir les NEF du D600, il va me falloir passer à ACR 7.
Je voulais dire ACR 6 pour CS5.
Je suis désolé.
[at] SurSon31, cout / prix de la solution LTO svp ? car j'ai pas cette info, par avance merci
merci SurSon31
sur amazon.fr tapez la ref LTO-5 HH dans le moteur de recherche et vous aurez une idée des tarifs concernant les solutions LTO d'archivage sur bande (à ne pas confondre avec des disques de travail qui peuvent aussi servir de "backup de travail temporaire" en doublant les copies)
revenons un peu à la photo ... ;-)
Citation de: MarcF44 le Octobre 07, 2012, 08:05:51
La confiance non contractualisée avec une entreprise dont le but est de faire les marges les plus importantes possible c'est toi qui voit...Personnellement si je devais déplacer des données importantes exclusivement dans un Cloud ça me filerait les jetons sous ces conditions.
Non, son but n'est pas que de faire les marges les plus importantes, c'est également de conquérir des parts sur un marché d'avenir et d'augmenter son chiffre d'affaire. Ce qui, surtout pour une entreprise américaine, implique d'avoir une relation client de bonne qualité et d'éviter la mauvaise publicité. C'est pour la même raison que j'ai confiance quand je commande chez Amazon : le service et la satisfaction client fait partie du business.
Ce sont aussi des entreprises qui ne s'adressent pas qu'au grand public, Crashplan comme Mozy et d'autres ont également des grands comptes comme clients et sont donc obligés d'avoir un minimum de qualité et de se soumettre à des contrôles indépendants.
Après, oui, au final, ça reste une relation de confiance. Un engagement contratuel n'empêche pas l'entreprise de se mettre en faillite ou de perdre tes données...
Au passage, mes données ne sont pas exclusivement dans le cloud, elles sont de toute façon sur mon PC. Pour avoir une réelle perte de données, il faut encore que j'ai simultanément un problème sur mon PC et une défaillance de Crashplan.
CitationEt choisir 2 fournisseurs différents par sécurité... Ça fait 20 euros par mois (le coût de renouvellement des disques dur dans la durée ne sera pas si éloigné cela dit...)
Ça fait un peu moins en fait. Crashplan débute à $4.17/mois en illimité si on s'engage sur un an - je paye plus ($10) parce que je backup tous mes PC et que je suis donc en plan "familial". Il est aussi possible de baisser les coûts en s'engageant sur 2, 3 ou 4 ans. De même, il existe également une version gratuite de Crashplan qui permet de faire ses backups sur un cloud formé de proche (par exemple, on peut faire un backup croisé entre son PC, celui du boulot et ceux de quelques amis).
Il faut comparer au coût de deux ou plus disques externes. Ou au coût d'un NAS (j'arrive autours de 1000 euros pour le montage de mon NAS perso avec des composants de qualités et capable de tourner en ZFS et avec 4 disques 2 To en RAID).
Citation de: d800e le Octobre 07, 2012, 10:31:33
[at] Lictor, quel est ton gentil FAI qui te donne un upload de 15 Mega Octet / s ? et quel tarif ?
Pour le gentil FAI, c'est Free en FTTH, ça me coûte 37€ par mois en triple play. Pas vraiment eu de problèmes de fiabilité avec eux, je connais des PME qui tournent derrière une Freebox depuis des années sans problèmes.
Pour le débit de 80 mo/s, ça me parait énorme, la plupart des disques durs ne sont de toute façon pas capables de tenir ces débits sur la durée en usage réel. Ça demande d'avoir toute une chaîne à la hauteur, avec des SSD et des disques de qualité pour tenir ces débits avec des "petits" fichiers. Par exemple, quand je télécharge sur une source rapide, s'il faut avoir un peu de traitement sur les fichiers (type contrôle de parité et dézippage), le logiciel doit mettre le réseau en pause le temps que mon CPU (quadcore i7) et mon disque de stockage suive (certes, le disque en question est un 5400rpm). Comme tes disques sont chiffrés, il y a également le même facteur qui va jouer pour réduire le débit effectif.
Et je n'arrive toujours pas à comprendre comment tu arrives à produire 80 mo/s de données nouvelles ! Un reflex en rafale continue 24/24 n'arrive pas à produire une telle quantité de données... Nous parlons de backup, pas d'usage temps réel. Je ne vois pas le problème si le backup met une minute à sauvegarder la dernière carte SD, le temps de remplir la suivante, le backup aura été fait...
Après, concernant la sécurité, effectivement, avec ces mesures, ça réduit les chances d'une attaque virale. Mais combien des personnes ont réellement ça en place chez eux ?
Citation de: SurSon31 le Octobre 07, 2012, 12:35:43
Pour revenir sur les solution Cloud c'est réellement une révolution pour le grand public, les TPE et certaines PME dont les usages en terme de sauvegarde relèves bien souvent de la pensée magique.
Oui, typiquement la PME où je travaille. Tout le monde travaille sur un serveur de fichier unique. Et les données sont "protégées" par le fait que ce serveur est un NAS en RAID 5 et puis c'est tout. Le responsable informatique à l'air de juger que c'est sécurisé. C'est pour ça que je backup en plus mes données du boulot vers mon PC perso, comme ça le jour où les disques, qui ont maintenant plus de 3 ans d'âge et son saturés à 99%, vont finir par crasher, je serai le seul à ne pas avoir des mois de boulot à rattraper en catastrophe...
Effectivement, en matière de backup, la pensée magique domine. Et pourtant, je travaille dans une PME qui fait du développement informatique...
Le sujet de l'archivage a été débattu cent fois. Chacun y va de son petit couplet, certain que "sa" solution est la meilleure.
Or, dans les témoignages des pertes des données que l'on entend ici ou là, le problème n'était pas le choix de telle ou telle solution. Le problème, c'était que les victimes n'avaient pas de sauvegarde.
Mon message à mes petits camarades photographes : sauvegardez vos données. Choisissez la solution que vous voulez (DVD, BlueRay, DD, Cloud, RAID, bande...), toutes ont leurs avantages. Mais ne faites jamais confiance au disque dur de votre ordi.
Ma solution :
- pour les photos de famille, c'est l'album photo,
- pour le boulot, c'est le disque dur (original + copie).
[at] Lictor
Free ftth :
c'est 100 Mega en download, soit 10 Mo / s
c'est 50 Mega en upload, soit 5 Mo / s
---
USB 2 c'est 40 Mo /s
Fire 800 c'est 80 Mo / s
Gygabit Ethernet : env 100 Mo /s
---
d800e : 77 Mo par Nef, 210 Mo en Tif 16 Bit, et une fois sous photoshop avec plusieurs calques, le fichier dépasse le Go
un fichier video brut HD c'est plusieurs dizaine de Go
sachant qu'on ne travaille jamais avec le disque principal ..., faut de la vitesse et de la place
voila c'est tout (pas de FTTH chez moi à l'ouest, en face de la mer)
Citation de: SurSon31 le Octobre 07, 2012, 14:15:35
Dans ce contexte le Cloud est un pas de géant vers plus de sécurité pour la plus grande part des utilisateurs.
Il n'y a aucune solution 100% pérenne.
Le Cloud, c'est une entreprise + du matos + un réseau. Aucun des trois n'est éternel.
Cloud n'est pas égale à plus de sécurité (faille cloud, admin qui ont accès a tes données, etc ...) c'est simplement de l'externalisation qui existe depuis les débuts du réseau, sous le nom de "serveur distant", "Cloud" sa fait mieux, plus d'jeuns, épicétou
Citation de: SurSon31 le Octobre 07, 2012, 14:24:16
Nous ne parlons pas d'éternité mais de capacité a avoir de très faible chance de perdre ses donnés au mais c'est un pas de géant dans la bonne direction eu égard aux pratiques actuelle de la grande masse des utilisateurs en terme de sécurisation des données.
Le cloud, ça ne me rassure pas du tout car :
- la durée de vie d'une boîte high tech, bof,
- la confidentialité, quand on connaît l'indiscretion de FB et GG,
- si je démarrais une carrière de cyber-criminel, c'est au Cloud que je m'intéresserait. Soit pour y mettre le nez, soit pour les détruires (ou les prendre en otage).
Mais pour les photos "consommables" : celle que l'on a pris hier et qu'on jettera demain, pourquoi pas.
Citation de: SurSon31 le Octobre 07, 2012, 12:48:45
Les chances de défaillance d'un disque ou même d'un contrôleur RAID sont bien trop importante pour ce reposer sans soucis sur ce type de solution.
Les chances de défaillance de disques sont certes bien élevées. Les chances de défaillances de deux disques de façon simultanée le sont beaucoup moins, mais sont toujours présentes (par exemple, en cas de soucis électrique, les deux disques interne et externe peuvent griller en même temps). Dans le cas de 3 disques durs, un interne, et deux externes à deux endroits physique différents, les chances sont AMHA bien minces.
Citation de: SurSon31 le Octobre 07, 2012, 14:46:30
Croire que son informatique personnel est mieux sécurisée que celle des majors de l'industrie reléve dans bien des cas du fantasme
Pas tant que ça. Si l'on parle de sécurité, dans le sens de résistance aux attaques malveillantes, alors oui, dans bien des cas, son informatique personnelle est mieux sécurisée, ne serait-ce que par le fait qu'avec qu'elle n'intéresse que les robots automatisés qui cherchent à y implanter un cheval de troie, ce qu'un bon anti-virus ou des pratiques un poil plus évoluées contrent sans trop de soucis. Contrairement aux majors qui, elles, intéressent des humains avec des moyens bien plus importants en terme de connaissance de potentielles failles de sécurité.
Pour moi, le risque majeure du Cloud, c'est la faillite de l'entreprise.
De plus, que se passe-t-il si tu ne peux plus payer ton abonnement ? Ils te rendent tes photos ?
Citation de: SurSon31 le Octobre 07, 2012, 14:57:31
Ce qu'on oublis toujours sur le RAID ce sont les risques de défaillance du contrôleur pouvant entrainer la destruction des données.
Oui, et les problèmes d'alimentation qui grillent tout ! Là, si plus de deux disques sont morts en même temps, c'est la cata.
Citation de: Vbloc le Octobre 07, 2012, 14:19:57
Le Cloud, c'est une entreprise + du matos + un réseau. Aucun des trois n'est éternel.
Pas besoin d'éternité, un préavis suffisant pour avoir le temps d'envoyer ses données vers une autre entreprise est largement suffisant. C'est ce qui m'est arrivé avec Mozy par exemple. On m'a prévenu d'une augmentation des coûts au renouvellement de mon abonnement,ce qui m'a laissé trois mois pour changer de crèmerie.
Du moment que le délais de préavis est suffisant pour effectuer un nouveau backup ailleurs à temps, on est bon. Généralement, une grande entreprise ne met pas le clé sous la porte du jour au lendemain, il y a une procédure de mis en faillite qui laisse le temps de se retourner. Sachant que la plupart de ces entreprises ont de gros investisseurs en soutient - par exemple, Mozy, c'est EMC qui est tout de même un monstre dans le secteur.
Et dans tous les cas, il ne s'agit pas d'un stockage, mais bien d'un backup ! C'est d'ailleurs ce qui fait que ces solutions sont bien moins chères que du partage dans le cloud façon iCloud, Amazon ou Microsoft. Donc, mes données doivent de toute façon être sur mon disque dur en permanence et non dématérialisées sur le cloud.
Et le matos et le réseau d'un datacenter sont tout de même nettement plus éternels que les disques que je stocke chez moi ! Il n'y a rien à voir entre ma sauvegarde sur un disque grand public via un switch à 100 euros et une sauvegarde sur des bandes haut de gamme avec des redondances et une vraie infrastructure réseau monitoré en permanence...
Quand à l'administrateur qui aurait accès aux données, les données sont envoyées chiffrées avec une clé privée, donc pas trop de risque de ce côté là (à moins de supposer que le logiciel mente sur ses fonctionnalités et que les autorités de certification qui ont labelisé tout ça ne s'en soient pas rendu compte).
De toute façon, comme je précisais, mes données sont de toute façon sur mon PC sur des disques en RAID 0. Pour avoir une réelle perte de données, il faut que j'ai à la fois dans une période de temps réduite, une perte de données sur mon PC, sur mon disque de backup externe et que l'entreprise qui fait mon backup dans le cloud fasse faillite. Certes, il y a une chance non nulle, mais j'ai probablement plus de chance de mourir en traversant la rue tous les matins et de ne plus avoir besoin de mes données de toute façon... Toutes les activités sont liées à un risque : on peut acheter une Renault aujourd'hui et demain Renault fait faillite et on se retrouve sans garantie et sans possibilité de réparation. Pourtant, les gens achètent des voitures.
En informatique, rien n'est jamais assuré à 100%. On peut s'en approcher, mais ça reste une asymptote. Et les dernières fractions de pourcents sont les plus chères. Ainsi, passer d'un taux de disponibilité de 99% à 99,9% revient très cher pour un gain qui ne change rien pour la plupart des usages amateurs ou même pro.
Citation de: SurSon31 le Octobre 07, 2012, 14:57:31
Ce qu'on oublis toujours sur le RAID ce sont les risques de défaillance du contrôleur pouvant entrainer la destruction des données.
Surtout, on oublie le principal risque du RAID : il est synchrone. Si un virus décide de reformater le disque, la seule chose que garantie le RAID, c'est que tous les disques de la grappe seront reformatés en même temps. De même, si on fait une fausse manipulation et qu'on écrabouille un fichier vital, le RAID n'y peut rien : le RAID ne gère pas de version. Sans oublier le risque de corruption : on peut ne pas s'apercevoir d'un problème de corruption de fichier et le répliquer sur tous ses disques.
Il y a également l'énorme disque du RAID 5 hardware dont le fonctionnement dépend du contrôleur. Si le contrôleur grille, il faudra souvent récupérer exactement le même pour pouvoir accéder aux données. Et s'il est ancien et plus commercialisé, comme par exemple le contrôleur intégré à la carte mère, ça peut devenir une opération compliquée ! Il vaut mieux du coup faire du RAID logiciel. Mais c'est consommateur de ressource et ça va ralentir sensiblement les accès disques.
C'est par exemple un problème quand on monte un NAS. Si on veut utiliser du ZFS et du raid, ce qui me parait un minimum, il faut tout de même monter un NAS assez puissant (un atom est largement insuffisant) et le gaver de RAM (5 Go de RAM pour 1 To de stockage d'après les recommendation). Du coup, soit c'est cher, soit les performances sont médiocres.
Le tout étant assez hors de porté de la plupart des particuliers qui n'ont pas la compétence pour monter une machine et y installer un logiciel comme Freenas. L'avantage du cloud, c'est aussi d'offrir une solution déjà montée, configurée, administrée et sur laquelle la maintenance est faite régulièrement et de manière infiniment plus pro que ce que fera un particulier, même compétent.
Comme expliqué ci dessus, le nuages est un backup.
Les fichers restent toujours chez toi, et tant que tu n'est pas définitivement planté, tu peux les retransmettre ailleurs
Merci Surson31 pour ces explications.
Petite question de néophite : le stockage par bande n'est-il pas 'fragile' et sensible au magnétisme. J'ai de très vieilles bandes audio qui sont inaudibles ou presque et d'autres en excellente qualité.
Ma méthode est : sauvegarde sur deux HDD à la maison et un backup au studio de tout cela. Je sauvegarde tous les jours où je vais au studio via mon portable sur mon backup studio. Penses-tu qu'un système de sauvegarde par bande m'apporterait une fiabilité plus importante ?
Merci ;)
Citation de: SurSon31 le Octobre 07, 2012, 22:47:53
En terme de bonnes pratique une des démarches intéressante est de se poser la question d'une hiérarchisation dans l'importance de ses données.
Quelles sont celles qu'ont ne peut absolument pas se permettre de perdre ?
Quelles sont celles qu'il serait très embêtant de perdre ?
Quelles sont celles dont la perte n'aurait finalement pas de si grosse conséquence ?
...
Puis la question de l'état de ses donné en terme de besoin d'accès et d'édition :
Quelles sont les données que je dois pouvoir consulter, modifier au quotidien et donc avoir toujours sous la main ?
Quelles sont les données que je ne modifierais plus jamais mais qu'il me faut avoir a portée de main ?
Quelles sont les données qui pourrait un jour me servir mais qui peuvent nécessité en effort pour y accéder ?
...
En fonction de cela et du rapport des tailles il est possible de mettre en place une stratégie panachant les différent outils à sa disposition. 8)
Et bien je souhaite à celui qui fait cette démarche là bien du courage!
Chacun fait comme il le souhaite mais je trouve déjà l'indexation des fichiers superflue, alors si en plus il faut les noter en fonction d'une perte éventuelle, autant se reconvertir comme moine copiste.
Perso, je fais des sauvegardes globales et totales. Un disque de backup à la maison toujours déconnecté, un autre ailleurs: que je ne touche pas pendant un an et demi et qui correspond à mon ancien disque (cela crée une pile d'anciens disques).
Mon talon d'Achille est la non mise à jour du 3ème disque à l'extérieur pendant un an et demi. Cette période correspond à l'achat d'un nouveau disque (besoin de capacité supérieure : et pour ça le marché est bien fait car ça double quasiment pour le même prix).
Ce risque pourrait être résolu de deux manières :
- par une sauvegarde supplémentaire en ligne. Mais pour le moment le coût est rédhibitoire (2 To).
- par l'achat d'un disque supplémentaire que je mettrai à jour, disons tous les 3 mois (pas envie de devenir esclave ni totalement maniaque), et qui résiderait lui aussi à l'extérieur (ce qui fait un risque à T-3mois pour un coût de 150 euros sur un an et demi)
C'est cette deuxième solution que je vais mettre en œuvre prochainement.
Keep your data safe! Protégez vos miches. D'une manière ou d'une autre, mais faites-le!
8) je n'aurais qu'un seul mot : tiragePapier... :D
Citation de: geargies le Octobre 08, 2012, 18:29:06
8) je n'aurais qu'un seul mot : tiragePapier... :D
Quand je vois l'état de mes tirages papiers après 15 jours d'exposition, j'ai des doutes... Les cents ans de conservation, c'est dans un coffre fort, pas en usage normal où les gens ne peuvent pas s'empêcher de tripoter tout ce qui passe à porter avec leurs mains pleines de doigts, où les tirages se prennent des chocs lors du transport... Et c'est sans parler des dommages de l'humidité dans un lieu comme une cave.
C'est l'avantage du numérique : aucun support physique n'est invulnérable mais il est plus facile de multiplier les emplacements d'un fichier que de multiplier les tirages grands formats sur papier fine art....
Citation de: geargies le Octobre 08, 2012, 18:29:06
8) je n'aurais qu'un seul mot : tiragePapier... :D
çà ressemblerait vite au courrier non classé de Gaston.
8). Alors j'aurais un 2 eme mot: editing d'enfer : y'a pas grand chose qui mérite d'être conservé finalement ( donc 2 dd ext ça suffit pour le tout venant ) et traitement special pour la 50 aine de tofs qui restent ;)
Citation de: geargies le Octobre 09, 2012, 04:41:58
8). Alors j'aurais un 2 eme mot: editing d'enfer : y'a pas grand chose qui mérite d'être conservé finalement ( donc 2 dd ext ça suffit pour le tout venant ) et traitement special pour la 50 aine de tofs qui restent ;)
Très juste, seule une petite partie de nos photos nécessitent vraiment d'être sauvegardées, le reste n'est que de la consommation de disque.
Il ne faut pas être trop parano non plus, je suis dans l'informatique depuis 30 ans et je n'ai jamais perdu un disque dur. Bien sur que ça arrive, mais 2 copies des données offrent 99,99% de chances d'etre à l'abri de la perte définitive de vos photos.
Je gère mes sauvegardes comme ceci :
- 1 copie de l'intégralité de mes photos sur un disque externe 2To Lacie et branché sur onduleur
- 1 copie sauvegardée automatiquement sur un TimeCapsule 2To en Wifi
- les photos que je souhaite conserver à tout prix sauvegardée sur DropBox
Citation de: SurSon31 le Octobre 08, 2012, 22:49:00
Effectivement l'archivage et le classement des supports papier est une sacrée tache :D ;)
Pourquoi crois-tu que l'on n'archive plus les chèques, sauf les gros montants?
Et ne surtout pas oublier une chose : un fichier copié/recopié peut s'altérer tout seul ...
La preuve
Citation de: SurSon31 le Octobre 09, 2012, 11:36:52
Pour les entreprise c'est encore délicat de tout dématérialiser :-\
Il y a de belles montagnes de paperasses diverses a stocker ;D
Pour les chèques c'est plus simple. Il sont scannés et l'original est détruit dans les deux mois.
Cela fait un petit bail que çà dure et personne ne s'est plaint.
Pour les doc comptables, c'est aussi dématérialisé depuis un bail. Pour les cartons de signature, idem.
C'est en route pour le reste, mais pas toujours facile à cause des lourdeurs juridiques qui n'ont pas toujours évolué avec la technique.
Voilà comment la montée en force des pixels ne fait qu'amplifier une question qui existait avant le D800, une photo faite avec un 4MP était (parfois) aussi précieuse qu'une 36MP... question d'échelle.
De même que le circuit du progrès qui crée un besoin de renouvellement permanent d'un matériel qui perdurerait si l'on se contentait d'un stade de progrès souvent suffisant. la génération des boitiers D3/D700 est encore suffisamment mature pour une majorité d'images, non?
Dommage également qu'on ne dipose pas de résolutions inférieures sur le D800, comme sait le faire Fuji par exemple en combinant les pixels pour passer de 12MP à 6Mp par exemple...
En tout cas, pour la question dérivée du stockage (qui dépasse la question portant sur le D800/36MP), le mythe de l'immortalité et de la sécurité absolue, je trouve que l'on a largement progressé avec la duplication numérique vis à vis du stockage unique sur Ekta/négas...
Une sauvegarde auto du type timemachine, plus une sauvegarde régulière sur un disque 2TO (100€) stocké à l'abri (dans un coffre par exemple), et d'une autre sauvegarde moins fréquente sur 1/x disques stockés en d'autres lieux représente déjà une sécurité rassurante (si l'on ne monte pas tous les disques en même temps le jour où l'incendie va se déclarer!)
Maintenant, il est certain que si une comète s'abat sur notre ville, la mémoire collective en prendra un coup :'(
Citation de: M [at] kro le Octobre 09, 2012, 11:55:04
Et ne surtout pas oublier une chose : un fichier copié/recopié peut s'altérer tout seul ...
C'est même un grand classique... Et le plus dangereux, c'est qu'on peut mettre des mois à s'en apercevoir. Entre temps, on aura écrasé les différents backups avec la version endommagée...
D'où l'utilité d'utiliser un vrai logiciel pour réaliser le backup au lieu de la copie du système d'exploitation. Le logiciel, s'il est bien fait, fera une somme de contrôle sur l'ensemble des fichiers copiés pour vérifier que tout c'est bien passé...
CitationLe logiciel, s'il est bien fait, fera une somme de contrôle sur l'ensemble des fichiers copiés pour vérifier que tout c'est bien passé...
INDISPENSABLE! oui! un logiciel de backup qui vérifie l'intégrité des fichiers!
Je serais très curieux de savoir quels sont les logiciels de sauvegarde qui vérifient les fichiers un à un ...
Citation de: SurSon31 le Octobre 07, 2012, 14:57:31
Ce qu'on oublis toujours sur le RAID ce sont les risques de défaillance du contrôleur pouvant entrainer la destruction des données.
Pour ça qu'il faut toujours acheter sa carte contrôleur RAID en double (et donc ne pas prendre une version câblée sur la mobo). Si la carte RAID tombe en panne, il n'est pas dit qu'on puisse la retrouver, et que la version suivante soit compatible (même si c'est du même fabricant).
PS: je connais des TPE/PME nettement plus au fait de la sécurité informatique que bien des grands comptes... Ce n'est pas parce qu'on est sur un forum photo qu'on peut abuser de tels clichés !
PinkFish
Citation de: SurSon31 le Octobre 07, 2012, 18:42:31
En quelques mots, je ne suis pas un chantre du Cloud et je ne traite pas ceux qui y sont allergique de crétin.
J'essaie juste de faire passer un message simple : ce type de solution est une avancée forte quant au rapport de bien des individus et de bien des TPE/PME sur la question de la sécurisation des données.
Nous partons de très loin dans ce domaine et sans être une panacée le Cloud permet de faire un grand bon en avant par rapport à l'état des lieux actuel sur ces questions.
C'est aussi ce que ce sont dits les clients de T-Mobile (Sidekick), les clients de Sony (PS Store), d'Apple, Amazon, etc. Au delà de votre message un peu teinté de marketing, croire que le Cloud ou un concept similaire (centralisation par externalisation des données) permettra une vraie sécurisation de ses données (fiabilité, intégrité, non répudiation, etc.), c'est un peu aimer les omelettes crues ! Ou croire en la bonté de l'Homme !
PinkFish
N'oubliez pas aussi que le premier cloud, c'est le votre avec votre box, vos disques nas, votre pc.
Dès lors, après les clients P2P, Tor etc, il est temps de penser à un "cloud libre", chacun mettant à disposition de chacun une petite partie de son espace disque de données cryptées. On pourrait aussi créer des cloud "familliaux" sur le même principe. Les familles sont souvent dispersées sur tout le territoire. Et chacun n'a pas les mêmes besoins de sauvegarde.
En plus, l'empreinte écolo serait moins forte en utilisant en plus des "vrais" data center un cloud libre puisque ce serait de l'espace inoccupé déjà existant. Greenpeace nous pète une durite avec les cloud (ils ont trouvé leur nouveau cheval de bataille techno hype, faut bien qu'ils se renouvellent pour rester dans l'actu...).
Citation de: milo le Octobre 10, 2012, 09:12:43
N'oubliez pas aussi que le premier cloud, c'est le votre avec votre box, vos disques nas, votre pc.
Dès lors, après les clients P2P, Tor etc, il est temps de penser à un "cloud libre", chacun mettant à disposition de chacun une petite partie de son espace disque de données cryptées. On pourrait aussi créer des cloud "familliaux" sur le même principe. Les familles sont souvent dispersées sur tout le territoire. Et chacun n'a pas les mêmes besoins de sauvegarde.
En plus, l'empreinte écolo serait moins forte en utilisant en plus des "vrais" data center un cloud libre puisque ce serait de l'espace inoccupé déjà existant. Greenpeace nous pète une durite avec les cloud (ils ont trouvé leur nouveau cheval de bataille techno hype, faut bien qu'ils se renouvellent pour rester dans l'actu...).
Par rapport à Greenpeace, sans entrer dans leur jeu, il faut reconnaitre que pour mettre des infras à notre disposition, cela demande des ressources énergétiques non négligeables (pour rester dans l'euphémisme). Voir par exemple la Pomme qui va construire une centrale (certes solaire, cela aurait pu être pire - l'actuelle étant à charbon si j'ai bon souvenir) pour alimenter son data center. Why not.
Sauf qu'on a tjs des machines de plus en plus puissantes (et donc énergivores) alors que les instigateurs du Cloud voudraient tendre vers une dématérialisation complète (données et softs). En somme, le retour du terminal X... avec une configuration h/w de folie ! Un peu choquant !
PinkFish
Citation de: PinkFish le Octobre 10, 2012, 09:39:41
Par rapport à Greenpeace, sans entrer dans leur jeu, il faut reconnaitre que pour mettre des infras à notre disposition, cela demande des ressources énergétiques non négligeables (pour rester dans l'euphémisme).
Je sais, c'est énorme. On ne s'imagine pas ce que représente ces ptis tweets qu'on expédie, l'utilisation de Facebook etc Ca dépasse l'entendement, tout simplement parce qu'on a l'habitude de réfléchir à un niveau micro: le coût de son chez soi. J'avais appris la facture d'électricité par mois du nouveau data center d'une banque bien connue implanté à Chartres, j'ai zappé l'info mais c'est colossal!!
Citation de: PinkFish le Octobre 10, 2012, 09:39:41
Voir par exemple la Pomme qui va construire une centrale (certes solaire, cela aurait pu être pire - l'actuelle étant à charbon si j'ai bon souvenir) pour alimenter son data center. Why not.
Ca c'est de la pure communication. Ils font soi disant un data center vert pour combien au total ?!! Itune, Icloud etc, c'est pas 3 racks dans un garage. Si quelqu'un retrouve les chiffres, on pourra s'amuser à avoir le vertige :-)
Citation de: PinkFish le Octobre 10, 2012, 09:39:41
Sauf qu'on a tjs des machines de plus en plus puissantes (et donc énergivores) alors que les instigateurs du Cloud voudraient tendre vers une dématérialisation complète (données et softs). En somme, le retour du terminal X... avec une configuration h/w de folie ! Un peu choquant !
PinkFish
Ben surtout choquant surtout dans le sens de la privatisation pour ne pas dire "confiscation" de nos données personnelles.
Par contre, c'est toujours le même refrain qu'on connaît bien et qui est si vrai : la techno pour le meilleur et pour le pire. Car ça nous rend plein de services de pouvoir charger nos photos, mails etc n'importe où dans le monde sur un "simple" smartphone.
En tout cas, c'est une bonne raison de développer le cloud "libre"
Les machines de plus en plus puissantes et les disques de plus en plus nombreux, donc énergivores, faut pas trop s'inquiéter : c'est géré par des entreprises privées et vu les factures, ils s'implantent tout naturellement en zone froide pour refroidir leur data center. Ils le font d'eux même ! Pas besoin de Greenpeace pour ça.
Je ne suis resté que sur un plan environnemental. Il y a effectivement bien plus à dire concernant les avantages du nuage tels qu'ils nous sont vendus !
Entièrement d'accord avec vous.
PinkFish