Panne renouvelée de disque dur externe

Démarré par FRANCOIS D, Mai 02, 2015, 12:15:46

« précédent - suivant »

Inka

Citation de: Arnaud17 le Mai 11, 2015, 20:23:09
Il y a des personnes qui ont des collections de CD et/ou DVD ou

Ou des VHS et des Betamax ou diverses bandes de stockage...
Carolorégien

kochka

Du S-VHS au garage et un lecteur à la cave.
Je benne tout cela doucement pour avoir de la place.
Technophile Père Siffleur

Inka

Citation de: kochka le Mai 11, 2015, 21:46:37
Du S-VHS au garage et un lecteur à la cave.
Je benne tout cela doucement pour avoir de la place.

J'ai encore des lecteurs pour une partie, mais pas pour tout.

http://www.mbproductions.com.au/video_to_dvd.html
Carolorégien

P!erre

Citation de: fantec le Mai 11, 2015, 18:29:50
Les disques durs ne sont pas réellement sensibles à la température en elle-même mais plutôt aux variations de températures et, surtout, aux vibrations.

Sauf que ce n'est pas ce que signifie un MTBF tel que défini par les constructeurs de disque. Le MTBF est le nombre d'heures de fonctionnement _la_première_année_ avant une panne. En d'autre termes, il faudrait faire fonctionner 228 disques pendant un an avant que l'un d'eux ne tombe en panne (soit un taux de panne de 0,44%).

C'est, à mon avis, un non-sens car on ne peut pas parler des disques durs en général. Les taux de pannes sont liés à des séries. Il y a eu de tout temps des séries maudites (mal conçues, pas adaptées) et des séries fiables.

J'ai encore en prod quelques centaines de disques ayant de la bouteille (72/144 Go en FC, 250 Go en SATA) mais d'autres, de la même époque, ont quasiment tous disparu (400 Go) alors qu'il s'agissait du même constructeur. Je n'observe pas non plus des taux de panne anormaux sur des disques plus récents (en tout cas pas sur les 2 To, je n'ai pas non plus eu de retour alarmant sur les 4 To mais il est encore trop tôt pour en parler).

Hem, bien sûr que les DD sont sensibles à la température...  ::) Ni trop haute (+ de 45°C), ni trop basse (- de 30°C) sous peine d'augmenter le risque de panne.

Tu confirmes que l'augmentation de la densité de données élève le taux de pannes (tes centaines des DD de 72/144/250 Go fonctionnent encore, mais presque aucun à 400 Go de la même époque).

Peu importe la manière de présenter un MTBF, c'est presque systématiquement trompeur. J'ai participé à des tests de vieillissement accéléré... Faut lire la com' qu'il en sort !  :D

Séries maudites, bonnes séries, oui, il y a de ça. Cela fait une belle jambe à l'acheteur.

Reste que si on compare le DD à un support numérique dont on trouvait d'excellents représentants fiables et supportant le vieillissement vers les années 2000 -j'ai nommé le disque compact enregistrable- la spirale des prix qui tend à toujours vouloir vendre moins cher, à s'aligner sur les concurrents (la responsabilité en incombe finalement aux acheteurs, qui acceptent cette direction du marché) a fait que six ou huit ans plus tard, il devenait pratiquement impossible de trouver de bons CDr au niveau vieillissement, tous les fabricants qui espéraient défendre la qualité ayant disparu ou fermé leur département.

La difficulté pour le consommateur lambda est qu'un support numérique ne se comporte pas de la même manière qu'un support analogique face au vieillissement. L'analogique prévient, montre des signes de fatigue et laisse le temps de s'organiser.

Un DD lâche en quelques heures, un SSD en quelques minutes/secondes après un fonctionnement erratique; les bandes peuvent faire grimper le taux d'erreur de lecture de manière très rapide d'une année à l'autre, taux d'erreur qui est très rarement affiché et pourtant signe précieux.

Avec les volumes de données que chaque individu tend à vouloir stocker, les connaissances et le temps moyen qu'y consacre chaque individu, je suis d'avis que l'on va dans la mauvaise direction, c'est à dire une fragilisation de nos "mémoires". C'est globalement préoccupant.
Au bon endroit, au bon moment.

jlb3

#54
Bonjour,

Pour revenir au problème initial posé par François D (pannes à répétition sur un disque externe LaCie), j'ai eu pas mal de soucis avec ces disques dont la totalité (j'ai bien dit 100%) étaient dus à la petite carte d'alimentation et d'interface logée dans le berceau externe. Le disque dur lui-même va très bien, il suffit de le démonter en sacrifiant le boîtier LaCie, et de le remettre dans un autre berceau pour s'en servir sans problèmes. J'en ai déjà une petite dizaine qui passent parfaitement les tests et dont je me sers en permanence dans un berceau pour faire des 2èmes sauvegardes, sans aucun souci. Pas trop mal pour des cadavres ;)

Ne pas trop attendre quand même avant de faire l'opération : si l'alimentation du boîtier externe lâche en pleine écriture, la relecture du disque peut être compromise.

Je croise les doigts, mais je n'ai pas encore vu un disque dur proprement dit qui aie lâché la rampe, sauf sur un problème d'alimentation (le 220V était arrivé jusqu'au rail 5V). J'ai aussi entendu parler de disques 10.000 t/mn qui perdaient la boule à cause de leurs propres vibrations dans une baie RAID (facilement réglé avec des silent-blocks) mais jamais de vieillissement anormal.

Sinon juste pour info, avec la généralisation du numérique en cinéma et télévision, un nouveau métier est apparu sur les tournages. C'est le data manager, chargé spécifiquement de la sauvegarde et la gestion des données : il décharge les cartes sortie de caméra et magnétophone, s'assure de la cohérence, de l'exploitabilité et de la bonne conservation des données jusqu'à la post-production. L'outil standard est tout simplement le RAID, avec une nette préférence pour le RAID 5 ou 10. Dans les pratiques du métier, les disques USB sont évidemment bannis (pas assez fiables) et les sauvegardes à bande aussi (trop lents et pas pratiques). Ceci dit, une sauvegarde à bande peut être un bon outil pour un stockage de longue durée après finalisation du projet, pour en faire une image à remettre sur des disques durs au cas où on voudrait retravailler dessus - il faudra alors s'assurer que l'on a encore les machines et les logiciels pour relire ces fichiers dont le format sera probablement devenu obsolète, ce qui n'est jamais garanti. Il y a un autre métier qui s'occupe de çà ;)

jlb3

#55
Citation de: P!erre le Mai 07, 2015, 18:01:19
Plus de couches, plus de densité dans un volume donné... c'est toujours la même chose : baisse de fiabilité. Les bandes magnétiques 1/4 de pouce plus longues, les cassettes audio extra longue durée..

On n'a jamais été obligé d'acheter ces bandes amincies moins fiables, et heureusement. Le problème principal (car non prévu) de l'analogique a plutôt été avec les liants à base de polyuréthane qui étaient justement utilisé dans des bandes haut de gamme, et qui se dégradaient rapidement par hydrolyse. Problème identifié et résolu dans les années 90. Les deux fabricants qui font encore de la bande analogique ne fabriquent plus que des bandes de durée standard avec des liants stables, et l'évolution est donc juste le contraire de ce que tu penses.

Avec le numérique on a aussi vu (en audio) cette évolution vers une fiabilité croissante : des débuts plutôt calamiteux avec le DAT pratique mais pas fiable, puis le passage aux mémoires statiques dont on trouve maintenant des versions industrielles durcies (et nettement plus chères). Si on remarque maintenant les problèmes de vieillissement, c'est aussi, voire surtout, parce que maintenant on s'inquiète de conserver nos données. Il n'y pas si longtemps on s'en fichait encore complètement, et donc on n'avait pas de problèmes.

Citation de: P!erre le Mai 07, 2015, 18:01:19
En numérique, les Blu-ray inscriptibles résisteraient moins bien au temps que les DVD-R, eux-mêmes sont plus fragiles que les CD-R. Pour les Blu-ray et les DVD double couche pressés ou gravés, la fiabilité est encore moindre...

Oui, enfin on n'est pas (tout à fait) obligés de s'en tenir aux suppositions non plus. L'archivage étant une préoccupation constante de beaucoup d'organismes officiels, il y a des labos qui s'occupent de tester régulièrement les supports pour leur fiabilité et leur tenue dans le temps, et de publier les résultats avec des vraies données. Par exemple en France, le LNE.

Un exemple : http://www.lne.fr/publications/recherche/Etude-qualite-bd-r.pdf

Un autre : http://www.lne.fr/publications/guides-documents-techniques/liste-CD-DVD-recommandes-gis-don.pdf


Arnaud17

Quand c'est l'électronique du boitier qui dégage, on peut aussi acheter un Docking Station compatible.
Le docking station permet d'y mettre des disques durs tout nu, sans boitier, sans rien.
J'ai eu recours à cette solution et c'est rentable.
veni, vidi, vomi

jlb3

Oui, c'est de çà que je parlais quand je disais berceau. Etonnamment pratique et fiable quand on choisit bien son modèle.

jlb3

Allez, une dernière réponse et après j'arrête ;)

Citation de: P!erre le Mai 12, 2015, 13:01:27
Un DD lâche en quelques heures, un SSD en quelques minutes/secondes après un fonctionnement erratique; les bandes peuvent faire grimper le taux d'erreur de lecture de manière très rapide d'une année à l'autre, taux d'erreur qui est très rarement affiché et pourtant signe précieux.

Avec les volumes de données que chaque individu tend à vouloir stocker, les connaissances et le temps moyen qu'y consacre chaque individu, je suis d'avis que l'on va dans la mauvaise direction, c'est à dire une fragilisation de nos "mémoires". C'est globalement préoccupant.

Dans la routine d'archivage numérique, on prend en compte ce problème de perte brutale des données en utilisant deux propriétés très favorables du numérique (il y en a quand même quelques unes  :D ) : la possibilité de faire des copies à l'identique (alias "clones numériques") et la densité de données qui permet de stocker beaucoup de données dans peu d'espace, pour pas cher. Ca marche en deux temps :

- Quand on stocke intelligemment un fichier, on ne le stocke pas qu'une fois, mais en plusieurs exemplaires. Si l'un des exemplaires lâche dans l'avenir, on pourra refaire une nouvelle copie de sauvegarde, identique à l'original.

- On recopie régulièrement (disons toutes les quelques années) les fichiers sur de nouveaux supports, ce qui permet de s'affranchir de la dégradation et des problèmes d'obsolescence des interfaces et des formats. Inutile de dire que si on fait les choses sérieusement, on vérifie la copie qu'on vient de faire et on stocke les nouveaux supports dans les conditions optimales pour eux. Et qu'on ne jette pas les anciens supports, au cas où les nouveaux vieilliraient de façon imprévue : ça s'est déjà vu, du temps de l'analogique.

Le seul avantage d'avoir une mesure des taux d'erreur est de faire ce report de manière prédictive, en prenant en compte l'état actuel du support, plutôt que de manière préventive. Dans la pratique, c'est d'un intérêt limité puisque les opérations pour la mesure d'erreur et pour la copie sont pratiquement les mêmes, alors autant faire directement la copie.

En faisant çà, on crée une "mémoire perpétuelle" dont le support physique change mais dont le contenu reste identique dans le temps, ce qui n'était pas possible avec l'analogique du fait des dégradations incrémentales à chaque copie. C'est une approche assez récente et qui n'est visiblement pas connue de tout le monde, mais c'est la meilleure tant qu'il y aura des archivistes pour passer le relais aux générations suivantes.

Après il se pose la question "a t-on vraiment besoin de conserver tout çà ?" et c'est actuellement une question sans réponse. Il y a des chercheurs qui commencent à travailler dessus dans le cadre du "big data".

fantec

Citation de: P!erre le Mai 12, 2015, 13:01:27
Tu confirmes que l'augmentation de la densité de données élève le taux de pannes (tes centaines des DD de 72/144/250 Go fonctionnent encore, mais presque aucun à 400 Go de la même époque).

Non, je n'ai pas de remontés alarmante sur le 1 et 2 To et ils ont l'air fiable (du moins en ce qui concerne les modèles que nous utilisons). Je pourrais aussi parler des disques durs Micropolis de 9 Go (format boite à chaussure) dont l'espérance de vie devait se situer aux alentours de 3 ou 4 mois, des disques durs conner où le "couvercle" n'était plus vissé mais maintenu en place avec un simple scotch adhésif (et quand le scotch était déchiré et n'assurait plus l'étanchéité de l'ensemble, on pouvait dire au revoir aux données), ou encore de la série 60 GXP d'IBM à la triste renommée.  Je vois difficilement comment parler de tendance longue quand il y a autant de disparités.

CitationReste que si on compare le DD à un support numérique dont on trouvait d'excellents représentants fiables et supportant le vieillissement vers les années 2000 -j'ai nommé le disque compact enregistrable- la spirale des prix qui tend à toujours vouloir vendre moins cher, à s'aligner sur les concurrents (la responsabilité en incombe finalement aux acheteurs, qui acceptent cette direction du marché) a fait que six ou huit ans plus tard, il devenait pratiquement impossible de trouver de bons CDr au niveau vieillissement, tous les fabricants qui espéraient défendre la qualité ayant disparu ou fermé leur département.

Le compact-disc enregistrable n'a jamais été conçu pour être un support durable (ne serait-ce que par son packaging : l'utilisateur manipule directement le support physique et il n'y a aucune protection). Il s'agissait essentiellement d'un marché grand-public qui a détourné l'objet de sa fonction première (stockage temporaire de données).

CitationLa difficulté pour le consommateur lambda est qu'un support numérique ne se comporte pas de la même manière qu'un support analogique face au vieillissement. L'analogique prévient, montre des signes de fatigue et laisse le temps de s'organiser.

Mais on pourrait aussi dire le contraire : l'analogique renvoie un signal qui se dégrade avec le temps et à chaque manipulation/recopie. Le numérique lui permet de duppliquer le signal sans aucune perte... Et comme les supports ont une espérance de vie limitée, la capacité de duppliquer les données est essentielle.

CitationUn DD lâche en quelques heures, un SSD en quelques minutes/secondes après un fonctionnement erratique;

Cela dépend essentiellement du type de panne (et c'est là où on voit la différence d'expertise entre la vieille industrie des disques durs magnétique et la toute récente industrie du SSD). Sur les disques durs "magnétiques", des statistiques sont maintenues sur le fonctionnement et permettent de remonter des alertes en cas de dégradation (épuisement du stock de secteurs ré-allouables, augmentation du nombre d'erreurs de lecture, temps moyens de recherche qui s'accroissent, etc.) . Cela ne couvre pas 100% des cas (typiquement lorsqu'une tête de lecture décide de labourer la surface d'un plateau) mais la majorité des pannes sont annoncées.

Citationles bandes peuvent faire grimper le taux d'erreur de lecture de manière très rapide d'une année à l'autre, taux d'erreur qui est très rarement affiché et pourtant signe précieux.

Autant j'en ai vu des vertes et des pas mûres sur d'anciennes technologies (QIC (Travan), DAT (3.81mm), Exabyte (8mm)), autant d'autres sont, pour ce que j'ai pu en faire, fiables. Je n'ai encore eu aucun problème de relecture sur les cartouches DLT & LTO que j'ai pu utiliser. Je fais toutefois peu de restaurations (une demi-douzaine pour mon usage personnel) mais les quelques tests que j'ai pu effectuer sur mes sauvegardes (DLT entre 2005 & 2010, LTO depuis 2010) se sont déroulés sans accroc. Maintenant, l'espérance de vie d'une bande dépend surtout de la manière dont elle est stockée et il peut être judicieux de multiplier les supports physiques.

CitationAvec les volumes de données que chaque individu tend à vouloir stocker, les connaissances et le temps moyen qu'y consacre chaque individu, je suis d'avis que l'on va dans la mauvaise direction, c'est à dire une fragilisation de nos "mémoires". C'est globalement préoccupant.

Il y a fragilisation parce que madame Michu ne se pose pas la question, parce que la technologie mise en place a pour but de faciliter l'accès aux données mais pas à en assurer la pérennité et, quand l'utilisateur se pose la question, parce que le stockage de ces données a un coût.

Bob74

Bonjour,
Les disques durs craignent énormément la chaleur.
Leur température ne devraient pas excéder 55°.
Les miens (sur l'UC), se trouvent montés dans un "rack" derrière un ventilateur de 12 cm avec façade bien aérée (métal mesh). Leur température se trouve aux environs de 20 à 30° selon la température de la pièce.

Quant à dire qu'un disque dur lâche en quelques heures, ce n'est pas toujours le cas. Il peut céder brusquement sans avertissement aucun.

Bob74

Pannes des composants informatiques.
Ces résultats sont à prendre avec des pincettes car tous les matériels en panne ne sont pas systématiquement retournés au vendeur (vente sur Internet). En effet, vus les tarifs des retours (si pas gratuits), certains clients préfèrent racheter tout de suite dans le commerce local.

Les taux de retour des disques durs
http://www.hardware.fr/articles/934-6/disques-durs.html

et des matériels informatiques
http://www.hardware.fr/articles/934-1/taux-retour-composants-12.html