Hallo zusammen, vor etwa 2 Jahren habe ich mir eine relativ günstige 1TB Platte gekauft. Diese ist mittlerweile auch voll. Natürlich brauche ich sie auch öfters. Aber nicht nur ich, mein Vater leiht sie sich auch am und zu. Mein Problem ist allerdings das es zum GAU gekommen ist. Die Platte ist runter gefallen, etwa einen halben Meter auf harten Fliesenboden. Es war zwar nicht mein verschulden, allerdings ist mir für diesen Moment fast mein Herz stehen geblieben. Auf der Platte sind eine menge Daten welche ich stark missen würde. Im großen und ganzen wäre das eine riesige Katastrophe wenn diese kaputt wäre. Glücklicherweise läuft die Platte noch. Ich kann Daten schreiben und Lesen. HD Tune zeigt mir auch keine Fehler. Sollte ich mir einen neue Platte zulegen, bzw. könnte es jetzt in näherer Zukunft passieren, dass diese das Zeitliche segnet? Da hab ich auch noch eine Frage zur Kapazität. Wird die Platte bei höherer Kapazität empfindlicher? Ich würde gerne meine Backups möglichst sicher haben. MfG Dextrose
> Wird die Platte bei höherer Kapazität empfindlicher?
Man vermeidet bei einer Festplatte tunlichst den freien Fall!!!!!!
Kauf die ein NAS-System. 2x 2TB rein und im Raid-Verbund spiegeln. Da packste erstmal alle wichtigen Daten drauf.
Dextrose schrieb: > Ich würde gerne meine Backups möglichst sicher haben. Dann speichere sie grundsätzlich zweimal auf zwei verschiedenen Platten. Eine davon am besten festschrauben, damit sie nicht runterfallen kann. :-) Gruss Harald
Ingo schrieb: > Kauf die ein NAS-System. 2x 2TB rein und im Raid-Verbund spiegeln. > Da packste erstmal alle wichtigen Daten drauf. Ein RAID-Verbund ersetzt kein Backup. Was machst du, wenn dir dein RAID-Controller abraucht? Oder der mögliche Fall eintritt, dass beide HDDs zur gleichen Zeit oder in kurzen Abständen, bevor du die HDD ersetzten konntest, kaputt gehen?
Dextrose schrieb: > Sollte ich mir einen neue Platte zulegen, bzw. könnte es jetzt in > näherer Zukunft passieren, dass diese das Zeitliche segnet? Ja, ja. Dextrose schrieb: > Wird die Platte bei > höherer Kapazität empfindlicher? Kaputt, kaputter, am kaputtesten. Ergebnis bleibt also gleich, Du hattest nur vorübergehend viel Glück. Dextrose schrieb: > Ich würde gerne meine Backups möglichst > sicher haben. Mehrfach anlegen und Lagerorte in der Gegend streuen. Dort könntest Du das Fallobst zusätzlich mit einsetzen.
Also ein NAS System wollte ich mir nicht direkt anlegen. Sollte ich mir eine zweite Festplatte kaufen behalte ich auch erst mal die erste und Bohre nicht direkt ein Loch rein oder dergleichen. Dann werde ich mal zusehen, dass ich schnell ne neue Platte bekomme.
Dextrose schrieb: > Dann werde ich mal zusehen, dass ich schnell ne neue Platte bekomme. Kaufen klappt manchmal ganz gut.
Dextrose schrieb: > Sollte ich mir einen neue Platte zulegen, Ja. So schnell wie möglich. > bzw. könnte es jetzt in näherer Zukunft passieren, > dass diese das Zeitliche segnet? Ja. Deswegen solltest Du jetzt 'ne neue Platte anschaffen und so schnell wie möglich die Daten von der Fallplatte auf die neue kopieren. Benutze die Fallplatte in der Zwischenzeit NICHT.
Daten sind nur dann wirklich wichtig, wenn der Anwender sie auf mindestens drei unterschiedlichen Datenträgern gesichert hat, die an verschiedenen Orten lagern. Ansonsten sind die Daten stets in Gefahr von einer auf die nächste Sekunde verloren zu gehen (Virus, Runterfallen, Altersschwache Platte, Blitz, Anwender der die falschen Tasten drückt,... ;-) ).
Bei wichtigen Daten wären für mich zwei unabhängige Kopien auf zwei unabhängigen, technisch einwandfreien Festplatten das absolute Minimum. Also ja, kaufe Dir zwei (!) neue Festplatten und kopiere die Daten. Die vorhandene, eventuell angeschlagene Platte kannst Du als zusätzliche Sicherheitskopie weiter verwenden, darauf verlassen würde ich mich aber nicht. Kaufe Dir – sofern es preislich vertretbar ist – lieber zwei kleine Platten als eine große, nicht wegen der eventuell geringeren Zuverlässigkeit (dazu kann ich nichts sagen), sondern wegen der Redundanz. Eine Platte geht schneller mal kaputt als zwei gleichzeitig. Zur Zeit kosten meines Wissens nach 2TB Platten etwa doppelt so viel wie 1TB Platten, also nimm letztere. (Auf der anderen Seite kosten 1TB Platten kaum mehr als 500GB Platten, es spricht also alles für erstere.) Backup-Platten solltest Du nach Möglichkeit nicht viel bewegen (oder verleihen, nicht nur aus Gründen des Datenschutzes). Für den Datenaustausch lege Dir lieber einen eigenen Datenträger zu. Sind Deine Daten so wichtig, dass sie sie auch ein Feuer oder ähnliche Schäden in Deiner Wohnung überleben müssen? (Viele Selbständige, klein- und mittelständische Unternehmen entlang der Elbe standen nach den letzten Hochwassern wegen gefluteter Festplatten vor dem Ruin.) Dann solltest Du die Daten auch auslagern. Dazu muss eine Platte gegebenenfalls natürlich mal bewegt werden, es sei denn, Du brennst die Daten auf CD oder DVD, die sind deutlich unempfindlicher bezüglich Transportschäden als Festplatten. Aber auf die Haltbarkeit achten! Bänder sind diesbezüglich sehr gut, aber teuer. Auch Cloud-Lösungen sind im Prinzip perfekt zur Sicherung geeignet, vorausgesetzt die Daten sind anständig verschlüsselt. RAID nützt Dir für Backups gar nichts! Ein RAID bringt (so gut wie) keine zusätzliche Datensicherheit, ein RAID bringt Verfügbarkeit, und das auch nur, wenn Du ein anständiges Monitoring hast, was oft vergessen wird! Ein RAID kann Dich zwar vor Plattenausfällen schützen, nicht aber vor allem anderen wie etwa menschlichem Versagen, Spannungsspitzen im Netz, Elementarschäden etc. Zwei oder mehr einzelne Platten sind in jedem Fall besser, vor allem wenn sie elektrisch und nach Möglichkeit auch räumlich getrennt sind.
:
Bearbeitet durch User
Dextrose schrieb: > Ich würde gerne meine Backups möglichst sicher haben. Wäre es ein Backup, dann wäre eine kaputte Platte erstmal kein GAU, denn Backup heiß, daß es sich um eine Kopie von wichtigen Daten handelt, die zum Arbeiten wo anders liegen. Ist das nicht der Fall, dann ist es KEIN BACKUP! Man kann das gar nicht klar genug sagen.
Mich würde es mal interessieren welche Platten am sichersten gegenüber Ausfällen sind? Bei Bewertungen in diverser online Shops gibt es immer leute die sich über defekte platten beschweren.
Konrad M. schrieb: > Mich würde es mal interessieren welche Platten am sichersten gegenüber > Ausfällen sind? Keine. Der sicherste unsichere Speicherplatz ist der Onlinespeicherplatz. Dann kommt Hammer & Meisel in Stein... (oder umgekehrt :D )
Wäre die Platte im Betrieb runtergefallen, wäre sie jetzt sicher kaputt... Lagerschaden gibts schnell. Ansonsten gibt es IMO keinen grossen Unterschied bei Consumerplatten. Wenn man nur genug kauft, sind da immer (Früh)Ausfälle. Das ist wohl auch der Grund warum fast identische Enterpriseplatten so teuer sind. Ich glaube nicht, das da wirklich bessere Bauteile drin sind. Die sind einfach nur besser bzw. ausführlicher getestet...
Lothar S. schrieb: > > Man vermeidet bei einer Festplatte tunlichst den freien Fall!!!!!! Dieser ist harmlos - den Aufprall sollte man vermeiden...
Georg A. schrieb: > Ansonsten gibt es IMO keinen grossen Unterschied bei Consumerplatten. http://www.hardware.fr/articles/920-6/disques-durs.html Es kann interessant sein, sich auch mal die Jahre zuvor anzusehen (rechts oben).
:
Bearbeitet durch User
Konrad M. schrieb: > Mich würde es mal interessieren welche Platten am sichersten gegenüber > Ausfällen sind? Da sagt dir jeder was anderes. Ich glaube auch nicht, daß die Hersteller sich da heute noch groß unterscheiden. John Drake schrieb: > Lothar S. schrieb: >> >> Man vermeidet bei einer Festplatte tunlichst den freien Fall!!!!!! > > Dieser ist harmlos - den Aufprall sollte man vermeiden... Den freien Fall zu vermeiden, ist aber trotzdem schon mal ein ganz guter Ansatz.
Rolf Magnus schrieb: > Den freien Fall zu vermeiden, ist aber trotzdem schon mal ein ganz guter > Ansatz. Dazu gehört übrigens auch der freie Fall von Gegenständen welche sich in der Umgebung (insbesondere über der HDD) befinden. :)
Dextrose schrieb: > Auf der Platte sind eine menge Daten welche ich stark missen würde. Dann machst Du grundsätzlich etwas falsch. Auf nur einer Platte sind niemals Daten, die wichtig sind.
Konrad M. schrieb: > Mich würde es mal interessieren welche Platten am sichersten gegenüber > Ausfällen sind? Bei Bewertungen in diverser online Shops gibt es immer > leute die sich über defekte platten beschweren. In dem Zeitraum in dem ich mich mit Computer beschäftige ist mir vor einer Woche eine Samsung 8o GB SATA gestorben. Gottseidank hat sie sich noch rechtzeitig tot gestellt denn eigentlich war sie als Sicherungsplatte vorgesehen. Bei einer Überprüfung mit CHDSK wurden jede Menge nicht mehr lesbare Sektoren gemeldet. Sie war 5000 Stunden gelaufen und 7 Jahre alt. Ich habe aber sehr viel ältere Platten noch die länger gelaufen sind und es immer noch tun. Man steckt nicht drin, deshalb ist Datensicheung so wichtig. Außerdem sind Platten wie Säuglinge zu behandeln. Die dürfen auch nicht herunterfallen...nicht einmal.
Konrad M. schrieb: > Mich würde es mal interessieren welche Platten am sichersten gegenüber > Ausfällen sind? Bei Bewertungen in diverser online Shops gibt es immer > leute die sich über defekte platten beschweren. Siehe oben der französische Link. Aber als Einzelkunde ist das dennoch eine Lotterie, denn auch gute Serien haben Ausfälle und wenn man Kunde eines einzelnen Exemplars ist, dann sind Statistiken keine Lebenversicherungen. Hat man mit hunderten von Platten zu tun, dann werden Eindrücke, subjektive wie objektive, schon deutlicher aussagekräftiger. Insbesondere was Ausfälle verteilt über das Alter der Disks angeht.
:
Bearbeitet durch User
A. K. schrieb: > Aber als Einzelkunde ist das dennoch > eine Lotterie, denn auch gute Serien haben Ausfälle und wenn man Kunde > eines einzelnen Exemplars ist, dann sind Statistiken keine > Lebenversicherungen. Genauso sieht es aus. Deswegen sind Bewertungen von Endkunden auch selten brauchbar. Wer gerade das Glück hat, das eine Montagsmodell von 1000 Platten zu erwischen, wird natürlich mächtig auf die Marke schimpfen, obwohl die Ausfallrate der Serie im Ganzen gering ist. @topic Eine heruntergefallene Platte KANN durchaus noch i.O. sein, die Wahrscheinlichkeit von Beschädigungen, auch wenn sie nicht unmittelbar auffallen, ist dennoch sehr groß. Ich würde ihr jedenfalls keine wichtigen Daten mehr anvertrauen.
Abgeschaltete HDD sind sehr robust. Gefährlich ist nur Bewegung im Betrieb. Mir sind 2 Notebookplatten gestorben, aber noch keine externe. Das hinterhältige an Notebookplatten ist, sie können unvermittelt angehen. Z.B. bei einem Updatetermin oder wenn sie meint, sie müsse in den Ruhezustand gehen. Wenn man dann ausgerechnet über Kopfsteinpflaster radelt.
:
Bearbeitet durch User
Peter Dannegger schrieb: > Abgeschaltete HDD sind sehr robust. So robust, daß sie zweifelsfrei einen Fall aus... > etwa einen halben Meter auf harten Fliesenboden ...unbeschadet überstehen, sind sie nun auch wieder nicht. Und auch nicht sooo teuer, daß ich ein Risiko eingehen würde. Für unkritische Bastelzwecke OK, für Produktivbetrieb oder wichtige Daten nicht mehr.
Kauf dir einfach eine neue Festplatte, eine 2TByte Platte (Toshiba DT01ACA200 2 TB) kostet ca. 67 Euro. Ich kaufe keine DVDs mehr um meine Daten zu sichern da diese einfachen DVD Rohlinge schon 5 mal so teuer sind wie der selbe Speicherplatz auf einer Festplatte. Zudem kann man die Daten viel schneller auf eine Festplatte schreiben und die Dateien können größer als 4.7GB (real ca. 4,2GB) groß sein.
A. H. schrieb: > kaufe Dir zwei (!) neue Festplatten und kopiere die Daten. Ich weiß nicht, ob es schon geschrieben wurde, aber: Kaufe Dir zwei (!) UNTERSCHIEDLICHE NEUE PLatten. Also entweder zwei unterschiedlicher Modelle oder halt das gleiche Modell aus unterschiedlichen Chargen. Sonst könnte es passieren, dass beide Platten zeitgleich aufgrund Defekten aussteigen. Und dann hättest Du nichts gekonnt. Alex
herbert schrieb: > Außerdem sind Platten wie > Säuglinge zu behandeln. Die dürfen auch nicht herunterfallen...nicht > einmal. Zum Glück sind Säuglinge nicht wie Festplatten zu behandeln: Wenn Sie einmal runtergefallen sind sollte man sie entsorgen :D
Peter Dannegger schrieb: > Wenn man dann ausgerechnet über Kopfsteinpflaster radelt. Das machst Du mit eingeschaltetem Notebook?!
Rufus Τ. Firefly schrieb: > Das machst Du mit eingeschaltetem Notebook?! Noe, mit dem Notebook im Sleepmode. Steht doch da.
Dann aber geht die Festplatte nicht an. Ich habe schon etliche Notebooks gehabt - keines davon macht so etwas.
Rufus Τ. Firefly schrieb: > Dann aber geht die Festplatte nicht an. Doch, in den von ihm oben beschriebenen Faellen. > Ich habe schon etliche Notebooks gehabt - keines davon macht so etwas. Windows macht das. MacOS macht das. Klar, kann man immer irgendwie abschalten oder Linux drauf machen (wo oft der Sleepmode gar nicht geht, dann schaltet man es gleich ganz aus). Aber klar, wenn deine Notebooks das nicht machen, gibt es das nicht.
StefG schrieb: > Backups sind nur für Weicheier. :DD Sehr geile Einstellung! Du bist bestimmt auch der , der immer sagt "Antivirensoftware? Brauch ich nicht, ich hatte noch nie einen Virus!" und der, der seinen Rechner konsequent direkt an der Steckerleiste "ausschaltet" :D
Runterfahren tue ich das Notebook (fast) nie, nur Deckel runterklappen. Den Google Updater hab ich rausgekantet, der hat jede Nacht um 3.00Uhr gestört. Die Windows Updates warten brav aufs Einschalten. Den Ruhezustand hab ich auf 2 Tage eingestellt. Und inzwischen hab ich ne SSD im Notebook, also kein Problem mehr.
Hallo nochmal zusammen, danke für die ganzen Tipps und Infos! So wie es aussieht scheint es wirklich besser zu sein zwei Platten zu haben. Die Idee, zwei unterschiedlichen Platten zu benutzen scheint am besten zu sein. Noch eine kleine Frage zur Kapazität. Irgendwo habe ich gelesen (Sorry hab den Link nicht mehr!), dass ab 2TB Kapazität statistisch die Ausfallrate steigt. Irgendwie hört sich das aber auch wie ein persönliches Hirngespinst an. Selber habe ich 2x 1TB platten welche jeweils 1 Jahr und die andere 2 Jahre liefen. Ohne Probleme.
Da habe ich tatsächlich doch vergessen. Wirkt sich irgendwie die Drehzahl auf die Lebensdauer aus?
Platten mit höherer Kapazität haben ggf. mehrere Magnetscheiben und Leseköpfe... ausserdem könnte die Dichte der Daten auf den Platten höher sein. Also durchaus plausibel das die eine höhere Ausfallwahrscheinlichkeit haben da mechanisch komplexer. Das ist sowieso schon Black Magic für Fortgeschrittene bei solchen Kapazitäten das noch zuverlässig hinzubekommen. Die Signalverarbeitung und Fehlerkorrektur ist da sehr ausgefuchst damit das noch klappt ;-) @Drehzahl: Ein Auto geht auch schneller kaputt wenn Du ständig mit 200 über die Autobahn düst als immer gemütlich mit 130... Aber das kommt bei Festplatten dann auch auf die Qualität der Komponenten an...
Drehzahl: Das, was so Consumer-mäßig üblich ist (also 5400 oder 7200) macht da noch keine Probleme. Kapazität: Es gibt 4TB-NAS Platten, die sind für Dauerlauf ausgelegt. Bei mir läuft die WD-RED mit 4TB sehr zuverlässig seit etwa einem halben Jahr. Die Ausfallwahrscheinlichkeit ist in den ersten 3 Monaten des Betriebs ziemlich hoch, sinkt dann wieder, bis sie nach 5 Jahren erst wieder merklich ansteigt. (Also nach 3 Monaten sind dann die Montagsfestplatten alle durch ;) ) Alex
Alexander Detsch schrieb: > Es gibt 4TB-NAS Platten, die sind für Dauerlauf ausgelegt. Aber Vorsicht: Dauerlauf Platten sollte man auch genau so betreiben: Dauerlauf / Server. Nicht jeden Tag an/ausschalten...
Google hat an 100000 Festplatten Ausfall- und Fehlerstatistiken erfasst und in einem Paper veröffentlicht. Es werden dort einige alte heilige Kühe geschlachtet: http://storagemojo.com/2007/02/19/googles-disk-failure-experience/ Hier direkt zum Paper: http://research.google.com/archive/disk_failures.pdf Sehr interessante Lektüre. Man beachte die geringe Ausfallwahrscheinlichkeit in Abhängigkeit von der Temperatur und z.B. die völlig aus der Luft gegriffenen MTBF Angaben der Hersteller.
Neben dem Backup gehört auch eine regelmässige und häufige Überprüfung des Festplattenstatus zum "must have". Also die smartmontools auf den Rechner und mehrmals täglich den Kurztest und 1-2x wöchentlich den Langtest fahren. Mit smartd und dem smart-notifier kann man sich im Fehlerfall eine Benachrichtigung auf den Bildschrim zaubern oder sich eine eMail schicken lassen (bzw. aus der eMail eine SMS aufs Handy). http://wiki.ubuntuusers.de/Festplattenstatus
Dextrose schrieb: > Hallo zusammen, > vor etwa 2 Jahren habe ich mir eine relativ günstige 1TB Platte > gekauft. > Diese ist mittlerweile auch voll. Natürlich brauche ich sie auch öfters. > Aber nicht nur ich, mein Vater leiht sie sich auch am und zu. > Mein Problem ist allerdings das es zum GAU gekommen ist. > Die Platte ist runter gefallen, etwa einen halben Meter auf harten > Fliesenboden. Es war zwar nicht mein verschulden, allerdings ist mir für > diesen Moment fast mein Herz stehen geblieben. > Auf der Platte sind eine menge Daten welche ich stark missen würde. > Im großen und ganzen wäre das eine riesige Katastrophe wenn diese kaputt > wäre. Gl.............. > MfG Dextrose KANN DIR NUR AASYNC empfehlen! TOP PROGRAMM!!!
...-. schrieb: > Also die smartmontools auf den Rechner und mehrmals täglich den Kurztest > und 1-2x wöchentlich den Langtest fahren. Gehts noch? Und wann darf man den PC auch mal benutzen? Der PC soll mir dienen und nicht ich ihm. Ich versuche die externen HDD vielleicht einmal im Jahr zu lesen. Persönlich wichtiges habe ich auf mindestens 3 Datenträgern.
Peter Dannegger schrieb: > ...-. schrieb: >> Also die smartmontools auf den Rechner und mehrmals täglich den Kurztest >> und 1-2x wöchentlich den Langtest fahren. > > Gehts noch? Hehe das ist völlig übertrieben, wie man auch an den Google Ergebnissen sehen kann. Ich habe die SMART Werte meiner 2 internen Platten (plus SSD) heute seit über einem Jahr mal wieder geprüft... ich muss die eine wohl mal in Rente (=Backup im Schrank) schicken, die läuft schon seit 20k Stunden - aber 0 Error Rate ;-) Wieviele Stunden ham eure Platten so auf dem Buckel?
Grendel schrieb: > Wieviele Stunden ham eure Platten so auf dem Buckel? Meine Systemplatte hat erst 12800h :D und läuft noch top. Die Datenplatte hatte ich zwischenzeitlich schon gegen ne neuere getauscht, die hat erst 3000h. Bei der Systemplatte ist es mir aber auch relativ egal, wie gut die noch läuft, da ist eh nichts wichtiges drauf. Es wird eh alle 4-5 Monate neu aufgesetzt.
Ich bin entsetzt. Meine Interne 1 TB Platte hat laut HDD Health nur noch 71 % ihrer "Gesundheit". Was soll denn der Rotz? Meine SSD hat noch 100%. Wie kann ich auslesen wievielte Sektoren hinüber sind?
Dextrose schrieb: > Wie kann > ich auslesen wievielte Sektoren hinüber sind? Ich glaube, HDTune kann das. Habs aber grade nicht drauf, sonst könnte ich es Dir sicher sagen ;)
Dextrose schrieb: > Ich bin entsetzt. > Meine Interne 1 TB Platte hat laut HDD Health nur noch 71 % ihrer > "Gesundheit". Was soll denn der Rotz? Meine SSD hat noch 100%. Wie kann > ich auslesen wievielte Sektoren hinüber sind? Das muss GARNIX heissen und hat auch nix mit defekten Sektoren zu tun. HDD Health kann die Smart Werte doch anzeigen, da siehste das doch. Welche HDD Marke hast Du denn? (falls Seagate, die Smart Werte kannste dann knicken, da können nur die Seagate Tools was mit anfangen - war jedenfalls vor einiger Zeit noch so ;-) )
Hab ne Samsung Spinpoint F1 (HD 103SJ). Wenn ich unter "SMART Attributes" gucke steht da allerdings bei jedem Attribut der Wert 100. Das kann allein aus dem Grund schon nicht sein, weil die Laufzeit um ein vielfaches höher ist.
Dextrose schrieb: > Hab ne Samsung Spinpoint F1 (HD 103SJ). Wirklich? Die hab ich auch. Sogar drei davon. Und die laufen noch spitzenmäßig :D Der Wert darf nicht unter den Schwellwert sinken. Die Rohdaten sind allerdings für einen Laien eher schwierig zu interpretieren. Da gibt es extra Programme, die dir dann sowas sagen wie "gut" oder "Achtung", oder so. CrystalDiskInfo z.B. mache ich bei den Leuten (die mich um rat fragen...) immer drauf. (Hier noch ein Info-Link für Dich: http://www.pcwelt.de/tipps/Diese_S.M.A.R.T.-Daten_sind_wichtig-Festplatten-8217564.html)
100 ist dann nicht der Rohwert sondern das was der Plattencontroller meint wie gut es noch ist. Gerade mal mein Schleppi gecheckt, eine Samsung Platte drin. Plattenquartett, Wer bietet mehr? Samsung HM250JI 30k Betriebsstunden, 5k Power Cycles, 10k Start/Stop Count ;-)
Also CrystalDiskInfo sagt bei mit folgendes: http://s1.directupload.net/images/140701/csdgawfj.png Sollte ich beunruhigt sein? Ich bin es nämlich :(!
Die markierte Zeile mit 252 ist normal das ist bei einigen Werten statt der 100 halt der max. wert für alles OK. Warum genau bist Du denn beunruhigt? Ist das die Platte die runtergefallen ist? Dann sind die Smartwerte egal, da muss man sowieso beunruhigt sein ;-) UND DIE PLATTE NICHT MEHR BENUTZEN wie weiter oben schon gesagt! Das wichtigste sofort auf die Systemplatte oder irgendwoanders hinkopieren wenn sie gerade eh noch läuft. Aber erstmal Backup Platte anschaffen, dann sofort alle Daten rüberkopieren.
Für alle Grobmotoriker: NASse und externe Festplatten gehören auf den Fußboden, da kann nixt mehr runterfallen, auf dem Desktop ist eh meistens kein Platz mehr. Nur mit dem Dust-Sucker aka Vacuum-Cleaner muß die Frau dann Slalom fahren. Und allen Multi-Powersupply-Ownern sei gesagt: Labelt eure diversen Netzteile, damit nicht morgen schon wieder so ein Depp kommt und mitteilt, er hätte das 19V Netzteil vom Notebook versehentlich an das externe Festplattengehäuse mit der einzigen, wichtigen Festplatte angeschlossen.
Grendel schrieb: > Plattenquartett, Wer bietet mehr? Model Family SAMSUNG SpinPoint F2 EG Device Model SAMSUNG HD103SI Power_On_Hours 38967 Start_Stop_Count 59 Power_Cycle_Count 56 Hardware_ECC_Recovered 878163 Serverplatte halt :-)
Ich schrieb: > Serverplatte halt :-) Da kann ich mit Systemen dienen, die seit 2000 durchgehend im Einsatz sind. Originalplatten von damals. SMART ist da allerdings nicht zu erwarten.
D. V. schrieb: > Für alle Grobmotoriker: NASse und externe Festplatten gehören auf den > Fußboden, da kann nixt mehr runterfallen, Ja doch wirklich Herr Lehrer, der Hund hat die Platte gefressen!!! Und wo hin stellen wo nix anderes vom Tisch runterfallen und auf der Platte landen könnte (auch der User selbst ;-) ) In Hochwassergebieten ist auf den Boden stellen auch nicht ratsam. Eine sehr feindliche Welt für Festplatten...
Grendel schrieb: > Eine sehr feindliche Welt für Festplatten... Man kann die Festplatte in einem Rahmen Gummi gefedert aufhängen und dann kann das gesamte Gebilde auch mal vom Tisch fallen. Dann macht die Platte im Rahmen halt Bungee jumping.;-)
D. V. schrieb: > Für alle Grobmotoriker: NASse und externe Festplatten gehören auf den > Fußboden, Hat ein Bekannter von mir auch so gemacht. Dann ist jemand versehentlich mit dem Fuß dagegengetreten und sie ist im laufenden Betrieb umgekippt. Das hat schon gereicht für einen sofortigen Ausfall der Festplatte.
...-. schrieb: > Also die smartmontools auf den Rechner und mehrmals täglich den Kurztest > und 1-2x wöchentlich den Langtest fahren. Gerade mit den Testläufen sollte man es nicht übertreiben. Mein Heim- server läuft 24x7 mit insgesamt 10 Platten (1x System, 1x Backup, 8x RAID-5). Da lasse ich den kurzen Selbsttest einmal am Tag laufen und den langen einmal in der Woche. Das ist mehr als genug. Was man wirklich häufig abfragen sollte, ist der SMART Status. Default für smartd ist alle 30 Minuten. Und man sollte Email o.ö. konfigurieren für Alarm-Meldungen von smartd. Den letzten Plattenausfall - eine ca. 6 Monate alte WD30 Green - habe ich so rechtzeitig mitbekommen und konnte fast alle Daten (zumindest: alle wichtigen) noch umkopieren. XL
Grendel schrieb: > Plattenquartett, Wer bietet mehr?
1 | === START OF INFORMATION SECTION === |
2 | Model Family: SAMSUNG SpinPoint T133 |
3 | Device Model: SAMSUNG HD401LJ |
4 | Firmware Version: ZZ100-15 |
5 | User Capacity: 400,088,457,216 bytes [400 GB] |
6 | ... |
7 | === START OF READ SMART DATA SECTION === |
8 | SMART overall-health self-assessment test result: PASSED |
9 | ... |
10 | SMART Attributes Data Structure revision number: 16 |
11 | Vendor Specific SMART Attributes with Thresholds: |
12 | ID# ATTRIBUTE_NAME VALUE WORST THRESH TYPE RAW_VALUE |
13 | 1 Raw_Read_Error_Rate 100 100 051 Pre-fail 174 |
14 | 3 Spin_Up_Time 100 100 015 Pre-fail 7680 |
15 | 4 Start_Stop_Count 100 100 000 Old_age 270 |
16 | 5 Reallocated_Sector_Ct 253 253 010 Pre-fail 0 |
17 | 7 Seek_Error_Rate 253 253 051 Pre-fail 0 |
18 | 8 Seek_Time_Performance 253 253 015 Pre-fail 0 |
19 | 9 Power_On_Hours 100 000 Old_age 48626 |
20 | 10 Spin_Retry_Count 253 253 051 Pre-fail 0 |
21 | 11 Calibration_Retry_Count 253 100 000 Old_age 0 |
22 | 12 Power_Cycle_Count 100 100 000 Old_age 93 |
23 | 190 Airflow_Temperature_Cel 072 046 000 Old_age 28 |
24 | 194 Temperature_Celsius 154 076 000 Old_age 28 |
25 | 195 Hardware_ECC_Recovered 100 100 000 Old_age 372110195 |
26 | 196 Reallocated_Event_Count 253 253 000 Old_age 0 |
27 | 197 Current_Pending_Sector 100 100 000 Old_age 8 |
28 | 198 Offline_Uncorrectable 253 253 000 Old_age 0 |
29 | 199 UDMA_CRC_Error_Count 200 200 000 Old_age 0 |
30 | 200 Multi_Zone_Error_Rate 100 100 000 Old_age 0 |
31 | 201 Soft_Read_Error_Rate 100 100 000 Old_age 3 |
32 | 202 Data_Address_Mark_Errs 253 253 000 Old_age 0 |
33 | |
34 | SMART Error Log Version: 1 |
35 | No Errors Logged |
36 | |
37 | SMART Self-test log structure revision number 1 |
38 | Num Test_Description Status LifeTime(hours) |
39 | # 1 Short offline Completed without error 48618 |
40 | # 2 Short offline Completed without error 48594 |
41 | # 3 Short offline Completed without error 48570 |
42 | # 4 Extended offline Completed without error 48528 |
43 | # 5 Short offline Completed without error 48498 |
44 | ... |
45 | 2 of 2 failed self-tests are outdated by newer successful |
46 | extended offline self-test # 4 |
Das ist die Systemplatte meines Heimservers. 48000h = 2000 Tage =~ 5½ Jahre gelaufen. Die "pending sectors" kamen vor über einem Jahr mal dazu, nach zwei fehlgeschlagenen Selbsttests. Probleme im Betrieb: keine; die Sektoren enthielten also anscheinend noch keine Nutzerdaten. Wird aber demnächst durch eine SSD ersetzt. Da liegt u.a. mein /home drauf, das wird langsam etwas zu langsam :) XL
Wenn du dir das Google Paper durchliest - es gibt wirklich nur ein ganz paar sinnvolle SMART Werte, alles andere ist meistens eher verwirrend, als das es hilft, den wirklichen Zustand der Platte zu erfassen. Dazu kommt, das jeder Hersteller die Werte entweder anders darstellt oder zumindest anders interpretiert haben will. Mit z.B. 'Raw Read Error Count' bezeichnet der eine tatsächlich Lesefehler und der andere zählt da nur irgendwelche Werte hoch. Zu den hilfreichen Angaben gehören reallozierte Sektoren (deuten auf Probleme mit der Oberfläche hin) sowie die Power-On Zeit zum Abschätzen des Alters. Hier waren es z.B. 2 Stück WD Green 2TB, die ihr Ableben nach 2 Jahren Dauerbetrieb im RAID1 durch Reallozierung angekündigt haben (73 Sektoren bei der einen, 22 bei der anderen), die Platten sind eben für Dauerbetrieb nicht gemacht. Austausch gegen WD Red habe ich gerade gemacht - schauen wir mal. Axel Schwenke schrieb: > Das ist die Systemplatte meines Heimservers. Das sieht doch recht gut aus, mit Samsung habe ich persönlich nicht so gute Erfahrungen gemacht, aber wie im Google Paper auch erwähnt, ist das Verteufeln einer Marke auch grossenteils Blödsinn, die nehmen sich alle nicht viel. In meiner Linux-NAS-Box läuft einfach ein Monitor mit Alarm auf den 'Historic System Statistics' von Webmin mit, der sendet mir ne Mail, wenn die Reallokation aus dem Ruder läuft.
Axel Schwenke schrieb: > Mein Heim- > server läuft 24x7 mit insgesamt 10 Platten (1x System, 1x Backup, 8x > RAID-5) WOW! damals gab's noch keine > 2TB Platten :-) Aber wie schafst du mit 1x HDD Backup für die restlichen 9 Platten? >Wird aber demnächst durch eine SSD ersetzt. Da liegt u.a. mein /home >drauf, das wird langsam etwas zu langsam :) für Daten vielleicht, aber für Systemplatte braucht man ne besondere SSD, falls Serverbtriebssystem drauf ist.
Matthias Sch. schrieb: > Hier waren es z.B. 2 Stück WD Green 2TB, die ihr Ableben nach 2 Jahren > Dauerbetrieb im RAID1 durch Reallozierung angekündigt haben (73 Sektoren > bei der einen, 22 bei der anderen), die Platten sind eben für > Dauerbetrieb nicht gemacht. Die sind wahrscheinlich nicht am Dauerbetrieb erkrankt, sondern an den bei Einsatz im NAS rasch ansteigenden Loadcycles. Die Green parken schon nach 8 Sekunden ihre Köpfe, wenn keine Zugriffe stattfinden. Man kann dieses Verhalten mit dem Tool WDIDLE auf größere Werte einstellen oder ganz abschalten, dann halten die Green wesentlich länger. Die RED sind im Prinzip nichts anderes als für RAID optimierte GREEN, mit per Default angepaßtem Idle-Timer und TLER.
Icke ®. schrieb: > Die sind wahrscheinlich nicht am Dauerbetrieb erkrankt, sondern an den > bei Einsatz im NAS rasch ansteigenden Loadcycles. Die Green parken schon > nach 8 Sekunden ihre Köpfe, wenn keine Zugriffe stattfinden. Das klingt interessant - schade, hätte ich mal wissen müssen, als ich die Platten damals installierte. Ich schau mir das Programm auf jeden Fall mal an und häng mal eine von den alten Platten ran, wenn die anderen ihren Job einige Zeit gemacht haben. Da ich die Dinger aber das Stück damals für nicht mal 60 Euro neu gekauft hatte (im USB Gehäuse) ist der Schaden gering.
Tany schrieb: > für Daten vielleicht, aber für Systemplatte braucht man ne besondere > SSD, falls Serverbtriebssystem drauf ist. Weshalb? Kaum eine Disk hat weniger Arbeit als die Betriebssystem-Disk eines Servers. Viel mehr als Logfile-Zugriffe passieren da nicht. Mein Homeserverlein verwendet dafür eine schnarchlangsame 16GB uralt-SSD vom eeePC, via USBv2. Aber bei grösseren Klöpsen ist an dieser Stelle auch nicht mehr los. Und bei VMware Servern ist das System sowieso meist auf USB-Stick oder SD-Card.
:
Bearbeitet durch User
Ich habe in meinem Linux-Server ein Raid6 mit 9 Stück WDC WD10EACS (WD Caviar Green 1TB), alle auf einmal gekauft. Die laufen seit 52307 Stunden (knapp 6 Jahre) mit nur 20 Power Cycles. Spassigerweise haben 6 davon ca. 4Mio Load Cycles, die anderen nur 28. Pending Sectors haben keine, Reallocated gibts bei drei Platten mit <10. Damit halte ich es für eher unwahrscheinlich, dass die Load Cycles schlecht für die Platten sind, sie verlangsamen höchstens die Zugriffsgeschwindigkeit etwas... Ich tippe da eher auf Power Cycles und die Betriebstemperatur. Die Platteneinschübe haben Lüfter, der Server steht bei mir im Keller (woanders würde man es auch nicht daneben aushalten...) und die Platten haben selbst jetzt im Sommer nur 27 Grad. Bei einem lüfterlosen NAS im Wohnzimmer sähe das wohl anders aus.
> Weshalb? Kaum eine Disk hat weniger Arbeit als die Betriebssystem-Disk > eines Servers. Viel mehr als Logfile-Zugriffe passieren da nicht. ext2/3/4 und vermutlich auch andere FS speichern auch Lesezugriffe. Das kann schon auf die Lebensdauer gehen. Aber dagegen gibts die Mount-Optionen noatime und nodiratime. Im obigen Server ist fürs OS eine 60GB OCZ seit ca. 3.5 Jahren drin. Der Smart-Wert SSD_Life_Left steht immer noch auf 100. In der Zeit wurden ca. 800GB geschrieben und 12000GB gelesen.
kopfkratz Tja nun ist denn die Platte "gelaufen" und hat z.B. Audio wiedergegeben als sie heruntergefallen ist ? Dann und nur dann kann es einen "Headcrash" gegeben haben. Wie schon gesagt kopiere einfach alles auf eine neue externe Platte und dann formatiere die alte mit Deinem favorisiertem Betriebssystem mit dem Filesystem was Dir am besten paßt. Also bei Windows z.B. NTFS und nimm den kleinsten Cluster OHNE Schnellformatierung. Danach einige Dateien herüberkopieren und einen check des Filesystems machen. Wenn keine Fehler beim Hash der Dateien und dem Plattentest auftreten hat es keine Köpfe/Platten gehimmelt. IdR werden die Köpfe sehr gut geparkt wenn die Platte ausgeschaltet ist bzw. schläft. Und von wichtigen Daten immer noch redundante Backups anlegen, z.B. auf mehreren USB Sticks die dann in der Schublade Deiner Wahl herumliegen :-P Eine Variante Backups "relativ" sicher abzulegen ist die Daten zuerst in einen Truecrypt oder PGP Container zu packen, dann das ganze zusätzlich mit einem Paßword zu zippen und auf mehrere der freien Filehoster hochzuladen ...
Ich denke auch, es gibt kein Problem mit der HD. Erstmal "Fehlerhafte Sektoren suchen/wiederherstellen" machen. Ansonsten ein Tool vom Hersteller besorgen und eine Low Level Formatieren machen.
Michael_ schrieb: > und eine Low Level > Formatieren machen. Wozu soll das in diesem Fall gut sein? Die Platte läuft doch noch problemlos. Gewarnt wird nur vor einem nun vorzeitig möglichen Totalausfall durch einen recht wahrscheinlichen Sturzschaden. Dagegen hilft nur Software zum kopieren - solange es noch geht.
Tany schrieb: > Axel Schwenke schrieb: >> Mein Heimserver läuft 24x7 mit insgesamt 10 Platten (1x System, > 1x Backup, 8x RAID-5) > wie schafst du mit 1x HDD Backup für die restlichen 9 Platten? Gar nicht. Ins Backup (gleichzeitig auch Archiv) wandern nur wichtige Daten. Also z.B. /home, der Mailspool, das Datenblatt-Archiv etc. Den größten Footprint haben Daten, die im Zweifelsfall wiederbeschaffbar sind: das Musik- und Film-Archiv z.B. >>Wird aber demnächst durch eine SSD ersetzt. Da liegt u.a. mein /home >>drauf, das wird langsam etwas zu langsam :) > für Daten vielleicht, aber für Systemplatte braucht man ne besondere > SSD, falls Serverbtriebssystem drauf ist. A. K. schrieb: > Kaum eine Disk hat weniger Arbeit als die Betriebssystem-Disk > eines Servers. Viel mehr als Logfile-Zugriffe passieren da nicht. Du hast eine komische Vorstellung von "Systemplatte". Das ist die eine Platte, auf der alles drauf ist was das System zum Arbeiten braucht. Also u.a. auch swap, vor allem aber /home und /var. Letzteres hält den Mailspool für ein halbes Dutzend Accounts, einen lokalen Newsspool, MySQL-Datenbanken, RRDtool Archive, SVN Repositories und und und ... Ich weiß daß es in gewissen Kreisen als "chic" gilt, die Betriebssystem- Installation auf eine extra Platte zu machen. Nur warum? Gerade weil da kaum Zugriffe drauf stattfinden, bringt es doch gar nichts, das auszulagern. Falls es jemanden interessiert: ich hab mal ein Schema des Plattensetups angehängt. XL
Axel Schwenke schrieb: > Ich weiß daß es in gewissen Kreisen als "chic" gilt, die Betriebssystem- > Installation auf eine extra Platte zu machen. Nur warum? Kann bei Backups eine wesentliche Rolle spielen. Insbesondere bei Windows ist es wesentlich einfacher und vor allem funktionssicherer, die Systemdisk als Image wiederherzustellen, als zu versuchen, das System aus einem Filebackup zu recovern. Bare Metal Restore vom Betriebssystem aus Filebackups bietet zwar jeder an, das macht erfahrungsgemäss aber häufig Probleme. Von Datendisks sind Imagebackups jedoch nicht erforderlich und für den häufigsten Anwendungsfall (selektiver Restore) wenig praktikabel. Und das Backupvolumen grosse Datendisks per Imagebackup ist auch nicht hilfreich. Daher neige ich bei Servern aus Blech mit grösseren Datenvolumen dazu, von System und Daten die Partitionen zu trennen, um das System als Image sichern (oder kopieren) zu können, ohne solche Backups unnötig durch Datenmassen aufzublasen. Wie sich das in der Abbildung auf physikalische Platten darstellt ist dann eine völlig andere Frage. Es hilft auch, wenn Anwendungen die zum System gehörenden Filesysteme nicht vollnageln, sondern nur ihre eigenen Filesysteme. Soweit mal die Betrachtung vergleichsweise einfach strukturierter Serverumgebungen aus Blech, mit lokaler Datenspeicherung im Server. Bei virtualisierten Servern ergibt eine Trennung deutlich weniger Sinn. In SAN/NAS Umgebungen bei Servern aus Blech ist ggf. nur die Systemdisk lokal, der Rest liegt woanders. Bei hochverfügbaren Servern ist eine Trennung von System und Daten bis runter auf die physikalische Ebene zudem oft zwingend erforderlich. Diese Serverpraxis prägt folglich meinen Begriff einer Systemdisk. Wenn das eine heute vergleichsweise kleine Partition auf einem lokalen RAID Verbund ist, auch recht, separate Physik muss das nicht immer sein. Nur definiert dann gerade nicht das Betriebssystem die Anforderung an die Hardware, sondern das was sonst noch da drauf ist.
:
Bearbeitet durch User
Axel Schwenke schrieb: > Ich weiß daß es in gewissen Kreisen als "chic" gilt, die Betriebssystem- > Installation auf eine extra Platte zu machen. Nur warum? Spätestens, wenn die Augen von dutzenden Users auf dich richten, dann weiß du warum, das hat mit "chic" nix zu tun. Mir ist ein SBS2008 in letztem Monat aufgrund des Stromausfalls abgeraucht, innerhalb von 3 Stunden ist der Zustand von Vortag wiederhergestellt. Das ist für mich "chic" :-) Ich weiß nicht, wie das Backupkonzept unter Linux/Unix aussieht. Bei MS ist das Konzept ab Server 2008 sehr gut. Gruß
Axel Schwenke schrieb: > Du hast eine komische Vorstellung von "Systemplatte". Das ist die eine > Platte, auf der alles drauf ist was das System zum Arbeiten braucht. > Also u.a. auch swap, vor allem aber /home und /var. Letzteres hält den > Mailspool für ein halbes Dutzend Accounts, einen lokalen Newsspool, > MySQL-Datenbanken, RRDtool Archive, SVN Repositories und und und ... Unter "System" verstehe ich "Betriebssystem", insbesondere wenn ich auf einen Beitrag reagiere, der den Fokus genau darauf legt: Tany schrieb: > für Daten vielleicht, aber für Systemplatte braucht man ne besondere > SSD, falls Serverbtriebssystem drauf ist. Axel Schwenke schrieb: > Ich weiß daß es in gewissen Kreisen als "chic" gilt, die Betriebssystem- > Installation auf eine extra Platte zu machen. Nur warum? Wenn von Disk die Rede ist und Windows Teil der Betrachtung ist, dann ist dieser Begriff doppeldeutig. Da kann mit Disk je nach Kontext eine physikalische Platte gemeint sein, oder auch bloss die C-Partition, vulgo C-Laufwerk. Das ist nicht exakt richtig, aber verbreitet. Bei meinem Linux-Heimserverlein habe ich das getrennt, weil es bei Spielereien mit dem wenige GB grossen System wesentlich beruhigender ist, wenn man den ganzen einige TB grossen Datenkram währenddessen einfach rausziehen kann. Nicht weils von Platz oder Leistung her nötig wäre. Die 16GB SSD war schlicht übrig, mit Format vgl. Mini-PCIe zwergenhaft klein und der Server hat einen internen USB Slot. Also warum nicht.
:
Bearbeitet durch User
A. K. schrieb: > Axel Schwenke schrieb: >> Ich weiß daß es in gewissen Kreisen als "chic" gilt, die Betriebssystem- >> Installation auf eine extra Platte zu machen. Nur warum? [schnipp] > Daher neige ich bei Servern aus Blech mit grösseren Datenvolumen dazu, > von System und Daten die Partitionen zu trennen Platten vs. Partitionen Und wie du sehen kannst, sind /var und /home bei mir natürlich eigene Filesysteme und sogar eigene logical Volumes. > Es hilft auch, wenn Anwendungen die zum System gehörenden Filesysteme > nicht vollnageln, sondern nur ihre eigenen Filesysteme. Das Problem hat man nur mit Windows-Applikationen. Das ist aber so gar nicht meine Baustelle ... > definiert dann gerade nicht das Betriebssystem die Anforderung an die > Hardware, sondern das was sonst noch da drauf ist. Meine Rede XL
Axel Schwenke schrieb: > Platten vs. Partitionen Yep. Aber versuch mal, in Windows nicht vom C-Laufwerk zu reden, auch wenns kein Laufwerk ist, sondern bloss ein Filesystem auf einer Partition, die ihre Disk(s) mit anderen Filesystemen teilt. CP/M lässt grüssen. ;-) >> Es hilft auch, wenn Anwendungen die zum System gehörenden Filesysteme >> nicht vollnageln, sondern nur ihre eigenen Filesysteme. > > Das Problem hat man nur mit Windows-Applikationen. Das ist aber so gar > nicht meine Baustelle ... Meine schon. Auch. Wenn Linux oder Unix die Lösung für voll laufende Filesysteme wäre - ein Traum. Leider liegt das Problem damit eher bei unterschiedlichen Ausprägungen des Betriebssystem der Anwender (das zwischen den Ohren). Da gibts welche, die stehen verdientermassen im Ruf, jedes verfügbare Byte alsbald aufzubrauchen. Ganz egal ob das auf Windows, Linux, Unix oder NetApp gehostet ist.
:
Bearbeitet durch User
Georg A. schrieb: > Damit halte ich es für eher unwahrscheinlich, dass die Load Cycles > schlecht für die Platten sind, sie verlangsamen höchstens die > Zugriffsgeschwindigkeit etwas. WD gibt für dieses Modell 300.000 Loadcycles an und die denken sich bestimmt was dabei. Wenn die Platten wirklich schon 4 Mio runter haben und noch einwandfrei funktionieren, spricht das für unerwartet gute Qualität. > Ich tippe da eher auf Power Cycles und die Betriebstemperatur. Die Temperatur spielt eine wesentliche Rolle. Gut gekühlte Platten leben um Größenordnungen länger als ständig heiße.
Axel Schwenke schrieb: > Platten vs. Partitionen Ich hatte freilich auch Gründe genannt, die physikalische Trennung erfordern können, oder sie zumindest nützlich machen.
:
Bearbeitet durch User
Icke ®. schrieb: > Die Temperatur spielt eine wesentliche Rolle. Gut gekühlte Platten leben > um Größenordnungen länger als ständig heiße. Ulkigerweise behauptet der berühmte aber nicht mehr ganz junge Google-Report eher das Gegenteil. Da war die Ausfallrate gut gekühlter Disks etwas höher. ;-) Frag mich jetzt aber nicht wieso. Steht da halt drin. Klar, glühen sollte sie nicht, aber warm zu werden scheint dem Report zufolge nicht die intuitiv zu erwartende Folge zu haben.
:
Bearbeitet durch User
Tany schrieb: > Axel Schwenke schrieb: >> Ich weiß daß es in gewissen Kreisen als "chic" gilt, die Betriebssystem- >> Installation auf eine extra Platte zu machen. Nur warum? > > Spätestens, wenn die Augen von dutzenden Users auf dich richten, dann > weiß du warum, das hat mit "chic" nix zu tun. > Mir ist ein SBS2008 in letztem Monat aufgrund des Stromausfalls > abgeraucht, innerhalb von 3 Stunden ist der Zustand von Vortag > wiederhergestellt. Das ist für mich "chic" :-) Hier fehlt mir irgendwie der Schritt dazwischen. Wieso soll ersteres die notwendige Vorbedingung für letzteres sein? Aber ich glaube, ich kann es mir jetzt zusammenreimen. 1. der Bootprozess von Windows ist so kompliziert und/oder undokumen- tiert, daß man nach einem File-Restore kein bootfähiges System bekommt. Man ist folglich darauf angewiesen, zumindest C: als Image zu sichern. 2. die verfügbaren Imager sind strunzdumm und können nur komplette Partitionen sichern (und nicht etwa nur die benutzten Blöcke eines z.B. NTFS Filesystems). Folglich will man nur kleine Partitionen als Image sichern und vor allem keine, die größtenteils leer sind. Deswegen macht man eine kleine C: Partition, die nur das nötigste enthält und sichert die als Image. Den Rest als Files. Richtig so? Dann ist das ein Problem, das ich mit Linux gleich dreimal nicht habe: 1. ist der Bootprozess logisch und sauber dokumentiert. 2. bin ich auch nach einem File-Restore nur einen Aufruf von grub-install davon entfernt, ein bootfähiges System zu haben. 3. kann Linux' ntfsclone selbstverständlich ein Image von NTFS machen, das nur die Sektoren enthält, die auch benutzt sind. > Ich weiß nicht, wie das Backupkonzept unter Linux/Unix aussieht. Bei MS > ist das Konzept ab Server 2008 sehr gut. Du meinst sicherlich besser. Glaube ich dir aufs Wort. Wenn man bei 0 anfängt, sieht auch eine infinitesimale Verbesserung nach einem großen Schritt aus (ein Quantensprung, hihi). Oder wie es der Dichter sagt: "In der Dämmerung werfen auch Zwerge lange Schatten" XL
A. K. schrieb: > Ulkigerweise behauptet der berühmte aber nicht mehr ganz junge > Google-Report eher das Gegenteil. Da war die Ausfallrate gut gekühlter > Disks etwas höher. ;-) WIMRE tritt das Phänomen auf, wenn die Platten, z.B. mittels Klimaanlage, unterhalb normaler Raumtemperaturen betrieben werden. Aus meinen persönlichen Erfahrungen heraus hat es sich jedoch immer positiv auf die Lebensdauer ausgewirkt, wenn die Plattentemperatur unterhalb von ~40-45° gehalten wurde.
Axel Schwenke schrieb: > Wenn man bei 0 > anfängt, sieht auch eine infinitesimale Verbesserung nach einem großen > Schritt aus (ein Quantensprung, hihi). Oder wie es der Dichter sagt: > "In der Dämmerung werfen auch Zwerge lange Schatten" Die Möglichkeit einer mit Bordmitteln ausführbaren Baremetal-Sicherung im laufenden Betrieb und ebenso einfacher Wiederherstellbarkeit würde ich schon als großen Schritt bezeichnen. Das ging vor 2008/Vista nur mit 3rd-Party-Software.
Axel Schwenke schrieb: > 1. der Bootprozess von Windows ist so kompliziert und/oder undokumen- > tiert, daß man nach einem File-Restore kein bootfähiges System bekommt. > Man ist folglich darauf angewiesen, zumindest C: als Image zu sichern. Nicht direkt "angewiesen", es ist aber einfacher und zuverlässiger. Windows verlangt eine streng konsistente Sicherung bestimmter Systemteile und hält ein paar interne Datenbankdateien offen, die so nicht direkt gesichert werden können (locked). Dokumentiert ist das zwar schon, aber der Teufel steckt im Detail und auch bei eigentlich funktionierendem Bare Metal Restore aus Filesystem-Backups erlebt man u.U. nachher kleine Überraschungen. > 2. die verfügbaren Imager sind strunzdumm und können nur komplette > Partitionen sichern (und nicht etwa nur die benutzten Blöcke eines z.B. > NTFS Filesystems). Acronis ist sicher einer der üblichen Verdächtigen für Online-Image-Backups. Und das kann auch inkrementell und rein netto arbeiten. Wobei Server ab 2008 eine Entsprechung dazu bereits an Bord haben, ein solcher separater Imager also unnötig sein kann. Es hat ein wenig gedauert, bis Microsoft das kapiert hatte. > Dann ist das ein Problem, das ich mit Linux gleich dreimal nicht habe: Allerdings stellt das Locking in Windows sicher, dass kritische Datenstände wie die Registry im Backup entweder konsistent sind oder eben fehlen. Systemsicherungen verwenden heute implizit Snapshots, um Konsistenz zu gewährleisten. Bei Filesystembackups in Linux ist zwar ziemlich unwahrscheinlich, dass der Backup ein kritisches File bzw. ein Bündel zusammenhängender Files justament in dem Moment sichert, in dem es dank laufender Aktualisierung oberhalb der Filesystem-Ebene in sich inkonsistent ist, aber möglich ist es. Zumindest wenn man - wie meist - einfach bloss ein normales Filesystembackup macht, statt mit Snapshots zu arbeiten. Windows enthält eine "one click" Lösung für Halb-DAUs. In Linux hilft es, mitdenken zu können. Dafür hat man in Linux weit bessere Karten, wenn es mal schief geht und manuell repariert werden muss. Ist ein Unterschied in der Philosophie. In Windows können Anwendungen wie Datenbankserver sich über einen entsprechenden API in den Snapshot-Mechanismus des Systems einklinken. Die kriegen dann mit, dass einer ansteht, und können ihren eigenen Datenbestand entsprechend einrichten. In Linux kann solche Mätzchen auch machen, muss es aber oft selbst einrichten. Umgekehrt ist man bei Windows ziemlich aufgeschmissen, wenn genau dieser Mechnismus nicht sauber funktioniert, während man im Linux rumstochern kann.
:
Bearbeitet durch User
Axel Schwenke schrieb: > 2. die verfügbaren Imager sind strunzdumm und können nur komplette > Partitionen sichern (und nicht etwa nur die benutzten Blöcke eines z.B. > NTFS Filesystems). Zum Glück wissen das nicht alle "verfügbaren Imager".
Axel Schwenke schrieb: > Dann ist das ein Problem, das ich mit Linux gleich dreimal nicht habe: > 1. ist der Bootprozess logisch und sauber dokumentiert. du kannst recht haben, aber solches Dokument liest KEINER mehr. > 2. bin ich auch nach einem File-Restore nur einen Aufruf von > grub-install davon entfernt, ein bootfähiges System zu haben. Ein bootfähiges System unter Windows nutzt mir nicht, ich brauche ein funktioniertes System mit darauf laufenden Diensten incl. Datenbankkonsistenz. > 3. kann Linux' ntfsclone selbstverständlich ein Image von NTFS machen, > das nur die Sektoren enthält, die auch benutzt sind. Das macht Windows nicht anders. Icke ®. schrieb: > Die Möglichkeit einer mit Bordmitteln ausführbaren Baremetal-Sicherung > im laufenden Betrieb und ebenso einfacher Wiederherstellbarkeit würde > ich schon als großen Schritt bezeichnen. Das ging vor 2008/Vista nur mit > 3rd-Party-Software. Wenn jemand schon mal mit Symantec Backup oder - Ghostserver zutun hat, der weiß's zu schätzen :-) Darüberhinaus bittet Windows noch die Möglichkeit, Anwender seine Daten selbst per paar Mausklick wiederherzustellen, ohne Hilfe von Admin, wenn VSS auf alle Festplatten aktiviert ist. Echt gut gemacht von MS.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.