Harald K. schrieb: > Was bringt ein schön beschriftetes Backup, wenn es in der > Schublade mit den gebrauchten Unterhosen herumliegt? Harald K. schrieb: > vielleicht werden die einfach in einen Sack gekippt und weggeworfen. Also ich wasche gebrauchte Unterhosen und bewahre sie danach für den nächsten Gebrauch gut auf. Dort sind Backups wesentlich besser aufgehoben, als auf/neben dem Computer. Noch besser ist das zweite Backup im Büro - schön weit weg von meinen brandgefährlichen Basteleien :-)
Was ich bei meinem Backup-Medium gern haette (bei Platten geht das nicht): Einen physikalischen Schreibschutz (z.b. Schreibring beim 1/2-Tape, bei den Tapes diese mechanischen "Schalter"). Bei einem signifikanten Datenverlust ist man so oder so genervt, ein falsches Kommando und man hat noch mehr Druck.
Harald K. schrieb: > Nö, aber vielleicht werden die einfach in einen Sack gekippt und > weggeworfen. Oder in die Waschmaschine ...
Thomas W. schrieb: > Was ich bei meinem Backup-Medium gern haette (bei Platten geht das > nicht): Einen physikalischen Schreibschutz Falls jetzt jemand auf die Idee kommt, deswegen SD-Karten verwenden zu wollen: Die haben zwar einen kleinen mechanischen Schreibschutzschieber, aber den muss der Kartenleser auswerten. Tut er es nicht, dann ist nix mit Schreibschutz. Und es gibt viele Kartenleser, in die die Karte gar nicht weit genug eingesteckt werden kann, um diesen Schieber überhaupt auswerten zu können. Wie z.B. im ersten Raspberry Pi: https://tsa.nyc3.cdn.digitaloceanspaces.com/reprage/images/2014-07-02-pi-and-sd-card.74277c4c96c7e4059591a628797687e7c856e97b8509338afa007f56f95f4b86.webp
Harald K. schrieb: > Falls jetzt jemand auf die Idee kommt, deswegen SD-Karten verwenden zu > wollen: Die haben zwar einen kleinen mechanischen Schreibschutzschieber, > aber den muss der Kartenleser auswerten. Nicht nur der, auch die Software, über die das Ding angeflanscht ist, muss bereit und willig sein, die Restriktion zu beachten. Zumindest auf einer Ebene des Stacks. Wenn sie denn überhaupt korrekt "reported" wird. Schon hier scheitert es gelegentlich. Aber klar: deine Kernaussage bleibt unbestritten: der Schreibschutz von SD-Karten ist eine ziemliche Luftnummer, weil halt nicht direkt im Target wirksam.
Ob S. schrieb: > Nicht nur der, auch die Software, über die das Ding angeflanscht ist, > muss bereit und willig sein, die Restriktion zu beachten. Das könnte die Firmware eines SD-Kartenlesers erledigen. Könnte. Andere Speicherkarten sehen etwas derartiges gar nicht mehr vor, so ist es bereits bei Micro-SD, aber auch beim modernderen CFexpress. Tja, wozu auch ein Schreibschutz, der würde ja die Durchsetzung der Wirtschafsinteressen der Verschlüsselungstrojaneranbieter und die des Schlangenöls einschränken. Meine LTO-Bänder haben einen Schreibschutzschieber, den das Laufwerk auswertet.
Harald K. schrieb: > Meine LTO-Bänder haben einen Schreibschutzschieber, den das Laufwerk > auswertet. Auch das ist aber eine Ebene höher als sinnvoll. Hier muss auch mindestens die Laufwerks-Firmware mitspielen, um die Funktion umzusetzen. Allerdings: mir fällt auch keine Möglichkeit ein, wie man bei einem Magnetband rein mechanisch Lesen ermöglichen, aber Schreiben verhindern könnte... Sprich: eigentlich ist (auch) dieses Medium unter dem Aspekt der Datensicherheit schon ganz grundsätzlich falsch konzipiert. Da gehört mindestens die Elektronik rein, die das ermöglichen würde.
Ob S. schrieb: > Hier muss auch mindestens die Laufwerks-Firmware mitspielen, > um die Funktion umzusetzen. Irgendjemandem muss man vertrauen. Das ist praktisch immer so. Der Firmware eines LTO-Laufwerks vertraue ich jedenfalls deutlich mehr als der Firmware eines irgendwo in Guangdong auf einem Hinterhof zusammengedengelten SD-Karten-Lesers, der als Kopie einer Kopie eines in Shenzhen auf einem anderen Hinterhof kopierten Kartenlesers entstanden ist.
Hach, war die Welt noch einfach, als man der eigenen Hardware und Software grundsätzlich vertrauen konnte. Als der PC noch seinem Namen entsprechend wirklich nur von einem persönlich benutzt wurde.
Steve van de Grens schrieb: > Hach, war die Welt noch einfach, als man der eigenen Hardware und > Software grundsätzlich vertrauen konnte. Das konnte man bei einem PC noch nie - denn der funktionierte nur mit nicht von einem selbst geschriebener Software. Aber wo sind die Grenzen persönlicher Paranoia?
Steve van de Grens schrieb: > Hach, war die Welt noch einfach, als man der eigenen Hardware und > Software grundsätzlich vertrauen konnte. Als der PC noch seinem Namen > entsprechend wirklich nur von einem persönlich benutzt wurde. Ja, die gute alte Zeit, auch ich trauere ihr nach. Fakt ist: für die überwiegende Mehrheit der Bevölkerung gibt es schon heute keine Verfügungsgewalt über die eigenen Daten mehr. Und der Rest (incl. meiner Wenigkeit) wird über den einen oder anderen RL-Mechanismus dazu gezwungen, die kümmerlichen Reste seiner Daten-Autonomie nach und nach aufzugeben. So z.B diese 2FA-Geschichte bei den Anbietern von Finanzdienstleistungen. Die nutzen das überwiegend, um äußerst "gesprächige" Apps auf einem verschissenen (und hochunsicherem) Handy als alleiniges Mittel anzupreisen und zu erzwingen. Die einzige Alternative scheint wohl zu sein: zu sterben. Aber das muss aus meiner Sicht noch warten. So 10..20 Jahre will ich schon noch. Mal schauen, ob und wie ich das hinbekomme...
Lu schrieb: > Matthias S. schrieb: >> die hat parallel auf zwei SD-Karten > > Ganz toll. Bei Format oder Kameradiebstahl sind beide weg. Eine alte > Bauernregel sagt: Lege nie alle Eier in einen Korb! Ja, diese Methode fängt natürlich "nur" den Hardwareausfall einer einzelnen Speicherkarte ab. Format sollte sich aber wiederherstellen lassen. Diebstahl, naja. Da müsste man dann eine der Karten als W-LAN-Karte ausführen die alle Fotos sofort ins lokale/per VPN angebundene NAS/Cloud schiebt. So ne Karte hatte ich mal, war grottenlahm und grottenschlecht.
Matthias S. schrieb: > Format sollte sich aber wiederherstellen lassen. Dürfte bei der Anwendung in einer Kamera mit etwas Selbstdisziplin aber auch kein besonderes Risiko darstellen. Wenn man einen definierten "Workflow" etabliert hat, wie z.B. nach einem "Job" Karte am heimischen PC auslesen, und Karte erst vor Antritt eines neuen "Jobs" in der Kamera formatieren, oder mehrere Kartensätze verwenden und die nach einem "Job" ausgelesenen erst mal in die Schachtel der noch nicht zum Löschen freigegeben packen, dann ist das Risiko sehr gering.
Harald K. schrieb: > die Kiste mit den abgelegten Barbie-Puppen Dann sollte ich meine Daten irgedwo anders lagern? Aber wo nur? Diejenigen Daten, die sich in endlicher Zeit bezahlbar übers Netz schieben lassen (in der Cloud speichern lassen; privat), stellen kein Problem dar. Und was soll ich mit den anderen paar Dutzend TB tun?
Ob S. schrieb: > Fakt ist: für die überwiegende Mehrheit der Bevölkerung gibt es schon > heute keine Verfügungsgewalt über die eigenen Daten mehr. Daten sind einfach was sehr flüchtiges. Es ist vergebliche Liebesmüh das eindämmen zu wollen. Was willst Du da mit Gewalt verfügen? Versuche dazu (DSGVO) enden nur in bürokratischen Desastern. Solang die ganz natürliche Datenflut im IT Zeitalter den Menschen dient bleibt sie sinnvoll genutzt. Möglichst viel über andere wissen aber selbst nichts hergeben wollen ist zudem typisch menschlich.
Konrad S. schrieb: > Dann sollte ich meine Daten irgedwo anders lagern? Aber wo nur? Es geht um Deine Backupmedien. Sei es in Form von Festplatten in USB-Gehäusen oder LTO-Bändern in ihren Schachteln, oder meinetwegen in Form von BluRay-Rohlingen in ihren "Jewelcases".
Harald K. schrieb: > Konrad S. schrieb: >> Dann sollte ich meine Daten irgedwo anders lagern? Aber wo nur? > > Es geht um Deine Backupmedien. > > Sei es in Form von Festplatten in USB-Gehäusen oder LTO-Bändern in ihren > Schachteln, oder meinetwegen in Form von BluRay-Rohlingen in ihren > "Jewelcases". Jo. Nützt halt nur alles nix, wenn alle Generationen im gleichen Schrank liegen. Selbst wenn das ein supersicherer Safe mit allen Schikanen ist, den die einschlägige Industrie zu bieten hat. Das ist vielen nicht klar. Der Knackpunkt ist immer die Dislozierung. Das erfordert im Minimum recht hohen organisitorischen Aufwand, oft aber auch einen recht hohen finanziellen Aufwand allein dafür, entsprechende Ablagen zu schaffen. Jedenfalls, wenn man dafür physische Datenträger (wie etwa LTO-Bänder) physisch bewegen muss...
Ob S. schrieb: > ... wenn alle Generationen im gleichen Schrank liegen. Wenn die Hütte abbrennt, habe ich wohl andere Sorgen. Entgegen anderslautenden Gerüchten ist ein Computer nicht das wichtigste im Leben.
Konrad S. schrieb: > Ob S. schrieb: >> ... wenn alle Generationen im gleichen Schrank liegen. > > Wenn die Hütte abbrennt, habe ich wohl andere Sorgen. Entgegen > anderslautenden Gerüchten ist ein Computer nicht das wichtigste im > Leben. Das wirst du spätestens dann anders sehen, wenn dir die Hütte tatsächlich abgebrannt ist. Dir ist nur nicht klar, wieviel deines Lebens mitterweile rein digital ist. Leider ist das auch vielen Damagern bezüglich der von ihnen "geführten" Geschäfte nicht klar... Und so können wir dann immer mal wieder von Vorfällen lesen, wo der Angegriffene mal eben Monate komplett raus ist aus dem Geschäftsleben... Da haben überall Idioten wie du entschieden, dass das alles nicht so wichtig sein kann, dafür Geld in Hand zu nehmen... Tsss...
Konrad S. schrieb: > Wenn die Hütte abbrennt, habe ich wohl andere Sorgen. Entgegen > anderslautenden Gerüchten ist ein Computer nicht das wichtigste im > Leben. Leider kenne ich Leute, wo der Blitz oder der Kochtopf zu einem Brand geführt hat. Da waren dann auch alle Fotoalben und Dokumente verbrannt. NUR eine Festplatte, die zufällig woanders war, blieb übrig. Meine Erkenntnis daraus ist, dass man eigentlich viel mehr einscannen und woanders lagern sollte.
Ob S. schrieb: > Das wirst du spätestens dann anders sehen, wenn dir die Hütte > tatsächlich abgebrannt ist. Ich war früher viele Jahre als ITler beschäftigt. Trotzdem halte ich seit meinem Schlaganfall einen Computer nicht mehr für so wichtig. Du kannst das gern anders sehen.
Lu schrieb: > Leider kenne ich Leute, wo der Blitz oder der Kochtopf zu einem Brand > geführt hat. Da waren dann auch alle Fotoalben und Dokumente verbrannt. > NUR eine Festplatte, die zufällig woanders war, blieb übrig. Meine > Erkenntnis daraus ist, dass man eigentlich viel mehr einscannen und > woanders lagern sollte. Genauso ist das. In der vordigitalen Zeit war das Thema keins, weil es gar kein Backup gab. Da bietet die Digitalisierung dann doch ganz andere Möglichkeiten, ohne großen Aufwand. Konrad S. schrieb: > Ich war früher viele Jahre als ITler beschäftigt. Trotzdem halte ich > seit meinem Schlaganfall einen Computer nicht mehr für so wichtig. Du > kannst das gern anders sehen. Der Computer an sich ist völlig unwichtig. Die Daten da drauf sind es auch, wenn es dafür kein Backup gibt. Das ist aber doch nun kein Thema, über das man überhaupt noch diskutieren muß. Ob S. schrieb: > Das ist vielen nicht klar. Der Knackpunkt ist immer die Dislozierung. > Das erfordert im Minimum recht hohen organisitorischen Aufwand, oft aber > auch einen recht hohen finanziellen Aufwand allein dafür, entsprechende > Ablagen zu schaffen. > > Jedenfalls, wenn man dafür physische Datenträger (wie etwa LTO-Bänder) > physisch bewegen muss... Nun ja, er ist ja jedem selber überlassen, den Wert der Daten einzuschätzen, und den Grad der Absicherung zu bestimmen. Wer die vollständige Sammlung aller Alf-Folgen in HD gegen die Zerstörung der Erde absichern will, muß halt einen Platz auf der nächsten Voyager-Mission buchen, die das Zeug dann aus dem Sonnensystem befördert. Wie man dann im Falle eines Falles dran kommt, kann man klären, wenns soweit ist. Oliver
:
Bearbeitet durch User
Oliver S. schrieb: > Nun ja, er ist ja jedem selber überlassen, den Wert der Daten > einzuschätzen, und den Grad der Absicherung zu bestimmen. Es geht (mir) nicht um den Wert, sondern um die Priorisierung.
Konrad S. schrieb: > Es geht (mir) nicht um den Wert, sondern um die Priorisierung. Kommt ganz darauf an ob es nur die Hochzeitsbilder sind oder sämtliche Unterlagen und Kundendaten. Es nützt aber auch nichts, wenn Du ALLE Daten sicher in der Cloud hast und 3 Jahre zur Wiederherstellung brauchst. Man kann auch in einer Stunde Produktionsausfall schnell mal eine Million € verbrennen. Dementsprechend sind Prioritäten sehr verschieden.
Konrad S. schrieb: > Lu schrieb: >> Produktionsausfall > > Konrad S. schrieb: >> privat > > ??? Kartoffeln, Tomaten, Kinder :)
Thomas W. schrieb: > Was ich bei meinem Backup-Medium gern haette (bei Platten geht das > nicht): Einen physikalischen Schreibschutz (z.b. Schreibring beim > 1/2-Tape, bei den Tapes diese mechanischen "Schalter"). Dafür gibt es WORM Tapes. https://www.bechtle.com/shop/quantum-lto-8-ultrium-tape-worm--4222268--p
Konrad S. schrieb: > Ob S. schrieb: >> ... wenn alle Generationen im gleichen Schrank liegen. > > Wenn die Hütte abbrennt, habe ich wohl andere Sorgen. Entgegen > anderslautenden Gerüchten ist ein Computer nicht das wichtigste im > Leben. Stimmt schon, aber wenn du deine Daten noch hast geht der Neustart evtl. leichter.
Konrad S. schrieb: > Wenn die Hütte abbrennt, habe ich wohl andere Sorgen. Entgegen > anderslautenden Gerüchten ist ein Computer nicht das wichtigste im > Leben. Das mag im Vorfeld und wenns "akut" ist erstmal so sein. Relativ schnell wirst du dann aber merken, welche Erinnerungen du alle verloren hast. Früher sind die Fotos natürlich auch verbrannt, heute hättest du diese anderweitig sichern können. Und wenn du noch einen Schritt weitergehst und diverseste Dokumente einscannst, tust du dich auch im Nachhinein viel leichter. Stell dir einfach den Gutachter deiner Hausratversicherung vor, der dich fragt wie viel den deine Küche gekostet hat und welche Geräte da verbaut waren. "Ja.. ähm.. 7k€ warens schon, oder doch eher 8k€? Das Glaskeramikfeld war von Siemens, evlt. wars sogar ein echtes 'Ceranfeld',..." Oder: "Hier ist die Rechnungskopie, guck selbst nach was du brauchst. In den Zip-File sind auch sämtliche andere Rechnungen drinnen die sie brauchen könnten. Mir ist gerade mein Haus abgebrannt, muss mich auch um andere Sachen kümmern." Da fällt es natürlich auch einer Versicherung schwerer, den Schaden zugunsten der Aktionäre zu kalkulieren.
Reinhard S. schrieb: > Stimmt schon, aber wenn du deine Daten noch hast geht der Neustart evtl. > leichter. Oft ist es in solchen Situationen hilfreich, wenn man z.B. seine Versicherung kontaktieren kann. Dazu braucht man die Vertragsunterlagen, und es wäre doof, wenn die mit verbrannt oder abgesoffen sind.
Soul E. schrieb: > Reinhard S. schrieb: >> Stimmt schon, aber wenn du deine Daten noch hast geht der Neustart evtl. >> leichter. > > Oft ist es in solchen Situationen hilfreich, wenn man z.B. seine > Versicherung kontaktieren kann. Dazu braucht man die Vertragsunterlagen, > und es wäre doof, wenn die mit verbrannt oder abgesoffen sind. Das wäre für mich nun das geringste Problem. Der lokale Ansprechpartner der Versicherung findet die Daten sicherlich in seinem Computer und wo der sitzt weiß man ja.
Es gibt hier gerade eine interessante Untersuchung zur Haltbarkeit von optischen Datentraegern die ganz lesenwert ist: https://www.canada.ca/en/conservation-institute/services/conservation-preservation-publications/canadian-conservation-institute-notes/longevity-recordable-cds-dvds.html Gedacht ist das ganze wohl fuer Behoerden und Museen. Ich meine man fragt sich ja immer wenn ein Archaeologe fuer sich in Anspruch nimmt die Mumie in deinem Garten auszugraben weil nur er die wichtigen Informationen sichern kann, wie er das denn fuer die naechsten tausend Jahre sicherstellt. :-D Ausserdem sei noch erwaehnt das in der aktuellen c't10/2024 gerade ein Artikel ueber Qualitaet und Haltbarkeit von SSDs drin ist. Auf der einen Seite kann man da lesen: [..] Flash-Speicher gilt vielen als unzuverlaessig. Doch das stimmt nicht ganz. Flash-Speicher verschleisst durch Benutzung und erst damit sinkt seine Faehigkeit, lange Zeit stromlos Daten zu speichern. [..] Nicht das ich dieser Aussage widersprechen will, schlechter werden geht immer. Aber so ganz ohne Begruendung und Quelle wieviel Jahre man erwarten kann, etwas inhaltsleer. Vor allem wenn man im weiteren Test liesst das die Hersteller gerade dazu uebergehen QLC zu verwenden und das nach aussen zu verstecken. Bin mal gespannt was die naechste Stufe ist? 8Bit in einer Speicherzelle? :-D Vanye
Reinhard S. schrieb: > Der lokale Ansprechpartner > der Versicherung findet die Daten sicherlich in seinem Computer und wo > der sitzt weiß man ja. Wer noch lokale Ansprechpartner bei Versicherungen oder Banken hat, hat sicher auch Backups auf Lochstreifen… Für alle anderen ists dann doch sehr hilfreich, die verschiedenen Versicherungs-/Kundennummern irgendie katastrophensicher abgelegt zu haben. Dito Zugangsdaten zu dreiunddzwölfzig email Accounts, lebensnotwendigen Onlinezugängen, und was es da alles so gibt. Oliver
Wie sieht das denn aus mit den Controllern in der Festplatte, also den Chips, die die Hardware-aktionen des Festplattegerätes steuern, Motor und Tonarm. ich denke da ist ein Programm enthalten, das die Befehle der Festplattenschnittstelle in Aktionen umsetzt, manche Festplatten können selber löschen, machen Antriebstests ... ich weiß nicht was noch alles. ich nenne es mal das Geräte-Bios, ist dieses Bios langzeitstabil, hard encoded oder auch nur geflasht ?
Carypt C. schrieb: > ich nenne es mal das Geräte-Bios, ist dieses Bios langzeitstabil, hard > encoded oder auch nur geflasht ? Oft Flash, manchmal auch Masken-ROM. Heutzutage ist da nur ein kleiner Bootloader drin und der Rest der Firmware wird von der Platte nachgeladen. Und ja, dieses Flash kann natürlich auch seine Daten verlieren. Wahrscheinlich halten die Magnetscheiben länger.
Oliver S. schrieb: > Reinhard S. schrieb: >> Der lokale Ansprechpartner >> der Versicherung findet die Daten sicherlich in seinem Computer und wo >> der sitzt weiß man ja. > > Wer noch lokale Ansprechpartner bei Versicherungen oder Banken hat, hat > sicher auch Backups auf Lochstreifen… Die üblichen Verdächtigen haben doch alle Filialen spätestens in der nächsten Kreisstadt.
> Oft Flash, manchmal auch Masken-ROM.
Vor allem ist es das Flash eines Mikrocontrollers wo die Hersteller
ja in der Regel so 20 Jahre oder mehr angeben und das ueber den
vollen Temperaturbereich und bereits 30Jahre Erfahrung haben.
Das kann man nicht mit QLC FLash auf einer SSD vergleichen.
BTW: Ihr kennt doch alle den charmanten CH32V0003 mit dem wir derzeit
alle so preisbewusst rumspielen? Schon mal dort das Datenblatt gelesen?
Ich zitiere:
Data retention min 10years. Note: The endurance parameter is actual
measured, which is not guaranteed.
Zum Vergleich ein anderer Controller den ich gerade in der Mache habe:
(STM32L451)
Data retention at Ta=85°C Min 30Years. Guaranteed by characterization
results.
Wie? Habt ihr noch nicht gelesen? Nein? Hm...meint ihr die Entwickler
des billigsten Produktes das es gerade bei Aliexpress zu kaufen gibt
haben das gelesen?
Man bekommt immer was man bezahlt. .-)
Vanye
Hier noch eine interessante Sache die mir gestern ins Auge gesprungen ist: https://www.youtube.com/watch?v=l30sADfDiM8 Das ist eine Zusatzplatine mit der man vier SSDs an einen Raspberry anschliessen kann. Und um den Besserwissern gleich mal den Wind aus den Segeln zu nehmen, ich rede AUSDRUECKLICH nicht von der Verwendung als NAS! Aber man koennte da doch 2x 2TB SSDs und wenn die Paranoia gross genug ist vielleicht noch eine echte Platte, dranstecken. Alles im Raid1 (Mirroring) und man haette dann 2TB. Der Raspi bekommt eine kleine Zusatzschaltung, bootet einmal im Monat, bildet einmal die Pruefsumme ueber die Platten, piepst laut wenn Problem, schlaeft wieder ein wenn alles okay. Stromversorgung aus einem Lithiumakku den man 1x im Jahr auflaedt. Also nicht dauernd mit einem Steckernetzteil am Netz! Und natuerlich nicht dauerhaft am Netzwerk. Alles in einem charmanten 3D gedruckten Gehaeuse. Akku koennte z.B aus dem Boschsystem kommen. :-D Idealerweise natuerlich nicht gebastelt sondern fertig zu kaufen von einer Firma mit einem gewissen Mass an Reputation und verkaufter Stueckzahl. Seufz. Vanye p.s: Scheint gerade ausverkauft zu sein. Muss wohl am Video liegen. :-(
Oliver S. schrieb: > In der vordigitalen Zeit war das Thema keins, weil es > gar kein Backup gab. Da bietet die Digitalisierung dann doch ganz andere > Möglichkeiten, ohne großen Aufwand. In der prädigitalen Zeit gab es da Menschen, die sich jeweils auf ihre ganz eigene Art mit der Langlebigkeit ihrer Arbeit befasst haben. Bereits recht früh wurden Daten in Steine gekratzt oder gemeisselt, und einige wenige der damals vorhandenen Daten sind bis heute erhalten, auch wenn wir sie leider häufig nicht mehr immer lesen können. Erkenntnis 1: ein Backup, das Du nicht mehr oder nur noch teilweise lesen kannst, ist langfristig wertlos. Danach sind manche Menschen dazu übergegangen, Daten mit Farben darzustellen. Diese Farben sind heute häufig verblasst, verwischt, haben chemisch mit ihrem Untergrund reagiert, der Untergrund hat den Geist aufgegeben oder die Farben sind anderweitig nicht mehr sichtbar. Blöd ist auch, dass wir die damals verwendeten Datenformate nicht immer gut lesen können, auch wenn die Hieroglyphen als recht gut erforscht gelten. In anderen Fällen scheitern wir heute immer noch an der Schrift... Obwohl wir aber bisher nur bei den Hieroglyphen in altägyptischen Pyramiden sind, stellt sich heraus: langfristige Datensicherheit ist so eine Sache, bei der wesentliche Dinge bedacht werden müssen. Das ist auch heute noch so. Worüber reden wir hier also? Das ist doch der wesentliche Punkt, den der TO leider nicht schlüssig beantwortet und für den er keine Vorgaben macht, hab ich etwas übersehen? Zwei Terabyte Daten? Ui. Von Michael Kofler, dem Autor des beliebten Standardwerks "Linux" (heute im Rheinwerk Verlag) erinnnere ich mich an seine Aussage, dass sein damals etwa 1.100 umfassender Wälzer lediglich etwa zwei (2) Megabyte LaTeX-Code umfasst habe. Zwei Terabyte Daten sind um Faktor 1.000 mehr, also 1.000 Bücher mit jeweils 1.000 Seiten. Also ich möchte ja nichts Böses sagen, aber... bei dieser unüberschaubaren Datenmenge würde ich abseits der hypothetischen Fragen schon gerne genauer wissen, wie der TO seine Prioritäten sortiert hat. Du nicht? > Der Computer an sich ist völlig unwichtig. Die Daten da drauf sind es > auch, wenn es dafür kein Backup gibt. [...] > Nun ja, er ist ja jedem selber überlassen, den Wert der Daten > einzuschätzen, und den Grad der Absicherung zu bestimmen. Ich bin mir nicht sicher, ob der Umkehrschluss im ersten Satz korrekt ist. Schließlich leben wir in einer Welt, in der zwar jedermann einen oder oft sogar mehrere Computer und computerähnliche Geräte (etwa Smartphones oder Tablets) besitzt und benutzt, aber die Anfälligkeit moderner Speichermedien gegenüber Umwelteinflüssen ist ausser jenen, die bereits einen Datenverlust erleiden mussten, wohl nur den Versierten bekannt. Erschwerend kommt hinzu, dass viele Menschen das Thema Datensicherung aus Unkenntnis stiefmütterlich behandeln -- das ist wie bei Themen wie dem Tod oder bestimmten Krankheiten ein Konglomerat aus "ist mir viel zu kompliziert", "das wird mich doch nie betreffen" und "zur Not habe ich noch die alten Speichermedien". Insofern, entschuldige bitte: "Kein Backup, kein Mitleid" kann allenfalls unter Fachleuten wie Dir und mir gelten. Für den "Ottonormaluser", der im Titel dieses Threads angesprochen ist, sind wir aber weit entfernt.
Beitrag #7662436 wurde vom Autor gelöscht.
Sheeva P. schrieb: > langfristige Datensicherheit ist so > eine Sache, Kennst du die Geschichte mit den drei Weisen aus dem Morgenland, die einem hellen Stern folgen? Auch wenn der Inhalt nicht unbedingt spektakulär ist, ist es doch erstaunlich, was daraus werden kann.
Rbx schrieb: > Sheeva P. schrieb: >> langfristige Datensicherheit ist so eine Sache, > > Kennst du die Geschichte mit den drei Weisen aus dem Morgenland, die > einem hellen Stern folgen? > Auch wenn der Inhalt nicht unbedingt spektakulär ist, ist es doch > erstaunlich, was daraus werden kann. Von dieser Geschichte habe ich schon einmal gehört, glaube ich. Aber beruht die Geschichte dieser Menschen nicht zunächst auf Weitererzählung?
Sheeva P. schrieb: > Von dieser Geschichte habe ich schon einmal gehört, glaube ich. Aber > beruht die Geschichte dieser Menschen nicht zunächst auf > Weitererzählung? Ja, hat sich doch erstaunlich gut erhalten, oder ;)
> Ja, hat sich doch erstaunlich gut erhalten, oder ;)
Haben wir vermutlich Moenchen zu verdanken die damals Buecher
abschreiben mussten um langfristige Datensicherung sicher
zu stellen. Hat aber ein paar unangenehme Nebenwirkungen
weshalb das heute nicht mehr akzeptabel ist.
Vanye
Rbx schrieb: > Ja, hat sich doch erstaunlich gut erhalten, oder ;) In der Bibel sind es Sterndeuter von nicht näher aufgeführter Zahl. Der Rest ist spätere Erfindung und Ausschmückung, die nicht auf Kopisten zurückgeht.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Der > Rest ist spätere Erfindung und Ausschmückung, die nicht auf Kopisten > zurückgeht. Wobei man hier nochmal unterscheiden kann, ob die Ausschmückung Gedächtnisfreundlich verlief oder nicht. Ein Freund von mir hatte mal alte Römertexte bzw. bestimmte Gedichtformen und deren Aufbau/Rhythmik zu dieser Zeit untersucht. Man konnte da schon auch Mnemotechniken vermuten. https://de.wikipedia.org/wiki/Mnemotechnik In einem Text zur Bibelarcheologie kam man zu der Zusammenfassung, dass, je beiläufiger und unauffälliger eine Textstelle in der Bibel ist, desto höher die Wahrscheinlichkeit, etwas zu finden. Darüberhinaus gab es "normale" Texte, oftmals Verwaltungsnotizen auf Steinplatten, ö.ä. und so gibt es auch ein paar brauchbare Sprüche, die schon über 5000 Jahre auf dem Buckel haben. Vanye R. schrieb: > Hat aber ein paar unangenehme Nebenwirkungen Als Kind hatte ich die dunkelste Zeit des Jahres eher als sowas wie ein zweiter Geburtstag empfunden.
(prx) A. K. schrieb: > Der > Rest ist spätere Erfindung und Ausschmückung https://de.wikipedia.org/wiki/Stille_Post
Peter D. schrieb: > https://de.wikipedia.org/wiki/Stille_Post Das bezieht sich auf eine über mehrere Stationen verlaufende mündliche Überlieferung. Die Sterndeuter-Version steht aber in der (Original-) Bibel, also in frühem exakt kopierten Schriftgut. Somit kann es sich nur um eine vorsätzlich aufgeblasene Illustration handeln, die gut ankam und zur Tradition wurde.
:
Bearbeitet durch User
Lu schrieb: > 2. Datenträger vor Benutzung ausreichend testen. Dir ist bewusst, dass das Testen einer Flashkarte diese nicht unbedingt verbessert?
Schlussfolgerung: Immer gleichzeitig zwei aus der gleichen Serie kaufen und eine zum Test vernichten. :))
(prx) A. K. schrieb: > Schlussfolgerung: Immer gleichzeitig zwei aus der gleichen Serie kaufen > und eine zum Test vernichten. Wenn man Dich losschickt, Kirschen zu kaufen ... kommst Du sehr satt und zufrieden zurück ... mit einer einzelnen Kirsche, denn die anderen musstest Du natürlich zur Sicherheit alle "testen". Man weiß ja nie, was die einem andrehen wollen, nicht wahr?
(prx) A. K. schrieb: > Schlussfolgerung: Immer gleichzeitig zwei aus der gleichen Serie kaufen > und eine zum Test vernichten. :)) Nicht vernichten. Die Daten müssen eben vorher runtergezogen werden. Einen Hinweis darauf habe ich z.B. bei meiner Leica-Kamera. Die haben das offenbar getestet und öfters Rückmeldungen von Fotografen in der Richtung.
Heute mal wieder mein Bluray-LW angeklemmt: Schublade fährt nicht mehr aus, lag 2 Jahre im Schrank. Nach einigen Versuchen und Discwechseln wurde die verharzte Schmiere wohl wieder flüssig genug. Mal ein paar alte Discs ausgelesen: DVd+RW/BD-REs: ein Trauerspiel. Beim normalen Kopieren gibts keine Fehler aber die md5's stimmen teilweise nicht. Damals nach dem Brennen gab es keine Fehler, ich führe über jede Disc Buch deshalb weiss ich das. Die DVD+RWs noch in DVD-Laufwerken getestet: das selbe. DVD-RAM war der selbe Schrott, habe ich schon vor Jahren weggeworfen. RW-Medien sind einfach unbrauchbar, schmeisst das Zeug weg wenn ihr es noch habt. R-Medien: alles lesbar, ohne Fehler. Diverse Marken, nicht der allerbilligste Schund ausm Discounter.
> DVD-RAM war der selbe Schrott, habe ich schon vor Jahren weggeworfen. Alle meine DVD-Ram als Type2 (also 4.7GB im Caddy!) sind fehlerfrei. Probleme hatte ich aber in der Tat mit einigen Type4, also 2x4.7GB verklebt. Dort loest sich der Kleber zwischen den beiden Scheiben. Diese Klebeproblematik kann man aber auch oben in dem Paper lesen. Ich habe aber ueberwiegend nur 4.7GB medien. Allerdings waren in Deutschland immer nur diese billigen Scheiben und Laufwerke ohne Huelle/Caddy verbreitet. Also der Consumerscheiss. Daher musste ich mir den Goodstuff immer aus Japan mitbringen. > RW-Medien sind einfach unbrauchbar, schmeisst das Zeug weg wenn ihr es > noch habt. Ehrlich gesagt, dieser Meinung war ich eigentlich auch immer und hab davon immer die Finger gelassen. Wer mal das Ausgangssignal einer CD-RW im Player am Laser mit einer normalen CD oder CD-R verglichen hat weiss wieso. Interessanterweise widerspricht die Seite die ich oben Verlinkt habe dem aber an einer Stelle. Das hat mich auch etwas erstaunt. Vanye
Hier mal ein aktuelles Beispiel, wie Profis (die verwalten $125 Milliarden) das machen
1 | While UniSuper normally has duplication in place in two geographies, |
2 | to ensure that if one service goes down or is lost then it can be |
3 | easily restored, because the fund’s cloud subscription was deleted, |
4 | it caused the deletion across both geographies. |
das kann in der Google Cloud schon mal passieren, deshalb haben Profis ein Backup. Restore hat nur 1 Woche gedauert.
1 | UniSuper was able to eventually restore services because the fund |
2 | had backups in place with another provider. |
http://blog.fefe.de/?ts=98c1bdab
Bauform B. schrieb: > Hier mal ein aktuelles Beispiel, wie Profis (die verwalten $125 > Milliarden) das machen Alles richtig gemacht, was den Kunden angeht. Standort-Replikation für Verfügbarkeit und separater Vertrag für Backup. Eine Woche ist eine verdammt gute Zeit dafür. Mein Mitleid gilt den Admins, die währenddessen wohl nicht viel Schlaf hatten. Sind allerdings Aussie-Dollar, die dampfen bei näherer Betrachtung auf schlappe 85 ein. Ein Pensionsfond hat freilich vergleichsweise geduldige Kundschaft. Wenn das ein Fernsehsender gewesen wäre, der mal eben eine Woche Testbild zeigt oder wenn die Wasserwerke so lange mit Eimern schöpfen müssen...
:
Bearbeitet durch User
K. U. schrieb: > Dir ist bewusst, dass das Testen einer Flashkarte diese nicht unbedingt > verbessert? Naja... einmal vollschreiben um festzustellen wieviel vom Speicher da jetzt "RAM" oder "WROM" sind, ist sicher ganz sinnig. Ansonsten hat die c't schon vor ein paar Jahren ausprobiert, wie viel sie auf eine SSD schreiben können, bevor diese die Grätsche macht. Ich meine mich da an ungefähr ein Jahr dauerhaftes(!) schreiben zu erinnern. Weiß aber auch nicht mehr, ob die zwischendurch auch mal gelesen haben oder sich nur auf SMART verlassen haben. Aber: die Dinger sind in den letzten Jahren nicht schlechter geworden - zumindest wenn man Qualität statt billigst kauft.
Matthias S. schrieb: > Ansonsten hat die c't schon vor ein paar Jahren ausprobiert, wie viel > sie auf eine SSD schreiben können, bevor diese die Grätsche macht. Ich > meine mich da an ungefähr ein Jahr dauerhaftes(!) schreiben zu erinnern. > Weiß aber auch nicht mehr, ob die zwischendurch auch mal gelesen haben > oder sich nur auf SMART verlassen haben. Das Problem ist, Du musst nicht nur lesen, sondern 12 Monate warten und dann lesen. Die Definition von "kaputt" ist, gespeicherte Daten bleiben ohne Wartung weniger als 12 Monate erhalten. Wenn Dir 3 Monate reichen, kannst Du ungefähr 10x soviel reinschreiben wie der Hersteller für die nominale Lebensdauer garantiert. Und wenn Dir zwei Wochen reichen, z.B. für die Cache-Platte beim Videoschnitt, dann sind auch 100x soviele Zyklen möglich.
Stimmt. Ist natürlich zu beachten. Der Verschleiß wird sich sicherlich auch auf die "Haltbarkeit" einen Einfluss haben. Ich glaube aber dass sich bei Matthias S. schrieb: > Naja... einmal vollschreiben um festzustellen wieviel vom Speicher da > jetzt "RAM" oder "WROM" sind, ist sicher ganz sinnig. der Einfluss in vertretbare grenzen Hält. Besser als auf der '1TB' SSD nach 128GB alles in den WROM zu schreiben.
> Aber: die Dinger sind in den letzten Jahren nicht schlechter geworden - > zumindest wenn man Qualität statt billigst kauft. Das scheint auch nicht richtig zu sein. Die c't hat im letzten Test festgestellt das immer mehr Hersteller SSDs mit QLC verwenden und das nach aussen versteckt indem die Teile erstmal SLC (wegen Geschwindigkeit) verwenden und im Hintergrund in den Billospeicher umkopieren. Vanye
Vanye R. schrieb: > Die c't hat im letzten Test festgestellt das immer mehr Hersteller > SSDs mit QLC verwenden und das nach aussen versteckt Riecht nach Verschwörungstheorie. "Verstecken" sollen sie das, und die SSDs als LTC bewerben? Zwar verdient die c't allmählich das Attribut "ehemaliges IT-Magazin", aber so tief sind sie wohl noch nicht gesunken.
Harald K. schrieb: > Riecht nach Verschwörungstheorie. "Verstecken" sollen sie das, und die > SSDs als LTC bewerben? Im Marketing-Sprech heisst dass "SLC-Cache". Die Zellen werden erst einfach belegt, was relativ hohe Schreibraten erlaubt, und im Rahmen des Housekeepings dann im Hintergrund zusammengeschoben. Wenn man das Ding am Stück vollschreibt, z.B. beim TrueCrypt Volume anlegen, dann merkt man halt, dass nach 1/4 der Kapazität die Schreibrate deutlich einbricht.
Soul E. schrieb: > Im Marketing-Sprech heisst dass "SLC-Cache". Ja, aber wenn so ein Begritt auftaucht, ist es doch klar, daß da irgendwo getrickst wird. Die SSD selbst wird nicht mit dem Attribut TLC beworben.
Jede Form von Cache in SSDs und Festplatten ist von den USV-Herstellern gesponsort ;) Freiwillig würde das niemand einbauen oder kaufen wollen.
Bauform B. schrieb: > Jede Form von Cache in SSDs und Festplatten ist von den USV-Herstellern > gesponsort ;) Freiwillig würde das niemand einbauen oder kaufen wollen. Ich versuche gerade mir eine Festplatte OHNE cache vorzustellen. Freiwillig würde ich so etwas nicht haben wollen.
Norbert schrieb: > Ich versuche gerade mir eine Festplatte OHNE cache vorzustellen. Ach, das war mal üblich. Damals, als Festplatten noch gar nichts über Sektoren wussten, sondern genauso dumm waren wie ein Diskettenlaufwerk. Das waren halt MFM- oder RLL-Festplatten, und die Festplatte machte nur das, was ihr der Festplattencontroller sagte. Im Falle des IBM AT war das üblicherweise ein WD1003, der lebt(e) bis vor kurzem in Form der IDE-Register neuerer Festplatten virtuelle weiter. Der war aber halt beschissen langsam, weil er trotz der eh' schon erbärmlich geringen Datenrate, mit der die Festplatten arbeiteten, nicht zwei aufeinanderfolgende Sektoren lesen konnte. Deswegen musste mit "Interleaving" gearbeitet werden, d.h. zwischen zwei aufsteigend numerierten Sektoren waren andere angeordnet, so daß ein Lesevorgang einer kompletten Spur mehrere Umdrehungen der Festplatte erforderte. Das verringerte die effektive Übertragungsrate natürlich noch weiter. Mit dem WD1006 gab es dann den ersten "Cache", das war ein Controller, auf dem ein kleines SRAM untergebracht war, so daß der eine komplette Spur in einem Rutsch lesen (oder auch schreiben) konnte. Das erhöhte die Datenübertragungsrate auf das Maximum von 510 kByte/sec (17 Sektoren à 512 Byte pro Spur bei 3600 Umdrehungen pro Minute). Bei RLL-Festplatten konnten 26 Sektoren pro Spur untergebracht werden, und Controller wie der WD1006SR2 erreichten damit gnadenlose 780 kByte/sec ... Zum Vergleich: Ein DSL-Anschluss mit dieser Geschwindigkeit wird heutzutage als "Holzklasse auf dem Land" betrachtet.
Ja, OK, es musste natürlich Schreib-Cache heißen :(
Das war aber nicht auf einen PC beschraenkt: Meine uVAX II hatte eine RD54 (159MB) Harddisk, angeklemmt via ST506-Interface. Datentransferrate Disk -> Host hatte volle 0.625 MB/s! Dafuer brauchte die Platte beim Seek freundliche 25W elektrische Leistung, die im wesentlich akustisch und thermisch umgesetzt wurde. Ich hatte dann einen Emulex UC08-SCSI-Controller, so dass ich sieben Platten an den Host anschliessen konnte (Natuerlich war nach zwei Geraeten der Bus ausgelastet). Ich konnte aber auch Multi-Initiator machen (zwei Hosts teilen sich den Bus, die Platten sind dann auf beiden Hosts sichtbar, Controller muessen natuerlich verschiedene IDs haben) und unter VMS hat das auch funktioniert (VAXCluster). SCSI-1 hatte natuerlich nur 5MByte/s Busgeschwindigkeit aber war das schon besser als das ST506. Vierzig Jahre spaeter sind natuerlich solche Zeiten/Datenraten laecherlich, aber damals waren wir schon froh ueber solche preisguenstige Geraete.
Thomas W. schrieb: > SCSI-1 hatte natuerlich nur 5MByte/s Busgeschwindigkeit aber war das > schon besser als das ST506. Ich hab' hier noch eine SCSI-Festplatte von 1988 herumliegen. 5.25", volle Bauhöhe (also so hoch wie zwei CD-Laufwerke übereinander). Braucht über 60 Watt, die in erster Linie in Wärme und in zweiter Linie in Krach umgesetzt werden. Muss also, auch wenn sie einfach so auf einem Tisch liegt, aktiv gekühlt werden, sonst mag man sie nicht lange anfassen. Die liefert ihre 750 kByte/sec (muss also intern eine RLL-Platte sein) ... und sie "funktioniert" jetzt noch. Vermutlich; ist schon ein paar Jahre her, daß ich sie das letzte mal getestet habe.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.