Guten Morgen verehrte Community, prima wäre eine durchdachte Backup-Strategie für die ganze Familie. Habe versucht mich dazu hier bzw über google/reddit einzulesen aber selbst nach längerer Recherche sind noch ein paar Fragen offen. Zu den Daten: 1. Prio1 Daten [20GB] (Auch in Papierform/DVD vorrätig) - Überlebensnotwendige Daten/Unterlagen. Erneute Archivierung würde 1-2 Wochen Arbeit beanspruchen. 2. Prio2 Daten [3TB] - Hoher persönlicher Wert (Urlaubs/Einschulungs/Hochzeitsvideos/Familienfotos) 3. Prio3 Daten [15TB] - RAW-Dateien der Spiegel-Reflex bzw. 4k Camcorder, welche sich über die Jahre angesammelt haben Gewünschte Nutzungsmöglichkeiten: 1. Automatisches Backup/Sync von PC/Smartphone 2. Private Cloud - weltweit erreichbar 3. Integrierte Überwachungskameras 4. Alarm bei SMART-Fehlern per E-Mail/SMS 5. Streaming (inkl. Transcodierung) Zum Plan: 1. Haupt-NAS in der eigenen Wohnung: Synology DS920+ mit 4x8TB HDD im RAID5 (24 TB Eff.) 2. Backup-NAS in der Wohnung meiner Schwester: Synology DS220j mit 2x12TB HDD im JBOD (24 TB Eff.) 3. 2x Externe Festplatte jeweils in der Wohnung meiner Eltern/eigene Wohnung: 5 TB 2,5 Zoll HDD im Wasser/Feuer/Strahlungsfesten Stahl-Tresor für Prio1/Prio2 Daten 4. Prio1 Daten liegen auch auf der PC-HDD Geplanter Schadensfall: 1. (Ideal) SMART-Werte verschlechtern sich --> Benachrichtigung per E-Mail/SMS 2. Austausch der defekten Festplatte 3. Rebuild RAID 4. Falls das Rebuild fehlschlagen sollte, Datenrekonstruktion über Backup-NAS Ungeplante Schadensfälle: 1. Ausfall RAID-Controller 2. Software/Update/Virusfehler auf dem NAS 3. Feuerschaden/Wasserschaden/Sturm/Erdbeben 4. EMV-Schockwelle 5. Zombie-Apokalypse Fragen: 1. Inwiefern macht in dieser Konstellation der Aufwand einer regelmäßigen USB-Sicherung auf externen Festplatten überhaupt Sinn, oder besser auf Nummer Sicher gehen, da Murphys-LAW? 2. Besser unterschiedliche NAS-Hersteller nutzen oder gibt es da Kompatibilitätsprobleme? Z.B. Backup-NAS QNAP TS-230 anstatt Synology DS220j, da z.B. die 20er-Reihe von Synology theoretisch einen Serienfehler beinhalten könnte 3. Kommt bei dieser Größe/Empfindlichkeit der (privaten) Daten eine zusätzliche verschlüsselte Cloud-Speicherung überhaupt in Frage (Grüße gehen raus an Snowden)? Klasse ist natürlich auch Input über den Tellerrand hinaus! Vielen Dank
Zu 1. Via USB ist viel zu aufwändig. Nur LAN / WLAN 2. HP Microserver mit TrueNAS Core wäre mein Vorschlag. Bei TrueNAS bist Du alleiniger Herrscher über Dein System. Identische Systeme aufbauen. Kein Hersteller Mix! In TrueNAS ZFS nutzen. Vor dem Konfigurieren von ZFS die Beschreibung genau lesen. Bzgl. Erweiterung FS / Rebuild und Netzwerk Optionen. Verschlüsselung einschalten! 3. Klares Nein.
Nachtrag/Tipp: Sog. Video Harddisks sind für ein NAS erste Wahl. Bspw. Seagate SkyHawk o.ä.
Stefan B. schrieb: > Klasse ist natürlich auch Input über den Tellerrand hinaus! Du vermischst hier heftigste backup und Verfügbarkeit. Das hat nichts mit einander zu tun. Backup: - Nur am Strom es es unbedingt sein muss zum Aktualisieren - Mindestens zwei Medien die abwechselnd genutzt werden (z.B. irgendwas geht während des aktualisierens total schief und original und backup sind hinüber) - Im ideal - Aufbewahrung an einem anderen Ort (z.B. Wohnungsbrand) - Garantiert nicht von irgendwo anderes zugreifbar (der freundliche Hacker von nebenan ist gerne beim unbrauchbar machen der Daten behilflich). Generell hierbei zu überlegen: - Es hilft sich mal zu überlegen was ändert sich von den Daten regelmäßig und muss öfters aktualisiert werden und was sind Archivdaten die sich sowieso nie mehr ändern. Kann den regelmäßigen Aufwand schon um etliches reduzieren. - Wie viele "Generationen" der Daten will man ggf. als Backup auf Lager haben. So ein Virus kann sich bis man es merkt schon eine ganze Zeit im System befinden und dann ist man ggf. froh, wenn auch noch Daten vorrätig hat die schon etwas älter sind und nicht befallen sind. Und ja, diese Form der Sicherheit kostet Geld in Form von Arbeit und Hardware... Verfügbarkeit: - RAID-Controller um bei dem Ausfall einer Platte noch weiter arbeiten zu können und sonst nichts! Ein Fehler der dir die Partition zerschießt oder ein Virus usw. und alles ist hinüber. Es reduziert aber gelegentlich die Wahrscheinlichkeit das man das Backup einspielen muss blos weil eine Platte einen Hardwaredefekt hat - aber es gibt mehr als genug fälle wo es eben nicht von Datenverlust schütz (Ein RAID ersetzt keine Backup!) - Zentrale Datenablage für mehrere Nutzer (das dürfte die Hauptanwendung für eine NAS sein). - Fernzugriffe: Da sollte man sich arg gut überlegen ob das wirklich. Nur Daten auf die keine Physikalischer Zugriff besteht sind halbwegs sicher. Ggf. kann es hier durchaus sinnvoll sein zwei Wege zu gehen je nach Daten. Gerade wenn du Gewerblich unterwegs bist solltest du eher doppelt vorsichtig sein als irgendwas unnötig per Fernzugriff freizugeben (noch übler wird das Thema Kundendaten und so wenn du die auch noch unzureichend geschützt auf fremden Servern lagerst). Ein Randthema hierbei sind auch noch Aufbewahrungsfristen, du darfst einige garnicht "ewig" lagern... Wenn es nur für Privat ist hast du zwar die Probleme mit dem Datenschutz nicht so extrem, aber da würde ich freiwillig niemals was für Fernzugriff freigeben. - usw.
Beitrag #6573137 wurde von einem Moderator gelöscht.
heftiger plan. Vermutlich macht der erste verschlüsselungstrojaner alles auf einmal kaputt?
Flip B. schrieb: > heftiger plan. Vermutlich macht der erste verschlüsselungstrojaner > alles auf einmal kaputt? Nur wenn er es über N Snapshots nicht bemerkt..
hier gibt es nur eine Lösung: wer "den Computer beigebracht" bekommt, wird sofort auch für ein selbstständiges Backup angelernt. Ich war ehemals so dumm und hatte Mutterns Bilder einer Reise mit ein eines meiner Backups aufgenommen. Aus dem Drama, das sich durch das Fehlen von nur ein paar der ca 200 Bilder ergab, reifte der Entschluss NIE WIEDER für Daten als für die eigenen Zuständig zu sein. Der Fehler lag letztlich darin, dass vorher fest behauptet wurde, dass im "Bilder-Ordner" alle drin wären. Erst nach einem langwierigen Auslesen der defekten Platte kamen die restlichen Bilder in einem gänzlich anderen Unterorder zutage
Stefan B. schrieb: > Guten Morgen verehrte Community, > > prima wäre eine durchdachte Backup-Strategie für die ganze Familie. Habe > versucht mich dazu hier bzw über google/reddit einzulesen aber selbst > nach längerer Recherche sind noch ein paar Fragen offen. > > Zu den Daten: > 1. Prio1 Daten [20GB] (Auch in Papierform/DVD vorrätig) - > Überlebensnotwendige Daten/Unterlagen. Erneute Archivierung würde 1-2 > Wochen Arbeit beanspruchen. > 2. Prio2 Daten [3TB] - Hoher persönlicher Wert > (Urlaubs/Einschulungs/Hochzeitsvideos/Familienfotos) > 3. Prio3 Daten [15TB] - RAW-Dateien der Spiegel-Reflex bzw. 4k > Camcorder, welche sich über die Jahre angesammelt haben > Ohhhh, tu Matsch Prosa!
Stefan B. schrieb: > prima wäre eine durchdachte Backup-Strategie für die ganze Familie. Ich würde das erstmal eruieren, ob auch alle damit einverstanden sind, ihre privaten Daten öffentlich zu machen. Und falls ja, muß man sich was für die Smartphones einfallen lassen, denn die werden ja die hauptsächlichen Datenquellen sein. Stefan B. schrieb: > 3. Prio3 Daten [15TB] - RAW-Dateien der Spiegel-Reflex bzw. 4k > Camcorder, welche sich über die Jahre angesammelt haben Man kann die Datensammelwut auch übertreiben. Alles, was nicht zeitnah bearbeitet wurde, schaut sich auch nie wieder jemand an. Wichtig ist eine übersichtliche Sortierung, damit man auch was wiederfindet.
Habe gerade unseres geschaeft mittels Synology NAS ausgestattet. Die backupsoftware von Synology (Active Backup for Business / Hyperbackup) funktioniert prima und professionel (nicht sicher ob die an DS220j lauft; selber checken). Dabei werden auch bare-metal backups von 50 PCs gemacht. License ist einbegriffen beim kaufen der Synology. Bottleneck bei unseres geschaeft : Internet geschwindigkeit. Kein fibre vorhanden und kein 5G. Maximalgeschwindigkeit fuer UPLOAD max 5MByte/s (meistens 10% von DOWNLOAD). Pro tag ist das also weniger also ~1TB. Die Synology devices unterstuzen mehrere RAID combinationen; wir benutzen meistens SHR. Mehr docu auf Synology website, sowie auch wie man sich schuetzen kann gegen Randomware und verschluesselte backups im Cloud. Grusz Patrick aus die Niederlaende.
Peter D. schrieb: > Man kann die Datensammelwut auch übertreiben. Alles, was nicht zeitnah > bearbeitet wurde, schaut sich auch nie wieder jemand an. Ja. Meist ist man froh, wenn die 5 TB der 7ten Asienreise unwiederbringlich verloren sind. Im RL zeigen Wohnung oder Haus die natürliche Grenze zu Messi oder Hochregallager. Digital bekommt man jährlich einen Container in den der bisherige Kram und nochmal soviel neuer reinpasst.
Hallo & tausend Dank an Alle! Gerne würde ich jedem persönlich eine Antwort posten, falls das hier erlaubt ist. @OldMan zu 1. Genau mein Gedanke. Also eher eine USB-HDD an der NAS betreiben und diese dann halbjährlich mit der Tresor-HDD spiegeln. 2. Der Tipp war eine Recherche wert! Habe mich dann für ein reines Synology-Setup entschieden 3. Also bin ich doch nicht paranoid :-) zu den HDDs: Obwohl sich da die Meinungen teilen (insbesondere zum Rebuild), setze ich auf HDDs unterschiedlicher Hersteller.
Überspringe die ersten vier Punkte und nimm das... Stefan B. schrieb: > 5. Zombie-Apokalypse ...als wahrscheinlichstes Szenario. Einfach auch zum Zombie werden, dann sind die Daten auch nicht mehr wichtig ;) (SCNR) Irgend W. schrieb: > Du vermischst hier heftigste backup und Verfügbarkeit. Exakt. Zurück auf null.
Stefan B. schrieb: > zu den HDDs: Obwohl sich da die Meinungen teilen (insbesondere zum > Rebuild), setze ich auf HDDs unterschiedlicher Hersteller. ist auch richtig, nennt sich common cause failure (den es zu vermeiden gilt)
Stefan B. schrieb: > @OldMan > zu > 1. Genau mein Gedanke. Also eher eine USB-HDD an der NAS betreiben und > diese dann halbjährlich mit der Tresor-HDD spiegeln. Nein. An das NAS gehören ordentliche NAS SATA oder SAS Platten. Die Backups kannst du dann auf Festplatten über USB machen. Die wichtigen 1. Prio1 Daten würde ich zusätzlich noch auf optische Datenträger wegsichern. Das sind nur 20 GB, da geht das via M-Disc, BluRay oder DVD-RAM ganz gut. Grund: Deine Anforderung bezüglich EMP Schutz. Eine Festplatte kann da kaputt gehen. Bei optischen Datenträgern geht nur das Laufwerk kaputt, nicht aber die Daten auf den Medien. Beachte allerdings, dass du bei optischen Datenträger ordentliche Datenträger aus nicht organischem Material benötigst. Ebenso brauchst du mindestens 2 verschiedene Laufwerke verschiedener Hersteller, die du abwechselnd zum Lesen und Schreiben nutzt und dann musst du mit dem anderen Laufwerk die Daten überprüfen, ob dieses die Daten überhaupt lesen kann. Denn Datenträger, die an ein bestimmtes Laufwerk gebunden sind, also mit denen man sie beschrieben hat, führen zu keinem EMP Schutz. Zudem kann es noch Sinn machen PAR2 zu verwenden: https://de.wikipedia.org/wiki/PAR2 Bezüglich Wasserschaden. Wenn du das NAS im Keller aufstellst, dann achte darauf, dass du es möglichst in Deckennähe aufstellst bzw. hinhängst. 1 m Abstand zum Fußboden wäre das minimum, aber das kann lokal ganz unterschiedlich sein. Wenn du neben einem Fluss im Tal wohnst, würde ich das NAS besser im Dachboden platzieren. > 2. Der Tipp war eine Recherche wert! Habe mich dann für ein reines > Synology-Setup entschieden Deine Wahl war: https://www.youtube.com/watch?v=VA7J0KkanzM Ich schließe mich Oldman an. TrueNAS mit ECC RAM, dank ZFS kein Bit Rotting. Dazu ordentliche Serverhardware von Supermicro. > zu den HDDs: Obwohl sich da die Meinungen teilen (insbesondere zum > Rebuild), setze ich auf HDDs unterschiedlicher Hersteller. Nein, beim NAS sollte man die gleichen HDs verbauen. Allerdings macht es Sinn, sie aus unterschiedlichen Chargen zu nehmen. Lösung: Festplatten bei verschiedenen Händlern bestellen. Ich habe in meinem NAS bspw. 6 x 4 TB Platten. 3 Platten habe ich bei Händler A, 3 weitere bei Händler B gekauft. Somit sind die Chargen unterschiedlich, aber die Platten Typgleich. Und Natürlich sollten sie NAS taugliche Platten sein. Z.B. "WD RED Plus". Das Plus ist wichtig, nur RED würde ich nicht nehmen. Noch ein Tipp, beim Händler CSV Computer habe ich nur schlechte Erfahrungen gemacht. Insbesondere im Bezug auf Festplatten und Gewährleistung. Ja, das ist einer der Händler, der bei mir versucht hat, mich zu einer Garantieabwicklung beim Hersteller zu bewegen, anstatt, dass er seinen Gewährleistungspflichten nachkommt und die Platten einfach umtauscht. Bei mir hat er die Note 6. Bei Mindfactory habe ich ebenfalls schlechte Erfahrungen gesammelt. Kann ich also auch nicht empfehlen. Bei Backupfestplatten ist es egal, ob du verschiedene Hersteller nimmst. Wichtig ist da nur, dass du hinterher nach dem beschreiben die Daten auch verifzieren, also lesen solltest. Außerdem sollte man mehrere Backups haben. Mindestens 2 und dann noch weitere aus unterschiedlichen Zeiten.
Hallo Irgend W., das sind gute Gedanken, Danke dafür. Ein RAID ist kein Backup, korrekt. RAID5 wollte ich nutzen um die Wahrscheinlichkeit zu erhöhen unkompliziert das Ursprungssystem wiederherzustellen. Generationenbackup kannte ich bis jetzt noch nicht aber klingt sehr vernünftig. Tägliches, inkrementelles Backup auf die zwei NAS sollte schon sein, wobei die Verfügbarkeit nicht im Vordergrund steht. Selbst wenn die Daten für 2-3 Tage out of order wären, ist das kein Beinbruch. Das ein Fernzugriff genauso kritisch betrachtet wird, wie cloudbasierende Lösungen (muss ja nur der Schlüssel bekannt sein) gibt zu denken und sollte wohl aufs Notwendigste reduziert sein. Bin da ganz bei deinem Standpunkt.
Hallo Des I., das ist bedauerlich. Denke aber es kann nicht verkehrt sein eine richtige Backup-Mentalität vorzuleben und betroffene Personen etwas an der Hand zu nehmen, da die Foren voll sind von Katastrophen in denen mit oder ohne NAS auf einmal wichtige/private Daten weg sind. Letztendlich sollte jeder (Familien)User seine eigene, verschlüsselte "NAS-Cloud" haben (auf die ich ebenfalls kein Zugriff habe), auf die automatisiert die Fotos/Videos/Kontakte vom Handy und das Backup vom PC gesynct werden. Natürlich gibt es auch ein Familienordner mit Fotos/Momente usw. für alle.
Stefan B. schrieb: > Genau mein Gedanke. Also eher eine USB-HDD an der NAS betreiben und > diese dann halbjährlich mit der Tresor-HDD spiegeln. Ich hatte genau das Gegenteil geschrieben! Kein Datenaustausch über USB Festplatten! Hättest Du dich nur mal ansatzweise mit TrueNAS und vor allem mit dem ZFS beschäftigt, dann hättest Du erkennen können, dass Du keine Festplatten durch die Landschaft tragen musst. Der Server im Tresor muss selbstverständlich via LAN erreichbar sein, sonst bringt das alles nix. Meine persönliche Meinung: Synology oder wie sie sich sonst nennen, sind nur Klickybunti "Systeme" denen ich nie meine Daten anvertrauen würde. Das ist Spielzeug.
Hallo Patrick C., Software/Lizenzen waren auch ein gewichtiger Grund für die Entscheidung von Synology Geräten. Vielen Dank für das Schlüsselwort SHR/Randomware, werde mich einlesen. Cloud sehe ich leider doch etwas kritisch/konservativ, wenngleich preislich sehr attraktiv (6TB für 60€/Jahr von Microsoft) Viele Grüße in die Niederlande!
Hallo Peter D, hallo A.S., Redundanz sollte natürlich vermieden werden (7te ausführlichst dokumentierte Asienreise). Jedoch ist der Gedanke schön Erinnerungen wie die ersten Schritte, das erste Fußballspiel, die erste eigene Wohnung der Kinder usw. zu behalten und den nächsten Generationen weitergeben zu können. Was würde ich dafür tun diesbezüglich Einblicke in das Leben meiner Großeltern/Urgroßeltern usw. zu haben. Spannender als jeder 0815-Tatort.
OldMan schrieb: > Synology oder wie sie sich sonst nennen, sind nur Klickybunti "Systeme" > denen ich nie meine Daten anvertrauen würde. Das ist Spielzeug. Egal wo du deine Daten versteckst, ich werde sie dir rauben!
Hallo Nano, vielen Dank für deinen produktiven Input, war sehr interessant zu lesen! Werde in jedem Fall BlueRay-Discs zusätzlich in den Stahl-Tresor packen und diese regelmäßig erneuern. Verkehrt kann das nicht sein. Deine zusätzlichen Informationen zu zwei verschiedenen Laufwerken usw. sind mir neu aber werde ich ebenfalls beherzigen. Spricht denn etwas (außer Diebstahl) dagegen das NAS im Wohnzimmer aufzustellen, um den Problemen wie Feuchtigkeit (Keller) und Temperaturdifferenzen (Dachboden) zu umgehen und ein konstantes Umfeld für das NAS zu schaffen? Das verlinkte Video lässt einen schmunzeln. Die Begriffe ZFS bzw Bit Rotting waren mir leider gänzlich neu aber bei allem was man dazu ließt klingt das genial und scheint längerfristig die einzig sinnvolle Option zu sein. Welcher Grund würde denn gegen Festplatten gleicher Größe von unterschiedlichen Herstellern sprechen? Dass die langsamste HDD der Flaschenhals für den ganzen Verbund darstellt, kann man verschmerzen. Falls ich das nicht falsch verstanden habe, geht es in diesem Punkt vorrangig um das waghalsige Rebuild?! Um die Beanspruchung der Platten beim Rebuild niedrig zu halten, würde ich die Schreibgeschwindigkeit reduzieren. Werde wohl mittelfristig bei Synology bleiben, da gewisse Vorteile aktuell überwiegen (hoffentlich wird das nicht die Achillessehne sein) aber trotzdem Danke für deine wichtigen Hinweise zu optischen Medien und der Notwendigkeit zweier Backups von unterschiedlichen Generationen. Sehe ich ebenfalls als must-have an!
Stefan B. schrieb: > Das ein Fernzugriff genauso kritisch betrachtet wird, wie > cloudbasierende Lösungen (muss ja nur der Schlüssel bekannt sein) gibt > zu denken und sollte wohl aufs Notwendigste reduziert sein. Völlige Paranoia. Entweder man geht davon aus, das Verfahren wie VPN ausreichend sicher sind, oder man trennt die Geräte und das Netz die Zugriff auf die Daten haben völlig vom Internet ab.
OldMan schrieb: > Stefan B. schrieb: >> Genau mein Gedanke. Also eher eine USB-HDD an der NAS betreiben und >> diese dann halbjährlich mit der Tresor-HDD spiegeln. > > Ich hatte genau das Gegenteil geschrieben! > Kein Datenaustausch über USB Festplatten! > > Hättest Du dich nur mal ansatzweise mit TrueNAS und vor allem mit dem > ZFS beschäftigt, dann hättest Du erkennen können, dass Du keine > Festplatten durch die Landschaft tragen musst. Der Server im Tresor muss > selbstverständlich via LAN erreichbar sein, sonst bringt das alles nix. > Meine persönliche Meinung: > Synology oder wie sie sich sonst nennen, sind nur Klickybunti "Systeme" > denen ich nie meine Daten anvertrauen würde. Das ist Spielzeug. Hallo Oldman, danke das du dich nochmal zu Wort gemeldet hast. Die Hinweise von dir und Nano zu TrueNAS/ZFS/Bit Rotting sind wahrscheinlich in diesem Thread mit die Wichtigsten, wenn man es richtig machen möchte. Der Tresor für die (Notfall) HDD ist Strahlungs/Wasser/Feuerbeständig, weshalb leider keine Möglichkeit besteht eine (W)LAN-Verbindung dazu herzustellen. Zugegebenermaßen sind Synology usw. Klickybunti "Systeme" und in gewisser Weise auch Spielzeug (wenngleich auch sehr schönes Spielzeug) aber lass mir dir bitte gesagt sein, dass deine Daten niemals sicher sind. Datenraub würde bedeuten, dass private Fotos/Alben, archivierte Dokumente (Fahrzeugbrief/Versicherungsscheine/usw) in den Händen eines Anderen sind, was für den Dieb in unserem Fall keinen wirtschaftlichen Vorteil mit sich bringen würde uns somit obsolet ist. Hier dreht es sich Gott sei Dank nicht um brisante Geschäftsdaten, sonst wäre ich wohl ganz paranoid.
Karl schrieb: > Stefan B. schrieb: >> Das ein Fernzugriff genauso kritisch betrachtet wird, wie >> cloudbasierende Lösungen (muss ja nur der Schlüssel bekannt sein) gibt >> zu denken und sollte wohl aufs Notwendigste reduziert sein. > > Völlige Paranoia. Entweder man geht davon aus, das Verfahren wie VPN > ausreichend sicher sind, oder man trennt die Geräte und das Netz die > Zugriff auf die Daten haben völlig vom Internet ab. Wie darf man das verstehen? Naiv gedacht: Wenn mein gesamter Datenbestand verschlüsselt auf einer Cloud liegt, fehlt nur noch der Schlüssel um an die Daten zu kommen. Liegen die Daten verschlüsselt auf meinem NAS, so fehlt nicht nur der Schlüssel dazu, sondern der gesamte Datenbestand müsste zunächst einmal übertragen werden. Ist das nicht ein großer Unterschied, was die Datensicherheit angeht?
Stefan B. schrieb: > Spricht denn etwas (außer Diebstahl) dagegen das NAS im Wohnzimmer > aufzustellen, um den Problemen wie Feuchtigkeit (Keller) und > Temperaturdifferenzen (Dachboden) zu umgehen und ein konstantes Umfeld > für das NAS zu schaffen? Nein, du kannst das NAS natürlich auch im Wohnzimmer aufstellen. Wenn es Lüfter haben sollte, achte darauf, dass sie leise sind. Die Küche sollte allerdings vom Wohnzimmer räumlich getrennt sein, denn das Fett von der Bratpfanne willst du beim Braten nicht in den Lüftern deiner NAS im Wohnzimmer haben. Bezüglich Diebstahl habe ich noch einen wichtigen Punkt vergessen. Du hast ja erwähnt, dass du es auch für integrierte Überwachungskameras nutzen möchtest. Beachte hierbei bitte, dass professionelle Einbrecher die Datenträger deines NAS dann mitnehmen oder zerstören werden um möglichst nur wenig Spuren zu hinterlassen. Insofern macht es Sinn, das NAS ausreichend gut mechanisch zu sichern, so dass ein zeitlicher Aufwand notwendig ist, um an die Datenträger zu kommen. Ein NAS in einem Tresor ist somit eine gute Wahl, sofern das NAS darin ausreichend gekühlt werden kann. Notfalls müssen eben Lüftungsschlitze rein. Ein Einbrecher würde dann vielleicht Wasser in die Schlitze laufen lassen, die Datenträger sollten dann positioniert sein, dass da kein Wasser hinkommen kann. Ebenso sollte der Tresor im Boden oder mit der Wand verankert sein. > Das verlinkte Video lässt einen schmunzeln. :) > Die Begriffe ZFS bzw Bit > Rotting waren mir leider gänzlich neu aber bei allem was man dazu ließt > klingt das genial und scheint längerfristig die einzig sinnvolle Option > zu sein. Ja, ZFS ist hier eines der wenigen Dateisysteme, dass dagegen immun ist. Zu Bit Rot findest du in der Wikipedia noch etwas: https://en.wikipedia.org/wiki/Data_degradation > Welcher Grund würde denn gegen Festplatten gleicher Größe von > unterschiedlichen Herstellern sprechen? RAID Du willst ja die Daten sicher irgendwie spiegeln oder bei RAID 5 mit einer weiteren Platten Integritätsdaten erhalten, so dass du bei Ausfall einer Platte die Daten rekonstruieren kannst. Wenn die Platten sich technisch groß unterscheiden, dann arbeiten die auch nicht besonders gut zusammen. Das fängt schon bei der unterschiedlichen Schreib- und Lesegeschwindigkeit an, oder der Cache Größe. Deswegen würde ich da nur baugleiche Platten verbauen. Besonders schlimm dürfte sich das dann beim Rebuild auswirken, also wenn eine Platte kaputt ist und nun die Daten wieder auf eine neue Platte redundant gespeichert werden soll. Beim Rebuild ist die Chance übrigens am größten, dass dir dann gleich auch noch die andere Platte ausfällt. Wenn du also auf Nummer sicher gehen willst, dann solltest du besser RAID 6 verwenden, wo dann noch bis zu zwei Platten ausfallen können. > Dass die langsamste HDD der > Flaschenhals für den ganzen Verbund darstellt, kann man verschmerzen. > Falls ich das nicht falsch verstanden habe, geht es in diesem Punkt > vorrangig um das waghalsige Rebuild?! Um die Beanspruchung der Platten > beim Rebuild niedrig zu halten, würde ich die Schreibgeschwindigkeit > reduzieren. Bei Festplatten sind der häufige Wechsel des Schreib- und Lesekopf das Problem, beim Rebuild wird die Platte diesbezüglich besonders stark beansprucht. Falls du auf deine 3. Prio3 Daten verzichten könntest, wären aber SSDs eine noch mögliche Option. Denn nur 3 TB sollte man mit denen durchaus bezahlbar noch sichern können. Die haben den Vorteil, das sie etwas robuster sind. > Werde wohl mittelfristig bei Synology bleiben, da gewisse Vorteile > aktuell überwiegen (hoffentlich wird das nicht die Achillessehne sein) Mit TrueNAS kannst du ebenfalls, außer der reinen Datenspeicherung und NAS Nutzung, weitere Dienste laufen lassen und nutzen. Hier gibt's einen Überblick: https://www.truenas.com/plugins/ Ein großer Vorteil ist aber, dass die CPU dann auch dafür viel mehr Leistung haben wird. Außerdem ist es viel leichter mehr Datenträger anzuschließen. So ein Supermicro Mainboard kommt bspw. mit 6-8 SATA Anschlüsse. Ein Synologygerät, wo man 6 bis 8 Platten anschließen kann, wird dagegen richtig teuer.
Stefan B. schrieb: > Wie darf man das verstehen? Naiv gedacht: Wenn mein gesamter > Datenbestand verschlüsselt auf einer Cloud liegt, fehlt nur noch der > Schlüssel um an die Daten zu kommen. > > Liegen die Daten verschlüsselt auf meinem NAS, so fehlt nicht nur der > Schlüssel dazu, sondern der gesamte Datenbestand müsste zunächst einmal > übertragen werden. a) der Coludanbieter hat auch noch ein paar Sicherheitsmechanismen um den Zugriff durch 3 zu unterbinden. b) Wenn man dem Cloudanbieter nicht vertraut, kann man kann man genauso dem Anbierter des Betriebssystem mistrauen. c) Wenn jemand die Ressourcen hat den Schlüssel zu knacken und auf deine Daten aus ist, wird er Sie sich hohlen, ich würde deine Urlaubsfotos aber nicht für so wichtig halten. d) Die Datenübertragung kann im Hintergrund laufen, ohne dass du es merkst. > Ist das nicht ein großer Unterschied, was die Datensicherheit angeht? Kein Unterschied, siehe oben. Außerdem weiß Google durch deine Suchanfragen mehr über dich, als wenn sie deine Urlaubsfotos auswerten würden.
Der Haken an kommerziellen Cloudanbietern ist im Wesentlichen, dass sie Geld kosten, wenn man größere Datenmengen speichern will. Bei Firmendaten kommen noch so Sachen wie DSGVO hinzu, aber die kriegen eh keine kostenlosen Cloud Dienste, da kostet es immer. Mit deinem NAS kannst du natürlich auch deinen eigene Cloud machen und über deine langsame Internetleitung nach draußen anbieten. Bei TrueNAS gibt's dafür das Plugin NextCloud, dann hat man ne Oberfläche wie bei jedem anderen Cloudanbieter auch. Siehe: https://nextcloud.com/ Der Haken ist allerdings, dass die eigene Internetleitung in der Regel nicht sehr schnell ist und auch keine großen Uploadraten erlaubt. Wenn du also Fotos mit deiner alten Schulklasse teilen willst, dann wird das über deine eigene Cloud sehr langsam gehen, weil die Uploadrate einfach viel zu schlecht ist. Das gilt erst Recht für Deutschland, es sei denn du hast einen Glasfaseranschluss, dann kann der natürlich etwas höher sein. Der andere Haken ist, dass du dich um die Sicherheit selber kümmern musst. In deinem Router kannst du einen Port, der den Zugriff auf das Nextcloud Webinterface erlaubt, weiterleiten. Mit TrueNAS ist man hier auch sehr flexibel, weil man bspw. in das eigene NAS eine weitere Netzwerkkarte einbauen könnte, diese in ein eigenes vLAN stopfen könnte, dann Firewallregeln anlegen könnte, die alles sperrt, bis auf den Zugriff auf die NextCloud Software bzw. den Webserver dafür und auf dem Router macht man dann für diese eine NIC eine DMZ. Und schon hat man das recht sauber getrennt und halbwegs brauchbar abgeschottet. Viele Supermicro Mainboards kommen zudem noch gleich mit 2 NICs, da kann man das gleich umsetzen. Allerdings ist bei Intel NICs wegen der Intel Mangement Engine Vorsicht angesagt, wenn die CPU das supported. Da macht dann eine separate PCIe NIC mehr Sinn. Und dennoch bleibt trotz Firewall und Begrenzung auf die allernötigsten Dienste, die nach außen weitergeleitet werden, ein Restrisiko, wenn man das NAS ins Internet hängt. Software kann nämlich Sicherheitslücken haben. Angefangen bei 0Day Sicherheitslücken bis hin zur Wartezeit bis es Patches gibt und die auf das System drauf kommen. Und da man sein eigenes NAS nicht rund um die Uhr supporten kann, ist man hier gegenüber professionellen Clouds im Nachteil. Die achten 24 h auf die Server und haben dafür halt entsprechend viele Admins eingestellt, die dann im Schichtdienst arbeiten.
Stefan B. schrieb: > Redundanz sollte natürlich vermieden werden (7te ausführlichst > dokumentierte Asienreise). Jedoch ist der Gedanke schön Erinnerungen wie > die ersten Schritte, das erste Fußballspiel, die erste eigene Wohnung > der Kinder usw. zu behalten und den nächsten Generationen weitergeben zu > können. Was würde ich dafür tun diesbezüglich Einblicke in das Leben > meiner Großeltern/Urgroßeltern usw. zu haben. Spannender als jeder > 0815-Tatort. Das Verstehe ich nur zu gut. Nur leider überschreitet man sehr schnell einen Punkt, wo das ganze nur noch Last ist. 1h Super 8, oder 10h oder auch 20h, da freut sich jeder. 100h, da guckt man ein paar Szenen an und packt den Rest in die Kiste zurück. Und entsorgt sie irgendwann, wenn es nicht zerbröselt. Bei Kindern macht man ja den Jahreskalender mit je einem Foto pro Monat des Vorjahres. Da sitzt Du im ersten Jahr und möchtest jeden Monat 100 auswählen. Aber auch dort lieber eines (oder eine ganz kleine Collage). Wenn die Kinder 20 sind, hast Du 240 Fotos und kannst aus denen die besten 10 für eine Hochzeitszeitung oder so zusammenstellen. Ich glaube viel wichtiger als die Masse ist es, die Fotos auch irgendwie "ankern" zu können, also sie mehrfach mal zu sehen. Und die wenigen dann gerne auch archivieren.
Hm, 1) Externer Zugriff würde ich mir sehr, sehr, sehr genau überlegen, es gibt immer wieder Sicherheitslücken, auch in der besten Software. Im besten Fall gibt es Updates, im schlechtsten Fall ist das Produkt EOL und dann heist es neukaufen. Dies trifft vor allem auf fertige NAS-Lösungen zu. Im Endeffekt läufst du immer hinterher. 2) Moderne Festplatten ab ca. 8TB haben fast alle eine Heliumfüllung, die hält nicht ewig, weil das Helium sich verflüchtigt! Also eigentlich ein eingebautes Verfallsdatum! Wenn man nur die Netto-Kapazität nachkaufen müsste, wäre das ansich ok, wenn aber Redundanz im Spiel ist wird es schnell teuer! 3) Ich würde keine fertige NAS-Lösung nehmen, zum einen wegen Möglicher Sicherheitslücken und eingestellten Support, zum anderen kann es sein, das die Platten in irgendeinen komischen inkompatiblen Format formatiert werden! 4) Aufzeichnungsverfahren der Festplatten beachten! Bei SMR, werden die Daten überlappend gespeichert, was die Kapazität erhöht, allerdings muss immer der gesamte Block neu geschreiben werden, was die Sache ziemlich ausbremst, bzw. es gibt auch Fälle in denen die Platte aus dem Raid fliegt, weil diese zu lange braucht. (CMR sollte es sein) 5) Platten aus unterschiedlichen Chargen kaufen, oder verschiedenen Herstellern. Achtung aktuell gibt es nur noch 3 Hersteller Weltweit. WD, Seagate und Toshiba. 6) Achte auf den Versand, wenn die Platte nicht stoßsicher verpackt versendet wird, reklamieren und Verkäufer meiden. Amazon ist hier grenzwertig, am besten Retail Ware kaufen, hier gibt es einen schicken Umkarton vom Hersteller. Bulk kommt auf der Palette. Hier kann man zwar nicht verhindern, was beim Versender intern geschieht, aber wer eine Festplatte mit einen Streifen Packpapier in einen Riesenkarton steckt, wird hier intern bestimmt nicht aufpassen. 7) Testen, Testen, Testen! D.h. Raid erstellen, Testdaten drauf, dann Platte austauschen und Rebuild versuchen. Fein ist auch ein Raid-Set in einer anderen Maschine versuchen einzubinden.
Die Verschlüsselung finde ich sehr wichtig. Zur Verschlüsselung verwende ich LUKS und darin ext4. Werde auch den Heimserver umstellen, denn wenn ein Dieb den stiehlt... Ein AMD Athlon X2 64 mit ca. 2,3GHZ ist als Serverprozessor hinreichend leistungsfähig, doch mit Verschlüsselung der Zielplatte dauert es viele Stunden länger. Ein i5 3570 ist da schon deutlich schneller. Ich transportiere die Backupplatten in einen entfernten Haushalt. In der Firma verwenden wir AES-256-verschlüsselte LTO-8-Tapes; das Drive verschlüsselt. Die Tapes sind leicht zu transportieren und im Safe belegen sie kaum Platz. SW ist die amanada. Die Daten werden über das Netz vom NAS geholt, über 2er-Bond. Wie es scheint, müssen wir noch den Host anpassen an den Datenhunger des LTO. Also kostspielige Lösung. Das beste backup nutzt nur, wenn es seine Restore-Fähigkeit bewiesen hat. Eine Bedienungsanleitung für Admin und Co-Admin sollte vorliegen. In Papier und auf dem Smartphone. Disaster Recovery: falls der Backupserver abraucht mitsamt allen spezifischen Schnittstellen - der Neuaufbau muss zum Backupmedium passen.
Thomas B. schrieb: > der Neuaufbau muss zum Backupmedium passen. Das heißt auch, dass in einigen Jahren noch ein altes Backup ausgegraben werden könnte, falls sich in der Zwischenzeit FEHLER in die Daten eingeschlichen haben sollten. Dateien nicht einfach kopieren, sondern sichern mit Originaldatum! An sicherem Ort lagern. Immobiliendaten müssen z.B.100 Jahre archiviert werden ... Viel Spaß mit exotischen Lösungen! Neue Platten sollte man (mit "etwas" Geduld) vor der ernsthaften Benutzung schon mal vollgeschrieben haben (z.B. mit H2testw). Oft kam das "dicke Ende" erst, wenn die Platte fast voll war, weil dort die Spuren kürzer sind. Außerdem gibt es bei Ausfällen die berüchtigte "Badewannenkurve" bestehend aus Frühausfällen und Alterserscheinungen.
Hallo Stefan B. schrieb: > Letztendlich sollte jeder (Familien)User seine eigene, verschlüsselte > "NAS-Cloud" haben (auf die ich ebenfalls kein Zugriff habe), auf die > automatisiert die Fotos/Videos/Kontakte vom Handy und das Backup vom PC > gesynct werden. Natürlich gibt es auch ein Familienordner mit > Fotos/Momente usw. für alle. Eigentlich hast du recht... Aber wie man auch in diesen Forum hier sieht (aber auch in "1000" anderen) haben selbst wir "Nerds" und so manche Profis immer wieder Fragen zur Datensicherung und zur jeweils richtigen Backupstartegie, es werden sich viele Gedanken gemacht und es ist schon ein größerer Wissenserwerb mit doch recht steiler Lernkurve erforderlich. Und das sollen dann alle Familienmitglieder wenigstens ansatzweise auch beherrschen? Schon mit der reinen Nutzung und "Pflege" sind viele überfordert bzw. du bist dann letztendlich schuldig wenn sie keine Ordnung halten und irgendwas doch verloren geht oder auch nur nicht da ist wo es schon "immer" war... - da gibt es keinen Familienbonus (zusätzlich hat der ganze "Kram" auch noch viel Geld gekostet und du hast da ja über Tage dran rumgehangen also muss es doch funktionieren...) Illusorisch - letztendlich ist man doch wieder der "Trottel" wenn was verloren geht oder nicht funktioniert, man ist ja der "Administrator" der kommt doch immer und auf jeden Fall an die Daten heran und hat immer Zeit, ist natürlich "allwissend" und immer motiviert... Zusätzlich (trotz 2021 und "neue" universelle Rollenverteilung) darfst du dann neben den defekten Schalter, den Tropfenden Wasserhahn oder den "Hilfslehrer" der selbst der "Generation Internet" zeigen muss wie man im Netz sucht und Quellen vernünftig auswertet halt noch den Datensicherungsspezialist und die Familieninternen "allwissende" Müllhalde spielen ("Der Computer und Netzwerkspezialist"). Dabei verliert man nur (auch oder sogar gerade in der Kernfamilie) - denn ist man gut wächst die "Familie" sehr schnell an geht irgendwas daneben und das ewig gleiche 100fach geknipste "wertvolle" Bild der Einschulung ( weder meine noch deine Kinder sind so einzigartig - sein wir doch mal ehrlich) geht verloren bist natürlich nur du (und der teure Kram von den alle anderen nichts haben...ist doch alles für dein Hobby...) der Schuldige... Realist
oszi40 schrieb: > Neue Platten sollte man (mit "etwas" Geduld) vor der ernsthaften > Benutzung schon mal vollgeschrieben haben (z.B. mit H2testw). Ein Smart long Test prüft die Plattenoberfläche genauso. Der sollte bei neuen Platten immer Pflicht sein
Realist schrieb: > Dabei verliert man nur (auch oder sogar gerade in der Kernfamilie) - > denn ist man gut wächst die "Familie" sehr schnell an geht irgendwas > daneben und das ewig gleiche 100fach geknipste "wertvolle" Bild der > Einschulung ( weder meine noch deine Kinder sind so einzigartig - sein > wir doch mal ehrlich) geht verloren bist natürlich nur du (und der teure > Kram von den alle anderen nichts haben...ist doch alles für dein > Hobby...) der Schuldige... Einfach wichtige Bilder auf optischen Datenträger kopieren und dem anderen in die Hand drücke, dann ist der verantwortlich. :) Insgeheim macht man dann natürlich noch ein Backup auf Festplatten, denn man weiß ja selbst, dass das mit den optischen Datenträgern so ne Sache ist, aber die anderen wissen es eher nicht. ;)
Nano schrieb: > auf optischen Datenträger kopieren und dem > anderen in die Hand drücke, dann ist der verantwortlich. :) Es gibt CDs, die kann man schon nach 5 Minuten nicht mehr lesen. Dann bist Du auch wieder schuld. :-) Auf verschiedene Datenträger nochmals sichern ist schon mal gut. Noch besser ist natürlich, sie gescheit zu beschriften was drin ist und wann gesichert (falls man alten Stand sucht).
oszi40 schrieb: > Es gibt CDs, die kann man schon nach 5 Minuten nicht mehr lesen. Aber nur, wenn du zu ..... bist, beim Brennen den Haken zur Datenüberprüfung nicht zu setzen. In den letzten 20 Jahren sind bei mir noch alle Daten auf CD/DVD noch da.
Realist schrieb: > Eigentlich hast du recht... > Aber wie man auch in diesen Forum hier sieht (aber auch in "1000" > anderen) haben selbst wir "Nerds" und so manche Profis immer wieder > Fragen zur Datensicherung und zur jeweils richtigen Backupstartegie, es > werden sich viele Gedanken gemacht und es ist schon ein größerer > Wissenserwerb mit doch recht steiler Lernkurve erforderlich. Der ganze Thread ist für erfahrene Sysops unfaßbar witzig. Danke Euch allen, ich habe lange nicht mehr so gelacht... Nur so ein paar Tipps: Backup ist langweilig, Restore ist wichtig. Was sind eigentlich diese komischen Kenngrößen, MTBF, MTTR, MTTA, and MTTF? Und wenn mir einer sagt, daß er 20 GB unverzichtbare Dokumente hat oder die ersten Wohnungen seiner Kinder gerne auch dann behalten will, wenn der Russe den atomaren Erstschlag... meine Güte. Ist aber auch eine großartige Idee, Mikrocontrollertypen wegen Backups von drölfzig Terabyte zu fragen. Meine Güte.
Beitrag #6575728 wurde von einem Moderator gelöscht.
Schaffe es nicht, das alles zu lesen. Nur als kurzer Impuls mein Setup, da meine Anforderungen recht ähnlich sind. Vielleicht wurde manches schon gesagt, vielleicht hilft es aber doch. Ich habe mir selbst ein NAS gebaut. ASRock J3455-ITX im leeren PC-Gehäuse mit Laptop-Netzteil und Spannungskonverter. Daran eine SSD und eine große HDD, kein RAID. Installiert ist Ubuntu Server, die Dateipartitionen laufen mit ZFS, exponiert über Samba. Ist billiger, stabiler und durchschaubarer als der QNAP, den ich vorher hatte. Warum soll ich die krude Logik von QNAP und Synology lernen, wenn ich es unter Linux selber leicher kann? Ab und zu mache ich Updates und schaue auf die Logs, Mails ließen sich aber auch verschicken. Bin aber zu faul und vertraue auf die "Badewannenkurve", d.h. Festplatten werden am Anfang geprüft und nach 3 Jahren aussortiert. Sehr datenintensive Anwendungen wie Filmschnitt oder Photoshop machen wir auf den PCs und schieben am Ende das Ergebnis auf den NAS. Backup in die Cloud auf einen Strato-Account per nächtlichem Batch-Job. Fotos, Bücher etc. unverschlüsselt mit rsych, persönliche Dokumente per eigenem Skript vorher verschlüsselt. Runtergeladene Filme und andere große Dateien werden zweimal im Jahr auf externen Festplatten gesichert (der Rest aber auch), die außerhalb des Hauses gelagert werden. Parallel dazu Einsatz von OneDrive für unkritische Daten mit Bedarf an Verfügbarkeit überall oder Teilen mit anderen. Das NAS bleibt nach außen zu! Läuft... Ok, Du hast deutlich mehr Daten. Ich kenne Deine Usecases nicht, würde aber für frühes Aussortieren plädieren, wenn es nicht beruflich notwendig ist. Am Ende muss es eh jemand aussortieren, oder? Wenn das nicht der Fall wäre, wäre das Datengrab auch nicht so tragisch. Warum soll man sich Mühe machen für Daten, die niemand braucht? Zumindest sollte Backup auf USB-Platte für solche Daten doch reichen. Oder hast Du Angst, dass die Zombies Deine Kinderfotos anschauen, während sie Dich verspeisen?
Hallo oszi40, danke auch für deinen Tipp die Badewannenkurve mit ihrer erhöhten Gefahr für Frühausfälle zu beachten. Natürlich wurden alle HDDS vor Inbetriebnahme ausgiebig getestet.
Hallo Realist, habe kein Problem damit mal den Kopf für etwas herzuhalten und schon gar nicht für die eigene Familie. Man tut eben was man kann.
Hallo Sheeva, freut mich natürlich, dass dieser Thread für deine Unterhaltung zweckdienlich ist/war und vielen Dank für deine Tipps. Habe die Begriffe bereits recherchiert und bin nun durfte wieder reichlich dazulernen. Danke. Die Relevanz von Dateien entspricht eben der (persönlichen) Bedeutung, welche wir diesen geben. Zu den "Microcontrollertypen": Die Qualität der Hilfestellung in diesem Forum, sowie die Masse an Schlagwörtern bzw wertvollen Tipps hätte ich mir nicht zu träumen gewagt. Nicht auszudenken wie viele potentielle Pannen dies jetzt schon verhindert hat und wieviel (Mehr)zeit dadurch für Familie und co. geschaffen wurde. Meine Hoffnung besteht darin, dass zukünftig eventuell auch andere Internetuser über diesen oder ähnliche Threads stolpern (sei es zur Belustigung oder zum Lernen). Das wäre klasse.
Hallo Felix, vielen Dank zunächst, dass du dir die Zeit für deinen umfangreichen/lehrreichen Post genommen hast! Dein Tipp die HDDs nach 3 Jahren auszusortieren ist prima, erhöht die Planungssicherheit und werde ich so definitiv übernehmen. NAS bleibt nach all den hiesigen Warnungen definitiv nach außen zu und als Schnittstelle zwischen NAS und Außenwelt werden Fotos bzw unkritische Daten in der Microsoft-Cloud (6 TB für 60€ pro Jahr) abgespeichert, welche sich das NAS dann abholt. Leider fehlt mir aktuell etwas die Zeit dafür ein eigenes NAS aufzusetzen und mich wirklich tiefgehend mit der Thematik TrueNAS/Linux und der Hardware auseinanderzusetzen bzw. umfangreich Daten auszusortieren. Aktuell laufen die beiden Synologys im Verbund mit allen benötigten Funktionalitäten (bis auf die Unterbindung von Bit Rotting). Verständlicherweise schimpfen viele über die Klickybuntie-Systeme wie bspw. Synology und deren einhergehenden Nachteilen, wie fehlendes ZFS und co, weshalb ich langfristig das zweite Backup (USB-HDD) durch einen Supermicro-Server mit ECC-Ram ersetzen werde. In den (durch dieses Forum angestoßenen) Recherchen bin ich auf eine weitere lustige Methode der Datenarchivierung gestoßen, welche auch der Zombie-Apokalypse trotzen sollte: Es gibt Software, welche Daten auf Papier drucken kann. Die Speicherdichte soll dabei bei etwa 1,4MB/DINA4 Seite liegen. Entspricht immerhin 3,5GB pro Karton Druckpapier. Wirklich wichtige Daten (z.B. die ersten Gehversuche in Prosa) sollte man jedoch gut komprimiert auf Schiefertafeln eingravieren lassen, sodass diese bei ähnlicher Lagerung selbst Microsofts Quarzglas-Archivierung von Superman überstehen dürfte.
Stefan B. schrieb: > In den (durch dieses Forum angestoßenen) Recherchen bin ich auf eine > weitere lustige Methode der Datenarchivierung gestoßen, welche auch der > Zombie-Apokalypse trotzen sollte: > Es gibt Software, welche Daten auf Papier drucken kann. Ja, nennt sich 2d Code. Es gibt verschiedene Formen davon, einige inkl. Fehlerkorrektur und Redundanz. Siehe: https://de.wikipedia.org/wiki/QR-Code https://de.wikipedia.org/wiki/DataMatrix-Code https://de.wikipedia.org/wiki/JAB-Code Du musst die Daten am Ende halt wieder einlesen können, nach dem EMP.
Stefan B. schrieb: > Wirklich wichtige Daten (z.B. die > ersten Gehversuche in Prosa) sollte man jedoch gut komprimiert auf > Schiefertafeln eingravieren lassen, sodass diese bei ähnlicher Lagerung > selbst Microsofts Quarzglas-Archivierung von Superman überstehen dürfte. Die Daten möglichst oft kopieren und weiterverbreiten hilft auch gegen Verlust. Also mach ein sehr schönes Foto oder bildnerisches Kunstwerk, dann nutze ein Steganographie verfahren, bei dem du die Daten in das Foto einpacken kannst und sich die Daten aber auch wieder, selbst bei kleinen Änderungen gut auslesen lassen. Und dann erstelle aus dem fertigen Bild Poster und Postkarten, die sich die Leute kaufen wollen und können und die sie dann an die Wand kleben oder in die ganze Welt verschicken.
Guten Morgen werte Mentoren und stille Mitleser, gerne möchte ich abschließend eine Zusammenfassung der wichtigsten Tipps/Entscheidungen und den Beweggründen dazu geben, sowie das daraus resultierende (ausfallsichere!) Setup präsentieren, was einzig und allein durch eure produktive Unterstützung und Geduld mit meiner Person möglich war. Die (für mich) wichtigsten Tipps/Entscheidungen aus diesem Forum waren: 1. NAS nach außen zu! (Kein Fernzugriff) 2. Kein RAID! (Dient allein der Verfügbarkeit und nicht als Backup) 3. Haupt-NAS und Backup-NAS vom selben Hersteller! 4. Externe USB-HDD Sicherung ist kein (sicheres) Backup! 5. Keine Cloud für empfindliche Daten! 6. Ohne ZFS generell unsicher auf lange Sicht (Bit Rotting)! 7. Wichtig Restore, dann Backup (sinngemäß)! 8. Datenträger nach 3 Jahren komplett ersetzen! Beweggründe zu: 1. Einstimmiges Stimmungsbild im Forum: Viel zu risikobehaftet/gefährlich 2. RAID scheint bereits im stationären Betrieb relativ störanfällig gegenüber Stromausfällen und co. zu sein. Fällt die erste Platte aus, so stellt das Rebuild eine erhöhte Belastung für die restlichen Platten dar. Dies hat zur Folge, dass während des Rebuilds eine weitere Platte ausfallen könnte und das Rebuild somit vollständig fehlschlägt. Bei Klickybuntie-Systemen wie Synology/QNAP ist das übrigens nicht unwahrscheinlich. Tipp: RAID Rebuild Crash/fail Synology googlen. Aber der für mich wesentlichste Nachteil ist der, dass ein Rebuild mit 20+ TB Daten viele Tage Zeit in Anspruch nimmt und durch die maximale Auslastung der Platten dabei die Verfügbarkeit des NAS-Systems nur sehr eingeschränkt möglich ist. 3. Ermöglicht die unkomplizierte Wiederherstellung von Daten mit maximaler Übertragungsrate. 4. Defekte Platten/Sektoren werden womöglich zu spät bzw. erst dann entdeckt, wenn die absolute Notwendigkeit eines Zugriffs besteht. Besser ist eine Live-Überwachung der SMART-Werte und co. aller Datenträger. 5. Cloud dient alleinig der Schnittstelle bzw. Zwischenpuffer zwischen NAS und Außenwelt für unkritische Daten (Fotos von Handy). 6. Wehrmutstropfen bei KlickyBuntie-Systemen wie Synology. 7. Danke Sheeva! 8. Erhöhte Planungssicherheit. Daher folgendes ausfallsichere Setup (Haupt-NAS:DS920+/Backup-NAS:DS420j an unterschiedlichen sowie sicheren Orten (darunter ein Safe), Backup nach Generationsprinzip und der Zustand aller Datenträger wird kontinuierlich überwacht bzw. löst bei Abweichung vom Soll-Zustand Alarm per E-Mail und SMS aus): 1. Haupt-NAS mit vollständigem Datensatz der Prio1/2/3 Daten (1. und 2. Platte als JBOD) sowie Sicherung der wichtigen Prio1/2 Daten (3. + 4. Platte als JBOD). 2. Backup-NAS mit Sicherung der wichtigen Prio1/2 Daten (1. + 2. Platte als JBOD) sowie Sicherung der unwichtigen Prio3 Daten auf Platte 3 und zusätzliche Sicherung der unwichtigen Prio3 Daten (inkl. unsortiertem Datenmüll) auf Platte 4. 3. USV mit Überspannungsschutz (auch für Netzwerkschnittstelle). Mögliche geplante/ungeplante Ausfälle: 1. Platte 1 oder Platte 2 im Haupt-NAS defekt. 2. Platte 3 oder Platte 4 im Haupt-NAS defekt. 3. Haupt-NAS selbst defekt (RAM/Hauptplatine etc. defekt). 4. Stromausfall bzw. Netzschwankungen. 5. Diebstahl von Haupt-NAS bzw Überschwemmung/Feuer/Blitzeinschlag usw. 6. Tod vom Admin. Resultat: 1. Kompletter Datensatz des JBODs weg! (Auch die Daten der noch intakten Platte) 2. Komplettes erstes Backup der Prio1/2 Daten weg! 3. Daten auf Platten noch vorhanden. 4. Daten noch erhalten, ggfs kurzfristig nicht erreichbar. 5. Kompletter Datensatz + erstes Backup der Prio1/2 Daten weg. 6. Daten noch vorhanden, ggfs kurzfristig nicht erreichbar. ToDo: 1. Defekte Platte ersetzen, JBOD neu bilden, Wiederherstellung der Daten innerhalb vom NAS mit ~150MB/s möglich. Falls nicht möglich, zweites Backup nutzen. 2. siehe 1. 3. NAS ersetzen, Daten wieder vorhanden. Falls nicht möglich, zweites Backup nutzen. 4. NAS wieder in Betrieb nehmen, Daten wieder vorhanden. 5. NAS/Platten ersetzen und zweites Backup aufspielen. 6. Auf NAS klebt ein Zettel mit den Zugangsdaten sowie einem Link zu diesem Thread. Passwort setzt sich zusammen aus Anfangsbuchstaben meiner Lieblingsfarbe/Lieblingspizza/Lieblingsgetränk usw. Risiko bei EMP/Zombie-Apokalypse ist durch Entfernung zwischen Haupt-NAS und Backup-NAS minimiert. Danke nochmal für eure Hilfe, habt ein schönes Wochenende!
Das ist schon sehr durchdacht, trotzdem noch ein paar abschließende Gedanken. Den Vorteil von ZFS sehe ich in erster Linie in der Versionierung von Dateien, ein probates Mittel gegen Verschlüsselungstrojaner. Das mit dem Bit Rotting ist sicher auch richtig, habe in meinem Leben so einen Fall allerdings noch nie bemerkt. Ubuntu Server empfehle ich, wenn der Server noch andere Dinge machen soll und man Spaß am Lernen über Linux hat. Ich fand den Aufwand nicht höher als bei QNAP und mir hat es Spaß gemacht. Zudem läuft bei QNAP unter der Haube beim Backup auch nur rsynch oder andere Linuxtools, bei meinem QNAP leider fehlerhaft parametrisiert. Seit der QNAP weg ist, habe ich eine Fehlerquelle weniger. Ich bin hardwaremäßig eher am unteren Ende unterwegs. Das möchte ich eigentlich auch beibehalten und werde zur Erhöhung der Sicherheit in Zukunft mehr auf redundante Cloudspicherung der Backups setzen. Verschlüsselt, mehrere Anbieter aus mehreren Ländern gleichzeitig. Nicht unterschätzen würde ich die Zombies! Ganz im Ernst, als Synonym für den größten Fehlerfall, der noch sinnvoll abzudecken ist. Hier habe ich leider keine Antwort, außer bei wichtigen Erinnerungen den Pfad der Digitalisierung zu verlassen (Ausdrucke, Fotoabzüge). Ich kann die Fotos und Briefe meiner Urgroßeltern aus dem 19. Jahrhundert problemlos ansehen, selbst nach 2 Weltkriegen. Das wird meinen Urenkeln mit meinen Daten wohl nicht gelingen.
Stefan B. schrieb: > 2. Aber > der für mich wesentlichste Nachteil ist der, dass ein Rebuild mit 20+ TB > Daten viele Tage Zeit in Anspruch nimmt und durch die maximale > Auslastung der Platten dabei die Verfügbarkeit des NAS-Systems nur sehr > eingeschränkt möglich ist. Es gäbe noch die Möglichkeit einfacher Mirrors. Die Sache mit "RAID dient allein der Verfügbarkeit und ist kein Backup" stimmt schon, bedenke aber, das zwischen dem Kopieren von Daten auf das NAS und dem Erstellen der Backups auch Zeit vergehen kann und dann hilft ein RAID schon gegen Datenverlust. Es hängt hier also davon ab, wie oft du ein Backup machst. Wenn du das nur einmal pro Woche machst, würde ich auf dem NAS schon eine Form von RAID einplanen. Gegen den langen Rebuild helfen einfache gespiegelte Platten. Im Prinzip ist es also nur eine Geldfrage. > 3. Ermöglicht die unkomplizierte Wiederherstellung von Daten mit > maximaler Übertragungsrate. Es ist nicht einmal garantiert, dass bspw. ein RAID auf einem gleichen NAS eines Herstellers wieder rekonstruiert werden kann. Viel wichtiger sind hier offene standardisierte Dateisystemformate und wenn man Raid nimmt, Softwareraid. Denn Hardwareraid ist Controllerabhängig, da kann man dann Probleme kriegen. Dennoch stimmt die Aussage "Haupt-NAS und Backup-NAS vom selben Hersteller!" nicht. Denn wenn eine Sicherheitslücke erlaubt in das Haupt-NAS einzudringen und Schaden zu verursachen, dann wird das auch beim baugleichen Backup-NAS funktionieren. NAS von unterschiedlichen Herstellern zu verwenden wäre also die bessere Variante, da dies gegen Sicherheitslücken und Angriffe schützen kann. Z.B. TrueNAS auf dem Hauptnas und OpenMediaVault auf dem Backup-NAS. Dann hat man auch gleich zwei Open Source Systeme. > 4. Defekte Platten/Sektoren werden womöglich zu spät bzw. erst dann > entdeckt, wenn die absolute Notwendigkeit eines Zugriffs besteht. Besser > ist eine Live-Überwachung der SMART-Werte und co. aller Datenträger. Du kannst noch Scrubbing einsetzen, da werden die Daten gelesen und neu geschrieben. So bleibt die Magnetinformation stark und mit dem richtigen Dateisystem, wie bspw. ZFS Fehler werden frühzeitig erkannt und dann korrigiert wieder auf den Datenträger geschrieben. Gegen Ausfälle hilft RAID, in deinem Fall dann Mirrors, wenn du keinen langen Rebuild haben willst. > 8. Erhöhte Planungssicherheit. Das geht ins Geld. Da kannst du auch Mirrors nehmen und warten bis eine Platte ausfällt. Und wenn das passiert, kannst du sogar vorher schon Hot Spare Platten einbauen, die in solchen Fällen dann gleich einspringt. D.h. der Rebuild (bei RAID) oder der das klopieren (Mirror) kann gleich beginnen und die Spare Platten werden dann gleich automatisch verwendet, wenn eine Platte im RAID kaputt ist. Mit TrueNAS geht das. Bei Synology bräuchtest du dafür definitiv ein System das mehrere Platten aufnehmen kann. Denn die Hot Spare Platte muss ja irgendwo hin. Siehe: https://de.wikipedia.org/wiki/Hot-Spare > 3. USV mit Überspannungsschutz (auch für Netzwerkschnittstelle). Dann brauchst du aber noch ein Netzteil mit Redundanz bzw. solltest das zumindest wissen. Denn wenn ein normales Netzteil kaputt geht, bringt dir die USV auch nichts. Im Serverbereich gibt es deswegen Netzteile mit Redundanz. Aber Vorsicht, so etwas willst du nicht im Wohnzimmer stehen haben. Diese Art von Netzteilen haben in der Regel kleine 40 mm Lüfter und die sind entsprechend laut. Der Keller im 19" Serverrackschrank ist für solche NAS Geräte dann der richtige Ort. Ich habe bspw. eine USV, aber ich gestehe, ich habe kein redundantes Netzteil verbaut, weil mir das schlichtweg zu laut wäre. Dieses Risiko gehe ich also ein, aber ich kenne es zumindest. Dafür habe ich ein hochwertiges Netzteil mit großen Lüftern und gutem Wirkungsgrad genommen, das ist leise. Im Desktopbereich ist mir auch noch nie ein Netzteil kaputt gegangen. Ausfallen könnte es theoretisch trotzdem, das muss man halt wissen, es ist eine Risikoabwägung. Aber die Gefahr, dass der Strom hier mal weg ist, würde ich höher einschätzen als das das NT ausfällt. Deswegen habe ich ne USV. Gerade in Deutschland steigt dieses Risiko mit dem Abschalten der Kohle- und Kernkraftwerke. > Mögliche geplante/ungeplante Ausfälle: > 1. Platte 1 oder Platte 2 im Haupt-NAS defekt. > 2. Platte 3 oder Platte 4 im Haupt-NAS defekt. > 3. Haupt-NAS selbst defekt (RAM/Hauptplatine etc. defekt). > 4. Stromausfall bzw. Netzschwankungen. > 5. Diebstahl von Haupt-NAS bzw Überschwemmung/Feuer/Blitzeinschlag usw. > 6. Tod vom Admin. 7. Ausfall des Netzteil, kann aber auch unter Punkt 3 fallen. 8. Schadsoftware korrumpiert dir dein NAS. 9. Kind entfernt aus Spaß die Platten im laufenden NAS. Die Festplattenschächte sind durchaus zum Spielen interessant. > 6. Auf NAS klebt ein Zettel mit den Zugangsdaten sowie einem Link zu > diesem Thread. Passwort setzt sich zusammen aus Anfangsbuchstaben meiner > Lieblingsfarbe/Lieblingspizza/Lieblingsgetränk usw. Du kannst auch eine Anleitung schreiben und die in den Safe legen. Dann musst du nicht PW außen an das NAS kleben. Stell dir mal vor, du bekommst Besuch und der macht ein Foto vom PW. > > Risiko bei EMP/Zombie-Apokalypse ist durch Entfernung zwischen Haupt-NAS > und Backup-NAS minimiert. Beim EMP muss die Entfernung schon sehr groß sein. Rechne mal mit 5000 km. Also einmal über den großen Teich, dann ja, dann könnte das Backup-NAS vor dem EMP sicher sein. Ansonsten nützt das nichts. Da brauchst du schon nicht anfällige Datenträger, wie die oben von mir genannten optischen Datenträger. > > Danke nochmal für eure Hilfe, habt ein schönes Wochenende! Danke, gleichfalls.
Felix schrieb: > Das mit dem > Bit Rotting ist sicher auch richtig, habe in meinem Leben so einen Fall > allerdings noch nie bemerkt. Das kannst du auch nicht bemerken, wenn dein Dateisystem keine Prüfsummen wie ZFS anlegt. Einzige Ausnahme, du legst die Prüfsummen händisch jedes mal selber an, dann kann man es bemerken, aber man kann die Daten damit immer noch nicht reparieren. Da braucht es eine Form von Error Correction, die liefert ZFS eben falls mit. Mit ZFS ist das also alles schön transparent, ohne muss man alles selber machen. Synology verwendet unter der Haube Linux, wenn man also irgendwie kann, dann sollte man dort Btrfs verwenden. Da er kein RAID nutzt, ist das eine durchaus nutzbare Option. Btrfs hat dieses Feature nämlich auch, allerdings ist Btrfs bei RAIDs noch experiemental und sollte dafür nicht eingesetzt werden. Red Hat hat sich von Btrfs verabschiedet, weil sie zu hohe Ausfälle hatten. Btrfs ist also mit Vorsicht zu genießen, aber es hätte theoretisch die Features auf dem Papier. ZFS ist ausgereift. > Ubuntu Server empfehle ich, wenn der Server noch andere Dinge machen > soll und man Spaß am Lernen über Linux hat. Ich fand den Aufwand nicht > höher als bei QNAP und mir hat es Spaß gemacht. Zudem läuft bei QNAP > unter der Haube beim Backup auch nur rsynch oder andere Linuxtools, bei > meinem QNAP leider fehlerhaft parametrisiert. Seit der QNAP weg ist, > habe ich eine Fehlerquelle weniger. Ubuntu Server kann man nur einsetzen, wenn man sich auf die Pakete aus dem Main Zweig beschränkt. Wer andere Pakete benötigt, der ist mit Debian besser bedient. Für ein NAS kann man hier aber gleich OpenMediaVault nutzen, das baut auf Debian auf, ist aber auch gleich für den NAS Einsatz vorbereitet. Man hat also eine schöne Weboberfläche, über die man alles wichtige konfigurieren kann. Bei einem reinen Debian oder Ubuntu Server müsste man das alles händisch machen, da steigt auch die Wahrscheinlichkeit, dass man Fehler macht. > Hier habe > ich leider keine Antwort, außer bei wichtigen Erinnerungen den Pfad der > Digitalisierung zu verlassen (Ausdrucke, Fotoabzüge). Ich kann die Fotos > und Briefe meiner Urgroßeltern aus dem 19. Jahrhundert problemlos > ansehen, selbst nach 2 Weltkriegen. Das wird meinen Urenkeln mit meinen > Daten wohl nicht gelingen. Das Problem bei solchen alten Urururgroßelternfotos ist nur, man kann zeigen, schau, so sahen sie aus. Aber man hat keine Geschichte, die man über sie erzählen könnte, weil man sie nicht kannte.
Stefan B. schrieb: > 8. Datenträger nach 3 Jahren komplett ersetzen! 1-8 sind ja schön, aber wenn ein DAU rm -r macht, sind Deine Daten weg. Mindestens 1 Backup gehört stromlos in den Schrank! 9. Auch eingescanntes Papier kann schon Fehler enthalten! https://www.heise.de/tp/features/Xerox-Software-veraendert-eingescannte-Zahlen-3961586.html
Ich würde das Problem dritteln! Die zwei großen Klopse im Back-Up ausschließen (sollte praktisch in jedem Programm möglich sein) und einzeln mit einem Vergleichsprogramm (DirectoryCompare oder so) aktuell halten. Den sich häufig ändernden Teil mit einem 08/15 Backup-Programm im Auge behalten. Alternativ ein Programm wählen, dass verschiedene Back-Up-Strategien beherrscht. Das können erstaunlich viele. Bedeutet aber Einlesen.
Hallo Stefan, Stefan B. schrieb: > freut mich natürlich, dass dieser Thread für deine Unterhaltung > zweckdienlich ist/war und vielen Dank für deine Tipps. Habe die Begriffe > bereits recherchiert und bin nun durfte wieder reichlich dazulernen. Das wiederum freut mich... aber der wichtigste Teil meines Beitrages war ein ganz anderer, nämlich der Hinweis auf den Restore. Mir sind nämlich im Laufe meines Lebens, das leider nicht immer so ereignislos war wie ich es mir gewünscht hatte, nun bereits mehrmals Szenarien begegnet, in denen die Daten des Kunden zwar regelmäßig in ein Backup geschrieben wurden (yay!), sich im Ernstfall aber nicht mehr wiederherstellen ließen. Aus unterschiedlichsten Gründen: mal war der Schreiblesekopf eines (im Übrigen sauteuren) Taperoboters defekt, mal erfolgte das Backup verschlüsselt und der Schlüssel war nicht wiederauffindbar. Sowas ist dann... genau. Da ich anscheinend nicht der Einzige bin, der so etwas schon einmal erlebt hat, gibt es unter Leuten, die das professionell machen, eine goldene Regel: direkt nach dem Einrichten eines Backups wird ein Restore versucht, dann nach zwei Wochen nochmals, und nach zwei weiteren Wochen noch einmal. Wenn einer der Restore-Versuche nicht wie gewünscht funktioniert, zurück auf Anfang. Danach geht man in den laufenden Betrieb, und je nach Veränderlichkeit und Anforderungen mindestens einmal pro Jahr, besser einmal pro Quartal, wiederum ein Restore versucht -- und wenn eines nicht klappt... ganz genau, wie vor. Ja, das ist aufwändig. Aber wenn man sich vergegenwärtigt, daß ein Gigabyte Daten für ein Unternehmen laut einschlägiger Schätzungen schnell einen durchschnittlichen Wert von ca. 15.000 Euro haben kann...
Also bei mir im privaten Umfeld kenne ich keinen, der so einen riesen Aufwand betreibt. Für die Familie schonmal gar nicht, jeder ist für seine Daten alleine verantwortlich. Alles andere bringt nur Ärger, wenn mal doch was zu schnell gelöscht wurde oder zu privat ist. Was neben der Datensicherung sinnvoll ist, ist ein Systemabbild. Niemand merkt sich alle Einstellungen, wenn man das System neu aufsetzen muß. Schnell hat man was verstellt und dann ist ein Systemabbild in wenigen Minuten eingespielt und die Updates seitdem. Mir wichtige Daten sichere ich in >=3 Kopien, das sollte reichen. HDDs schmeiße ich nach 3 Jahren natürlich nicht weg. Ein NAS brauche ich nicht, die HDDs laufen nur, wenn ich auch am PC sitze. Den letzten PC habe ich 2014 gekauft und dessen HDDs sind auch so alt. Als Backup habe ich eine 10TB und 14TB USB-HDD neben der 8TB im PC.
:
Bearbeitet durch User
Thomas B. schrieb: > Ein AMD Athlon X2 64 mit ca. 2,3GHZ ist als > Serverprozessor hinreichend leistungsfähig Und verbraucht 65 Watt. Ein moderner Prozessor macht das Gleiche mit 5 Watt. 60*24*365 = 525 kWh * 0,25€/kWh = 131 € Strom im Jahr.
Sheeva P. schrieb: > Der ganze Thread ist für erfahrene Sysops unfaßbar witzig. Danke Euch > allen, ich habe lange nicht mehr so gelacht... > > Nur so ein paar Tipps: Backup ist langweilig, Restore ist wichtig. Das sagte ich bereits. Siehe oben, da steht: "Wichtig ist da nur, dass du hinterher nach dem beschreiben die Daten auch verifzieren, also lesen solltest."
Sheeva P. schrieb: > Da ich anscheinend nicht der Einzige bin, der so etwas schon einmal > erlebt hat, gibt es unter Leuten, die das professionell machen, eine > goldene Regel: direkt nach dem Einrichten eines Backups wird ein Restore > versucht, dann nach zwei Wochen nochmals, und nach zwei weiteren Wochen > noch einmal. Warum das mehrmalige Probieren in 2 Wochen Abstand? Was soll sich in der Zeit ändern? Und wie testet ihr ein Restore? Außerbetriebnahme des laufenden Gerätes kann ich mir schlecht vorstellen. Ich mach mein Backup als 1:1-Kopie der kompletten SSD auf externe Festplatte bzw. 2,5"-Festplatte im Wechselschacht vom Laptop. Vorteil: Funktionsprobe sehr einfach möglich.
:
Bearbeitet durch User
Reinhard S. schrieb: > Ich mach mein Backup als 1:1-Kopie der kompletten SSD auf externe > Festplatte Merke: Wer schon mal beim Clonen Quelle und Ziel verwechselt: hat dann 2 LEERE Platten. Besser sind komplette Images (Sofern wirklich alles kopiert wird). Deswegen sind Tests mit Restore durchaus nützlich (möglichst nie auf Ursprungs-HDD).
oszi40 schrieb: > Reinhard S. schrieb: >> Ich mach mein Backup als 1:1-Kopie der kompletten SSD auf externe >> Festplatte > > Merke: Wer schon mal beim Clonen Quelle und Ziel verwechselt: hat dann 2 > LEERE Platten. In meinem Fall hätte ich dann 2 Platten mit dem Stand des letzten Backups.
irgendwo weiter oben stand was von SSDs, das ist ne sehr schlechte Idee wenn die nicht ab und zu mal betrieben werden, den diese refreshen auch ihre Zellen damit da keine Bits kippen.
Nano schrieb: > Sheeva P. schrieb: >> Der ganze Thread ist für erfahrene Sysops unfaßbar witzig. Danke Euch >> allen, ich habe lange nicht mehr so gelacht... >> >> Nur so ein paar Tipps: Backup ist langweilig, Restore ist wichtig. > > Das sagte ich bereits. Das stimmt, und sollte von mir nur noch einmal verdeutlicht werden. ;-)
Reinhard S. schrieb: > Sheeva P. schrieb: >> Da ich anscheinend nicht der Einzige bin, der so etwas schon einmal >> erlebt hat, gibt es unter Leuten, die das professionell machen, eine >> goldene Regel: direkt nach dem Einrichten eines Backups wird ein Restore >> versucht, dann nach zwei Wochen nochmals, und nach zwei weiteren Wochen >> noch einmal. > > Warum das mehrmalige Probieren in 2 Wochen Abstand? Was soll sich in der > Zeit ändern? Die Daten. Wenn wir ein System in Betrieb nehmen und das Backup / Restore einrichten, dann sind normalerweise nur wenige bis keine Daten darauf. Schon dabei können einem... wie sage ich das elegant... verschiedene eher unheilige Dinge passieren. Ein Beispiel: mir selbst ist es in den letzten Monaten vorgekommen, daß ich bei mir privat ein Backup mittels rsnapshot eingerichtet, getestet, und für gut befunden habe. Funktionierte auch prima... auf den ersten Blick. Drei Wochen später habe ich einen sshfs-Mount in ein Unterverzeichnis von meinem Homedirectory gemacht, und kurz danach hat mich mein Monitoring gemobbt. Was war passiert? Genau: ich hatte mein Homedir ins Backup gelegt, und mit dem sshfs-mount... genau: 3 TB Daten in ein 2 TB Backupmedium, schwieritsch. ;-) > Und wie testet ihr ein Restore? Außerbetriebnahme des laufenden Gerätes > kann ich mir schlecht vorstellen. Wenn wir eine Umgebung aufbauen, gibt es immer zwei identische weitere: einmal eine Staging-Umgebung für uns Systemfritzen, einmal eine Acceptance-Umgebung für unsere Kunden. Beide sind heute nicht mehr ständig online (und können sich sogar dieselben Ressourcen teilen, meistens), aber im Kern genauso ausgestattet wie die Produktion. Auf diesen Umgebungen testen wir die Backups. > Ich mach mein Backup als 1:1-Kopie der kompletten SSD auf externe > Festplatte bzw. 2,5"-Festplatte im Wechselschacht vom Laptop. Vorteil: > Funktionsprobe sehr einfach möglich. Das ist für Privatanwender sicherlich eine sehr brauchbare Strategie, aber für den Unternehmenseinsatz insbesondere in regulierten Bereichen -- Banken, Versicherungen, Fintech halt -- noch ein wenig unterambitioniert. ;-) Die Fragen sind am Ende immer dieselben: was genau willst Du nach einem Atomkrieg Ausfall eines Rechenzentrums ... wiederherstellen, wie schnell soll das gehen, bis Du wieder voll einsatzfähig bist, ...
Thomas O. schrieb: > irgendwo weiter oben stand was von SSDs, das ist ne sehr schlechte > Idee > wenn die nicht ab und zu mal betrieben werden, den diese refreshen auch > ihre Zellen damit da keine Bits kippen. Das bezog sich auf ein NAS und ein NAS steht nicht Monate im Schrank, sondern befindet sich im Normalfall im Betrieb. Es gibt Firmen, die für so etwas nur noch SSDs einsetzen, da Festplatten deren Erfahrung nach viel anfälliger sind und daher auf SSDs schwören.
Nano schrieb: > auf ein NAS und ein NAS steht nicht Monate im Schrank, Solange keine Blitz, Virus oder DAU beide NAS gekillt hat, mag Deine Variante funktionieren. Trotzdem ist mindestens ein stromloses Backup mit Lagerung an einem sicheren Ort nötig. Ein paar lesbare DVSs im Schrank sind billiger als ein Revovery bei Ontrack.
oszi40 schrieb: > Nano schrieb: >> auf ein NAS und ein NAS steht nicht Monate im Schrank, > > Solange keine Blitz, Virus oder DAU beide NAS gekillt hat, mag Deine > Variante funktionieren. Trotzdem ist mindestens ein stromloses Backup > mit Lagerung an einem sicheren Ort nötig. Habe ich irgendwas davon geschrieben, das man kein Backup braucht? Lies doch oben mal nach!
Hallo liebe Leute! gerne möchte ich kurz ein Feedback zum aktuellen Status geben. Haupt-NAS (ohne RAID): Original: Kompletter Datensatz Backup-NAS (ohne RAID): Backup: kompletter Datensatz Externe Festplatte: Backup 2: kompletter Datensatz Arbeitsrechner: Prio1-Daten zusätzlich auf SSD und eingesteckter µSD-Karte + zusätzlicher externer Festplatte. Geschützt natürlich durch eine USV. Die Datensätze sind unverschlüsselt (keine Geschäftsdaten) und Backup erfolgt händisch. Das sieht auf den ersten Blick nach Arbeit aus aber ich weiß gerne was wohin kopiert wurde (+teste sporadisch durch) und hilft mir persönlich auch etwas bei dem Punkt Restore. Haben sich zu viele Daten geändert, sodass händisches Ordner-Kopieren kein Spaß mehr macht, so wird ein vollständiges Backup in unterschiedlicher Weise durchgeschleift, wie z.B. nach folgendem Schema: Arbeitsrechner SSD --> Externe Festplatte --> Haupt-NAS --> Backup-NAS Arbeitsrechner SSD --> Haupt-NAS --> Backup-NAS --> Externe Festplatte Bei RAW-Daten auch gerne mal: Haupt-NAS --> Backup-NAS --> Externe Festplatte Backup-NAS --> Haupt-NAS --> Externe Festplatte Externe Festplatte --> Haupt-NAS --> Backup-NAS usw. Geplant ist weiter, dass neben dem Austausch defekter Platten die externen Festplatten nach Ablauf der Garantiezeit durch neuere Modelle ersetzt werden und im Schrank lagern. Interessant war übrigens die selbe Information von unterschiedlichen Quellen (Rechenzentrum-Mitarbeiter, Synology-Mitarbeiter, IT-Experte etc.), dass neben den Originaldaten mindestens (sic!) zwei Backups existieren müssen, sofern einem die Daten am Herz liegen. Besser drei Backups und RAID ist kein Backup. Die Geschichte mit der Cloud, sowie ein externer Zugriff auf die NAS hat sich nach den obigen geführten Gesprächen erledigt und würde ich niemandem empfehlen. habt ein schönes Wochenende
Stefan B. schrieb: > dass neben den Originaldaten mindestens (sic!) zwei Backups > existieren müssen Es kann ja auch mal das Backup hops gehen und da es im Schrank liegt, merkt es niemand. Man sollte auch jährlich einen MD5 Check darauf durchführen.
Stefan B. schrieb: > Geplant ist weiter, dass Meine Lebenserfahrung sagt mir, daß nach den ersten paar Monaten Begeisterung für das ganze Spielzeug eine längere Zeit mit "läuft noch irgendwie mit" folgt, und danach kümmert ich keiner mehr drum. Im Falle eines Falles weiß niemand mehr, was der ganze komplexe Kram eigentlich macht, und wie er funktioniert. Sämtliche Software ist völlig veraltet, und keiner weiß mehr, wie man an die Daten kommt. Der hier erwähnet "Zombie" muß da gar nicht auftauche, da reichen ganz handelsübliche Änderungen im Leben, die die Prioritäten mal eben verschieben: Neuer Job (im Ausland), neue Freundin, Scheidung, Krebs, was auch immer. Dagegen hilft nur KISS: keep it simple and stupid. Der hier gezeigte Ansatz ist nur S: stupid. Oliver
:
Bearbeitet durch User
Oliver S. schrieb: > Meine Lebenserfahrung sagt mir, daß nach den ersten paar Monaten > Begeisterung für das ganze Spielzeug eine längere Zeit mit "läuft noch > irgendwie mit" folgt, und danach kümmert ich keiner mehr drum. Das war auch meine Befürchtung. Ich hab das umgedreht: * Auf jedem PC/Notebook im Haushalt sind alle Daten drauf. * Jeder arbeitet lokal auf den Daten und synchronisiert auf einen Linux Server. (FreeFileSync) * Damit ist jeder in der Pflicht und nicht nur der IT Pappa. * Der macht dann nur monatlich ein Backups auf extern. * Beim Synchronisieren werden die alten Daten zusätzlich noch in ein Backup Verzeichnis geschoben. Falls jemand was überschrieben hat ist das meistens auf einem anderen PC noch auffindbar. Das funktioniert richtig gut und man ist nicht an eine Hardware gebunden. Man nimmt den PC der gerade frei ist. Trotz defekter Platten oder versehentlichem Löschen gab es in den letzten Jahren dadurch keine Verluste.
> prima wäre eine durchdachte Backup-Strategie für die ganze Familie
Also die ganze Familie irgendwo abspeichern, äußerst schwierig.
Stefan B. schrieb: > Arbeitsrechner: Prio1-Daten zusätzlich auf SSD und eingesteckter > µSD-Karte + zusätzlicher externer Festplatte. hihi, ich mach auch regelmäßig Backups auf der µSD-Karte in meinem Handy. Die ist im Falle eines Falles mit etwa Glück 'off-site' :-)
Hallo hier mal ein Gedanke der absolut nichts mit der Technik zu tun hat und zu beginn des Tread auch schon mal kurz erwähnt wurde - aber verständlicher Weise zu so einen frühen Zeitpunkt nicht weiter beachtet wurde: Muss wirklich alles x-Fach gesichert werden? Wird das 128ste eigentlich gleiche Bild mit der Schultüte in der Hand (gibt es die überhaupt noch in der Form?) von der Einschulung des Enkels (aber auch des ersten eigenen Kindes) überhaupt irgendwann noch mal angeschaut? Muss man den Ausbildungsvertrag der 1985 erfolgten Ausbildung unbedingt noch irgendwo (als Scan) herumliegen haben - wurde der Vertrag (der Scan) überhaupt jemals angepackt? Die Versicherungspolice des Autos dessen Metallbestandteile schon 2 mal eingeschmolzen wurde wird auch eher selten benötigt. Die 2500 Bilder vom Eifelturm - selbst die mit der DSLR aufgenommen wurden und bewusst Komponiert wurden - wie viele davon Nutz man oder sieht sich wenigsten hin und wieder an? Meist sind das unter 10 Stück. Auch ich hatte viel zu lange jede blöden Vertragspolice von längst aufgelösten Verträgen aufgehoben, Bedienungsanleitungen von Geräten die schon seit Jahren ihren letzten Weg gegangen waren irgendwo wiedergefunden. Auf meinen Festplatten lagen bestimmt über 1000 Aufnahmen (Auch der Details) des Kölner Doms - "richtig" nutze und "liebe" ich vielleicht 50 bis 100 davon. Meine ganz persönliche Bewältigung (zumindest ein Teil davon) eines heftigen aber zum Leben gehörenden Verlust einer sehr nahstehenden Person war es alle Bilder und Aufnahmen (Es gab recht wenige und alles noch Analog) zu vernichten - hat mir geholfen - ist aber wohl eher untypisch und für viele ist eine auch Bildliche Erinnerung ein Trost - für mich nun mal aber nicht - Was fott ist ist fott und mus fott bleiben... Das alles nur mal mehr als "philosophische" (Na ja etwas großkotzig Gesprochen.. ) Hinweise und Gedanken. Vergessen, durchaus heftiges aussortieren und "Wegschmeißen" ist meiner Meinung nach sehr wichtig - wobei mir das aber auch erst mit etwas höheren alter klar wurde... Realist
>Meine ganz persönliche Bewältigung (zumindest ein Teil davon) eines heftigen aber
zum Leben gehörenden Verlust einer sehr nahstehenden Person war es alle Bilder und
Aufnahmen (Es gab recht wenige und alles noch Analog) zu vernichten - hat mir
geholfen
Boah, mein ehrlichen Respekt das tu tun.
Es ist nicht mein Weg, aber ich verstehe warum Du das gemacht hast.
Realist schrieb: > Vergessen, durchaus heftiges aussortieren und "Wegschmeißen" ist meiner > Meinung nach sehr wichtig - wobei mir das aber auch erst mit etwas > höheren alter klar wurde... Ja! Allerdings ist bewusstes Aussortieren und Wegschmeißen etwas anderes als ein Festplattendefekt der alles mitnimmt. Der Festplattendefekt erspart einem halt das bewusste Löschen, was mir durchaus schwer fällt. Aber ich will ja auch nicht, dass mir die Hütte abbrennt - auch wenn ich mir dadurch das Entsorgen meines Gerümpels ersparen würde. Und mit dem bewussten Löschen ist das auch so eine Sache. Oft merke ich erst nach Jahren beim erneuten Durchsehen, dass gerade das verwackelte Foto schöne Erinnerungen weckt. Ich bin aber glaube ich auch ein Mensch der viel in der Vergangenheit lebt.
Jeder hat da eben so seine eigene Prioritäten. Ich für meinen Teil schaue lieber ein verwackeltes Video von damals, auf dem mein Uropa Fotos mit uns durchschaut und von seiner ersten Amerikareise erzählt als ein billiges Fußballspiel. Auch lese ich lieber in Tagebüchern der Familie von damals, als ein 0815 Roman, indem sowieso nur konstruierter Schwachsinn steht. Könnte ich in gleichem Sinne teilhaben an den Erinnerungen und den Geschichten meines Urururopas, wäre das für mich unbezahlbar.
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.