Forum: PC Hard- und Software Ausfallsichere Backup-Strategie für die ganze Familie


von Stefan B. (Gast)


Lesenswert?

Guten Morgen verehrte Community,

prima wäre eine durchdachte Backup-Strategie für die ganze Familie. Habe 
versucht mich dazu hier bzw über google/reddit einzulesen aber selbst 
nach längerer Recherche sind noch ein paar Fragen offen.

Zu den Daten:
1. Prio1 Daten [20GB] (Auch in Papierform/DVD vorrätig) - 
Überlebensnotwendige Daten/Unterlagen. Erneute Archivierung würde 1-2 
Wochen Arbeit beanspruchen.
2. Prio2 Daten [3TB] - Hoher persönlicher Wert 
(Urlaubs/Einschulungs/Hochzeitsvideos/Familienfotos)
3. Prio3 Daten [15TB] - RAW-Dateien der Spiegel-Reflex bzw. 4k 
Camcorder, welche sich über die Jahre angesammelt haben

Gewünschte Nutzungsmöglichkeiten:
1. Automatisches Backup/Sync von PC/Smartphone
2. Private Cloud - weltweit erreichbar
3. Integrierte Überwachungskameras
4. Alarm bei SMART-Fehlern per E-Mail/SMS
5. Streaming (inkl. Transcodierung)

Zum Plan:
1. Haupt-NAS in der eigenen Wohnung: Synology DS920+ mit 4x8TB HDD im 
RAID5 (24 TB Eff.)
2. Backup-NAS in der Wohnung meiner Schwester: Synology DS220j mit 
2x12TB HDD im JBOD (24 TB Eff.)
3. 2x Externe Festplatte jeweils in der Wohnung meiner Eltern/eigene 
Wohnung: 5 TB 2,5 Zoll HDD im Wasser/Feuer/Strahlungsfesten Stahl-Tresor 
für Prio1/Prio2 Daten
4. Prio1 Daten liegen auch auf der PC-HDD

Geplanter Schadensfall:
1. (Ideal) SMART-Werte verschlechtern sich --> Benachrichtigung per 
E-Mail/SMS
2. Austausch der defekten Festplatte
3. Rebuild RAID
4. Falls das Rebuild fehlschlagen sollte, Datenrekonstruktion über 
Backup-NAS

Ungeplante Schadensfälle:
1. Ausfall RAID-Controller
2. Software/Update/Virusfehler auf dem NAS
3. Feuerschaden/Wasserschaden/Sturm/Erdbeben
4. EMV-Schockwelle
5. Zombie-Apokalypse

Fragen:
1. Inwiefern macht in dieser Konstellation der Aufwand einer 
regelmäßigen USB-Sicherung auf externen Festplatten überhaupt Sinn, oder 
besser auf Nummer Sicher gehen, da Murphys-LAW?
2. Besser unterschiedliche NAS-Hersteller nutzen oder gibt es da 
Kompatibilitätsprobleme? Z.B. Backup-NAS QNAP TS-230 anstatt Synology 
DS220j, da z.B. die 20er-Reihe von Synology theoretisch einen 
Serienfehler beinhalten könnte
3. Kommt bei dieser Größe/Empfindlichkeit der (privaten) Daten eine 
zusätzliche verschlüsselte Cloud-Speicherung überhaupt in Frage (Grüße 
gehen raus an Snowden)?

Klasse ist natürlich auch Input über den Tellerrand hinaus!

Vielen Dank

von OldMan (Gast)


Lesenswert?

Zu
1. Via USB ist viel zu aufwändig.
    Nur LAN / WLAN

2. HP Microserver mit TrueNAS Core wäre mein Vorschlag. Bei TrueNAS bist 
Du alleiniger Herrscher über Dein System.
  Identische Systeme aufbauen. Kein Hersteller Mix!
   In TrueNAS  ZFS nutzen.
  Vor dem Konfigurieren von ZFS
   die Beschreibung genau lesen. Bzgl. Erweiterung
   FS / Rebuild und Netzwerk Optionen.
   Verschlüsselung einschalten!

3. Klares Nein.

von OldMan (Gast)


Lesenswert?

Nachtrag/Tipp:
Sog. Video Harddisks sind für ein NAS erste Wahl. Bspw. Seagate SkyHawk 
o.ä.

von Irgend W. (Firma: egal) (irgendwer)


Lesenswert?

Stefan B. schrieb:
> Klasse ist natürlich auch Input über den Tellerrand hinaus!

Du vermischst hier heftigste backup und Verfügbarkeit. Das hat nichts 
mit einander zu tun.

Backup:
- Nur am Strom es es unbedingt sein muss zum Aktualisieren
- Mindestens zwei Medien die abwechselnd genutzt werden (z.B. irgendwas 
geht während des aktualisierens total schief und original und backup 
sind hinüber)
- Im ideal - Aufbewahrung an einem anderen Ort (z.B. Wohnungsbrand)
- Garantiert nicht von irgendwo anderes zugreifbar (der freundliche 
Hacker von nebenan ist gerne beim unbrauchbar machen der Daten 
behilflich).

Generell hierbei zu überlegen:
- Es hilft sich mal zu überlegen was ändert sich von den Daten 
regelmäßig und muss öfters aktualisiert werden und was sind Archivdaten 
die sich sowieso nie mehr ändern. Kann den regelmäßigen Aufwand schon um 
etliches reduzieren.
- Wie viele "Generationen" der Daten will man ggf. als Backup auf Lager 
haben. So ein Virus kann sich bis man es merkt schon eine ganze Zeit im 
System befinden und dann ist man ggf.  froh, wenn  auch noch Daten 
vorrätig hat die schon etwas älter sind und nicht befallen sind.
Und ja, diese Form der Sicherheit kostet Geld in Form von Arbeit und 
Hardware...

Verfügbarkeit:
- RAID-Controller um bei dem Ausfall einer Platte noch weiter arbeiten 
zu können und sonst nichts! Ein Fehler der dir die Partition zerschießt 
oder ein Virus usw. und alles ist hinüber. Es reduziert aber 
gelegentlich die Wahrscheinlichkeit das man das Backup einspielen muss 
blos weil eine Platte einen Hardwaredefekt hat - aber es gibt mehr als 
genug fälle wo es eben nicht von Datenverlust schütz (Ein RAID ersetzt 
keine Backup!)
- Zentrale Datenablage für mehrere Nutzer (das dürfte die Hauptanwendung 
für eine NAS sein).
- Fernzugriffe: Da sollte man sich arg gut überlegen ob das wirklich. 
Nur Daten auf die keine Physikalischer Zugriff besteht sind halbwegs 
sicher. Ggf. kann es hier durchaus sinnvoll sein zwei Wege zu gehen je 
nach Daten.
Gerade wenn du Gewerblich unterwegs bist solltest du eher doppelt 
vorsichtig sein als irgendwas unnötig per Fernzugriff freizugeben (noch 
übler wird das Thema Kundendaten und so wenn du die auch noch 
unzureichend geschützt auf fremden Servern lagerst). Ein Randthema 
hierbei sind auch noch Aufbewahrungsfristen, du darfst einige garnicht 
"ewig" lagern...
Wenn es nur für Privat ist hast du zwar die Probleme mit dem Datenschutz 
nicht so extrem, aber da würde ich freiwillig niemals was für 
Fernzugriff freigeben.
- usw.

Beitrag #6573137 wurde von einem Moderator gelöscht.
von Flip B. (frickelfreak)


Lesenswert?

heftiger plan. Vermutlich macht der erste verschlüsselungstrojaner alles 
auf einmal kaputt?

von btrfs Fanboy (Gast)


Lesenswert?

Flip B. schrieb:
> heftiger plan. Vermutlich macht der erste verschlüsselungstrojaner
> alles auf einmal kaputt?

Nur wenn er es über N Snapshots nicht bemerkt..

von ●DesIntegrator ●. (Firma: FULL PALATINSK) (desinfector) Benutzerseite


Lesenswert?

hier gibt es nur eine Lösung:

wer "den Computer beigebracht" bekommt,
wird sofort auch für ein selbstständiges Backup angelernt.

Ich war ehemals so dumm und hatte Mutterns Bilder einer Reise
mit ein eines meiner Backups aufgenommen.

Aus dem Drama, das sich durch das Fehlen von nur ein paar
der ca 200 Bilder ergab, reifte der Entschluss NIE WIEDER
für Daten als für die eigenen Zuständig zu sein.

Der Fehler lag letztlich darin, dass vorher fest behauptet wurde,
dass im "Bilder-Ordner" alle drin wären.
Erst nach einem langwierigen Auslesen der defekten Platte kamen die
restlichen Bilder in einem gänzlich anderen Unterorder zutage

von Und was dann? (Gast)


Lesenswert?

Stefan B. schrieb:
> Guten Morgen verehrte Community,
>
> prima wäre eine durchdachte Backup-Strategie für die ganze Familie. Habe
> versucht mich dazu hier bzw über google/reddit einzulesen aber selbst
> nach längerer Recherche sind noch ein paar Fragen offen.
>
> Zu den Daten:
> 1. Prio1 Daten [20GB] (Auch in Papierform/DVD vorrätig) -
> Überlebensnotwendige Daten/Unterlagen. Erneute Archivierung würde 1-2
> Wochen Arbeit beanspruchen.
> 2. Prio2 Daten [3TB] - Hoher persönlicher Wert
> (Urlaubs/Einschulungs/Hochzeitsvideos/Familienfotos)
> 3. Prio3 Daten [15TB] - RAW-Dateien der Spiegel-Reflex bzw. 4k
> Camcorder, welche sich über die Jahre angesammelt haben
>



Ohhhh, tu Matsch Prosa!

von Peter D. (peda)


Lesenswert?

Stefan B. schrieb:
> prima wäre eine durchdachte Backup-Strategie für die ganze Familie.

Ich würde das erstmal eruieren, ob auch alle damit einverstanden sind, 
ihre privaten Daten öffentlich zu machen.
Und falls ja, muß man sich was für die Smartphones einfallen lassen, 
denn die werden ja die hauptsächlichen Datenquellen sein.

Stefan B. schrieb:
> 3. Prio3 Daten [15TB] - RAW-Dateien der Spiegel-Reflex bzw. 4k
> Camcorder, welche sich über die Jahre angesammelt haben

Man kann die Datensammelwut auch übertreiben. Alles, was nicht zeitnah 
bearbeitet wurde, schaut sich auch nie wieder jemand an.
Wichtig ist eine übersichtliche Sortierung, damit man auch was 
wiederfindet.

von Patrick C. (pcrom)


Lesenswert?

Habe gerade unseres geschaeft mittels Synology NAS ausgestattet. Die 
backupsoftware von Synology (Active Backup for Business / Hyperbackup) 
funktioniert prima und professionel (nicht sicher ob die an DS220j 
lauft; selber checken). Dabei werden auch bare-metal backups von 50 PCs 
gemacht. License ist einbegriffen beim kaufen der Synology.

Bottleneck bei unseres geschaeft : Internet geschwindigkeit. Kein fibre 
vorhanden und kein 5G. Maximalgeschwindigkeit fuer UPLOAD max 5MByte/s 
(meistens 10% von DOWNLOAD). Pro tag ist das also weniger also ~1TB.

Die Synology devices unterstuzen mehrere RAID combinationen; wir 
benutzen meistens SHR. Mehr docu auf Synology website, sowie auch wie 
man sich schuetzen kann gegen Randomware und verschluesselte backups im 
Cloud.

Grusz Patrick aus die Niederlaende.

von A. S. (Gast)


Lesenswert?

Peter D. schrieb:
> Man kann die Datensammelwut auch übertreiben. Alles, was nicht zeitnah
> bearbeitet wurde, schaut sich auch nie wieder jemand an.

Ja. Meist ist man froh, wenn die 5 TB der 7ten Asienreise 
unwiederbringlich verloren sind. Im RL zeigen Wohnung oder Haus die 
natürliche Grenze zu Messi oder Hochregallager.

Digital bekommt man jährlich einen Container in den der bisherige Kram 
und nochmal soviel neuer reinpasst.

von Stefan B. (Gast)


Lesenswert?

Hallo & tausend Dank an Alle!

Gerne würde ich jedem persönlich eine Antwort posten, falls das hier 
erlaubt ist.

@OldMan
zu
1. Genau mein Gedanke. Also eher eine USB-HDD an der NAS betreiben und 
diese dann halbjährlich mit der Tresor-HDD spiegeln.
2. Der Tipp war eine Recherche wert! Habe mich dann für ein reines 
Synology-Setup entschieden
3. Also bin ich doch nicht paranoid :-)

zu den HDDs: Obwohl sich da die Meinungen teilen (insbesondere zum 
Rebuild), setze ich auf HDDs unterschiedlicher Hersteller.

von Hoorst (Gast)


Lesenswert?

Überspringe die ersten vier Punkte und nimm das...

Stefan B. schrieb:
> 5. Zombie-Apokalypse

...als wahrscheinlichstes Szenario. Einfach auch zum Zombie werden, dann 
sind die Daten auch nicht mehr wichtig ;) (SCNR)

Irgend W. schrieb:
> Du vermischst hier heftigste backup und Verfügbarkeit.

Exakt. Zurück auf null.

von A. S. (Gast)


Lesenswert?

Stefan B. schrieb:
> zu den HDDs: Obwohl sich da die Meinungen teilen (insbesondere zum
> Rebuild), setze ich auf HDDs unterschiedlicher Hersteller.

ist auch richtig, nennt sich common cause failure (den es zu vermeiden 
gilt)

von Nano (Gast)


Lesenswert?

Stefan B. schrieb:
> @OldMan
> zu
> 1. Genau mein Gedanke. Also eher eine USB-HDD an der NAS betreiben und
> diese dann halbjährlich mit der Tresor-HDD spiegeln.

Nein. An das NAS gehören ordentliche NAS SATA oder SAS Platten.
Die Backups kannst du dann auf Festplatten über USB machen.

Die wichtigen 1. Prio1 Daten würde ich zusätzlich noch auf optische 
Datenträger wegsichern. Das sind nur 20 GB, da geht das via M-Disc, 
BluRay oder DVD-RAM ganz gut.

Grund:
Deine Anforderung bezüglich EMP Schutz.

Eine Festplatte kann da kaputt gehen. Bei optischen Datenträgern geht 
nur das Laufwerk kaputt, nicht aber die Daten auf den Medien.

Beachte allerdings, dass du bei optischen Datenträger ordentliche 
Datenträger aus nicht organischem Material benötigst.
Ebenso brauchst du mindestens 2 verschiedene Laufwerke verschiedener 
Hersteller, die du abwechselnd zum Lesen und Schreiben nutzt und dann 
musst du mit dem anderen Laufwerk die Daten überprüfen, ob dieses die 
Daten überhaupt lesen kann.
Denn Datenträger, die an ein bestimmtes Laufwerk gebunden sind, also mit 
denen man sie beschrieben hat, führen zu keinem EMP Schutz.

Zudem kann es noch Sinn machen PAR2 zu verwenden:
https://de.wikipedia.org/wiki/PAR2


Bezüglich Wasserschaden.
Wenn du das NAS im Keller aufstellst, dann achte darauf, dass du es 
möglichst in Deckennähe aufstellst bzw. hinhängst.
1 m Abstand zum Fußboden wäre das minimum, aber das kann lokal ganz 
unterschiedlich sein.
Wenn du neben einem Fluss im Tal wohnst, würde ich das NAS besser im 
Dachboden platzieren.


> 2. Der Tipp war eine Recherche wert! Habe mich dann für ein reines
> Synology-Setup entschieden

Deine Wahl war:
https://www.youtube.com/watch?v=VA7J0KkanzM

Ich schließe mich Oldman an.
TrueNAS mit ECC RAM, dank ZFS kein Bit Rotting.
Dazu ordentliche Serverhardware von Supermicro.

> zu den HDDs: Obwohl sich da die Meinungen teilen (insbesondere zum
> Rebuild), setze ich auf HDDs unterschiedlicher Hersteller.

Nein, beim NAS sollte man die gleichen HDs verbauen.
Allerdings macht es Sinn, sie aus unterschiedlichen Chargen zu nehmen.

Lösung:
Festplatten bei verschiedenen Händlern bestellen.

Ich habe in meinem NAS bspw. 6 x 4 TB Platten.
3 Platten habe ich bei Händler A, 3 weitere bei Händler B gekauft.
Somit sind die Chargen unterschiedlich, aber die Platten Typgleich.

Und Natürlich sollten sie NAS taugliche Platten sein.
Z.B. "WD RED Plus".
Das Plus ist wichtig, nur RED würde ich nicht nehmen.

Noch ein Tipp, beim Händler CSV Computer habe ich nur schlechte 
Erfahrungen gemacht. Insbesondere im Bezug auf Festplatten und 
Gewährleistung. Ja, das ist einer der Händler, der bei mir versucht hat, 
mich zu einer Garantieabwicklung beim Hersteller zu bewegen, anstatt, 
dass er seinen Gewährleistungspflichten nachkommt und die Platten 
einfach umtauscht. Bei mir hat er die Note 6.

Bei Mindfactory habe ich ebenfalls schlechte Erfahrungen gesammelt. Kann 
ich also auch nicht empfehlen.


Bei Backupfestplatten ist es egal, ob du verschiedene Hersteller nimmst.
Wichtig ist da nur, dass du hinterher nach dem beschreiben die Daten 
auch verifzieren, also lesen solltest.
Außerdem sollte man mehrere Backups haben.
Mindestens 2 und dann noch weitere aus unterschiedlichen Zeiten.

von Stefan B. (Gast)


Lesenswert?

Hallo Irgend W.,

das sind gute Gedanken, Danke dafür. Ein RAID ist kein Backup, korrekt. 
RAID5 wollte ich nutzen um die Wahrscheinlichkeit zu erhöhen 
unkompliziert das Ursprungssystem wiederherzustellen. Generationenbackup 
kannte ich bis jetzt noch nicht aber klingt sehr vernünftig. Tägliches, 
inkrementelles Backup auf die zwei NAS sollte schon sein, wobei die 
Verfügbarkeit nicht im Vordergrund steht. Selbst wenn die Daten für 2-3 
Tage out of order wären, ist das kein Beinbruch.

Das ein Fernzugriff genauso kritisch betrachtet wird, wie 
cloudbasierende Lösungen (muss ja nur der Schlüssel bekannt sein) gibt 
zu denken und sollte wohl aufs Notwendigste reduziert sein. Bin da ganz 
bei deinem Standpunkt.

von Stefan B. (Gast)


Lesenswert?

Hallo Des I.,

das ist bedauerlich. Denke aber es kann nicht verkehrt sein eine 
richtige Backup-Mentalität vorzuleben und betroffene Personen etwas an 
der Hand zu nehmen, da die Foren voll sind von Katastrophen in denen mit 
oder ohne NAS auf einmal wichtige/private Daten weg sind.

Letztendlich sollte jeder (Familien)User seine eigene, verschlüsselte 
"NAS-Cloud" haben (auf die ich ebenfalls kein Zugriff habe), auf die 
automatisiert die Fotos/Videos/Kontakte vom Handy und das Backup vom PC 
gesynct werden. Natürlich gibt es auch ein Familienordner mit 
Fotos/Momente usw. für alle.

von OldMan (Gast)


Lesenswert?

Stefan B. schrieb:
> Genau mein Gedanke. Also eher eine USB-HDD an der NAS betreiben und
> diese dann halbjährlich mit der Tresor-HDD spiegeln.

Ich hatte genau das Gegenteil geschrieben!
Kein Datenaustausch über USB Festplatten!

Hättest Du dich nur mal ansatzweise mit TrueNAS und vor allem mit dem 
ZFS beschäftigt, dann hättest Du erkennen können, dass Du keine 
Festplatten durch die Landschaft tragen musst. Der Server im Tresor muss 
selbstverständlich via LAN erreichbar sein, sonst bringt das alles nix.
Meine persönliche Meinung:
Synology oder wie sie sich sonst nennen, sind nur Klickybunti "Systeme" 
denen ich nie meine Daten anvertrauen würde. Das ist Spielzeug.

von Stefan B. (Gast)


Lesenswert?

Hallo Patrick C.,

Software/Lizenzen waren auch ein gewichtiger Grund für die Entscheidung 
von Synology Geräten. Vielen Dank für das Schlüsselwort SHR/Randomware, 
werde mich einlesen. Cloud sehe ich leider doch etwas 
kritisch/konservativ, wenngleich preislich sehr attraktiv (6TB für 
60€/Jahr von Microsoft)

Viele Grüße in die Niederlande!

von Stefan B. (Gast)


Lesenswert?

Hallo Peter D, hallo A.S.,

Redundanz sollte natürlich vermieden werden (7te ausführlichst 
dokumentierte Asienreise). Jedoch ist der Gedanke schön Erinnerungen wie 
die ersten Schritte, das erste Fußballspiel, die erste eigene Wohnung 
der Kinder usw. zu behalten und den nächsten Generationen weitergeben zu 
können. Was würde ich dafür tun diesbezüglich Einblicke in das Leben 
meiner Großeltern/Urgroßeltern usw. zu haben. Spannender als jeder 
0815-Tatort.

von Karl (Gast)


Lesenswert?

OldMan schrieb:
> Synology oder wie sie sich sonst nennen, sind nur Klickybunti "Systeme"
> denen ich nie meine Daten anvertrauen würde. Das ist Spielzeug.

Egal wo du deine Daten versteckst, ich werde sie dir rauben!

von Stefan B. (Gast)


Lesenswert?

Hallo Nano,

vielen Dank für deinen produktiven Input, war sehr interessant zu lesen!

Werde in jedem Fall BlueRay-Discs zusätzlich in den Stahl-Tresor packen 
und diese regelmäßig erneuern. Verkehrt kann das nicht sein. Deine 
zusätzlichen Informationen zu zwei verschiedenen Laufwerken usw. sind 
mir neu aber werde ich ebenfalls beherzigen.

Spricht denn etwas (außer Diebstahl) dagegen das NAS im Wohnzimmer 
aufzustellen, um den Problemen wie Feuchtigkeit (Keller) und 
Temperaturdifferenzen (Dachboden) zu umgehen und ein konstantes Umfeld 
für das NAS zu schaffen?

Das verlinkte Video lässt einen schmunzeln. Die Begriffe ZFS bzw Bit 
Rotting waren mir leider gänzlich neu aber bei allem was man dazu ließt 
klingt das genial und scheint längerfristig die einzig sinnvolle Option 
zu sein.

Welcher Grund würde denn gegen Festplatten gleicher Größe von 
unterschiedlichen Herstellern sprechen? Dass die langsamste HDD der 
Flaschenhals für den ganzen Verbund darstellt, kann man verschmerzen. 
Falls ich das nicht falsch verstanden habe, geht es in diesem Punkt 
vorrangig um das waghalsige Rebuild?! Um die Beanspruchung der Platten 
beim Rebuild niedrig zu halten, würde ich die Schreibgeschwindigkeit 
reduzieren.

Werde wohl mittelfristig bei Synology bleiben, da gewisse Vorteile 
aktuell überwiegen (hoffentlich wird das nicht die Achillessehne sein) 
aber trotzdem Danke für deine wichtigen Hinweise zu optischen Medien und 
der Notwendigkeit zweier Backups von unterschiedlichen Generationen. 
Sehe ich ebenfalls als must-have an!

von Karl (Gast)


Lesenswert?

Stefan B. schrieb:
> Das ein Fernzugriff genauso kritisch betrachtet wird, wie
> cloudbasierende Lösungen (muss ja nur der Schlüssel bekannt sein) gibt
> zu denken und sollte wohl aufs Notwendigste reduziert sein.

Völlige Paranoia. Entweder man geht davon aus, das Verfahren wie VPN 
ausreichend sicher sind, oder man trennt die Geräte und das Netz die 
Zugriff auf die Daten haben völlig vom Internet ab.

von Stefan B. (Gast)


Lesenswert?

OldMan schrieb:
> Stefan B. schrieb:
>> Genau mein Gedanke. Also eher eine USB-HDD an der NAS betreiben und
>> diese dann halbjährlich mit der Tresor-HDD spiegeln.
>
> Ich hatte genau das Gegenteil geschrieben!
> Kein Datenaustausch über USB Festplatten!
>
> Hättest Du dich nur mal ansatzweise mit TrueNAS und vor allem mit dem
> ZFS beschäftigt, dann hättest Du erkennen können, dass Du keine
> Festplatten durch die Landschaft tragen musst. Der Server im Tresor muss
> selbstverständlich via LAN erreichbar sein, sonst bringt das alles nix.
> Meine persönliche Meinung:
> Synology oder wie sie sich sonst nennen, sind nur Klickybunti "Systeme"
> denen ich nie meine Daten anvertrauen würde. Das ist Spielzeug.

Hallo Oldman,

danke das du dich nochmal zu Wort gemeldet hast. Die Hinweise von dir 
und Nano zu TrueNAS/ZFS/Bit Rotting sind wahrscheinlich in diesem Thread 
mit die Wichtigsten, wenn man es richtig machen möchte. Der Tresor für 
die (Notfall) HDD ist Strahlungs/Wasser/Feuerbeständig, weshalb leider 
keine Möglichkeit besteht eine (W)LAN-Verbindung dazu herzustellen.

Zugegebenermaßen sind Synology usw. Klickybunti "Systeme" und in 
gewisser Weise auch Spielzeug (wenngleich auch sehr schönes Spielzeug) 
aber lass mir dir bitte gesagt sein, dass deine Daten niemals sicher 
sind. Datenraub würde bedeuten, dass private Fotos/Alben, archivierte 
Dokumente (Fahrzeugbrief/Versicherungsscheine/usw) in den Händen eines 
Anderen sind, was für den Dieb in unserem Fall keinen wirtschaftlichen 
Vorteil mit sich bringen würde uns somit obsolet ist. Hier dreht es sich 
Gott sei Dank nicht um brisante Geschäftsdaten, sonst wäre ich wohl ganz 
paranoid.

von Stefan B. (Gast)


Lesenswert?

Karl schrieb:
> Stefan B. schrieb:
>> Das ein Fernzugriff genauso kritisch betrachtet wird, wie
>> cloudbasierende Lösungen (muss ja nur der Schlüssel bekannt sein) gibt
>> zu denken und sollte wohl aufs Notwendigste reduziert sein.
>
> Völlige Paranoia. Entweder man geht davon aus, das Verfahren wie VPN
> ausreichend sicher sind, oder man trennt die Geräte und das Netz die
> Zugriff auf die Daten haben völlig vom Internet ab.

Wie darf man das verstehen? Naiv gedacht: Wenn mein gesamter 
Datenbestand verschlüsselt auf einer Cloud liegt, fehlt nur noch der 
Schlüssel um an die Daten zu kommen.

Liegen die Daten verschlüsselt auf meinem NAS, so fehlt nicht nur der 
Schlüssel dazu, sondern der gesamte Datenbestand müsste zunächst einmal 
übertragen werden.

Ist das nicht ein großer Unterschied, was die Datensicherheit angeht?

von Nano (Gast)


Lesenswert?

Stefan B. schrieb:
> Spricht denn etwas (außer Diebstahl) dagegen das NAS im Wohnzimmer
> aufzustellen, um den Problemen wie Feuchtigkeit (Keller) und
> Temperaturdifferenzen (Dachboden) zu umgehen und ein konstantes Umfeld
> für das NAS zu schaffen?

Nein, du kannst das NAS natürlich auch im Wohnzimmer aufstellen.
Wenn es Lüfter haben sollte, achte darauf, dass sie leise sind.

Die Küche sollte allerdings vom Wohnzimmer räumlich getrennt sein, denn 
das  Fett von der Bratpfanne willst du beim Braten nicht in den Lüftern 
deiner NAS im Wohnzimmer haben.

Bezüglich Diebstahl habe ich noch einen wichtigen Punkt vergessen.
Du hast ja erwähnt, dass du es auch für integrierte Überwachungskameras 
nutzen möchtest.
Beachte hierbei bitte, dass professionelle Einbrecher die Datenträger 
deines NAS dann mitnehmen oder zerstören werden um möglichst nur wenig 
Spuren zu hinterlassen.
Insofern macht es Sinn, das NAS ausreichend gut mechanisch zu sichern, 
so dass ein zeitlicher Aufwand notwendig ist, um an die Datenträger zu 
kommen.

Ein NAS in einem Tresor ist somit eine gute Wahl, sofern das NAS darin 
ausreichend gekühlt werden kann. Notfalls müssen eben Lüftungsschlitze 
rein.
Ein Einbrecher würde dann vielleicht Wasser in die Schlitze laufen 
lassen, die Datenträger sollten dann positioniert sein, dass da kein 
Wasser hinkommen kann.
Ebenso sollte der Tresor im Boden oder mit der Wand verankert sein.

> Das verlinkte Video lässt einen schmunzeln.

:)


> Die Begriffe ZFS bzw Bit
> Rotting waren mir leider gänzlich neu aber bei allem was man dazu ließt
> klingt das genial und scheint längerfristig die einzig sinnvolle Option
> zu sein.

Ja, ZFS ist hier eines der wenigen Dateisysteme, dass dagegen immun ist.
Zu Bit Rot findest du in der Wikipedia noch etwas:
https://en.wikipedia.org/wiki/Data_degradation

> Welcher Grund würde denn gegen Festplatten gleicher Größe von
> unterschiedlichen Herstellern sprechen?

RAID

Du willst ja die Daten sicher irgendwie spiegeln oder bei RAID 5 mit 
einer weiteren Platten Integritätsdaten erhalten, so dass du bei Ausfall 
einer Platte die Daten rekonstruieren kannst.
Wenn die Platten sich technisch groß unterscheiden, dann arbeiten die 
auch nicht besonders gut zusammen. Das fängt schon bei der 
unterschiedlichen Schreib- und Lesegeschwindigkeit an, oder der Cache 
Größe.
Deswegen würde ich da nur baugleiche Platten verbauen.

Besonders schlimm dürfte sich das dann beim Rebuild auswirken, also wenn 
eine Platte kaputt ist und nun die Daten wieder auf eine neue Platte 
redundant gespeichert werden soll.
Beim Rebuild ist die Chance übrigens am größten, dass dir dann gleich 
auch noch die andere Platte ausfällt. Wenn du also auf Nummer sicher 
gehen willst, dann solltest du besser RAID 6 verwenden, wo dann noch bis 
zu zwei Platten ausfallen können.

> Dass die langsamste HDD der
> Flaschenhals für den ganzen Verbund darstellt, kann man verschmerzen.
> Falls ich das nicht falsch verstanden habe, geht es in diesem Punkt
> vorrangig um das waghalsige Rebuild?! Um die Beanspruchung der Platten
> beim Rebuild niedrig zu halten, würde ich die Schreibgeschwindigkeit
> reduzieren.

Bei Festplatten sind der häufige Wechsel des Schreib- und Lesekopf das 
Problem, beim Rebuild wird die Platte diesbezüglich besonders stark 
beansprucht.
Falls du auf deine 3. Prio3 Daten verzichten könntest, wären aber SSDs 
eine noch mögliche Option.
Denn nur 3 TB sollte man mit denen durchaus bezahlbar noch sichern 
können.
Die haben den Vorteil, das sie etwas robuster sind.

> Werde wohl mittelfristig bei Synology bleiben, da gewisse Vorteile
> aktuell überwiegen (hoffentlich wird das nicht die Achillessehne sein)

Mit TrueNAS kannst du ebenfalls, außer der reinen Datenspeicherung und 
NAS Nutzung, weitere Dienste laufen lassen und nutzen.

Hier gibt's einen Überblick:
https://www.truenas.com/plugins/
Ein großer Vorteil ist aber, dass die CPU dann auch dafür viel mehr 
Leistung haben wird.
Außerdem ist es viel leichter mehr Datenträger anzuschließen.

So ein Supermicro Mainboard kommt bspw. mit 6-8 SATA Anschlüsse.

Ein Synologygerät, wo man 6 bis 8 Platten anschließen kann, wird dagegen 
richtig teuer.

von Karl (Gast)


Lesenswert?

Stefan B. schrieb:
> Wie darf man das verstehen? Naiv gedacht: Wenn mein gesamter
> Datenbestand verschlüsselt auf einer Cloud liegt, fehlt nur noch der
> Schlüssel um an die Daten zu kommen.
>
> Liegen die Daten verschlüsselt auf meinem NAS, so fehlt nicht nur der
> Schlüssel dazu, sondern der gesamte Datenbestand müsste zunächst einmal
> übertragen werden.

a) der Coludanbieter hat auch noch ein paar Sicherheitsmechanismen um 
den Zugriff durch 3 zu unterbinden.
b) Wenn man dem Cloudanbieter nicht vertraut, kann man kann man genauso 
dem Anbierter des Betriebssystem mistrauen.
c) Wenn jemand die Ressourcen hat den Schlüssel zu knacken und auf deine 
Daten aus ist, wird er Sie sich hohlen, ich würde deine Urlaubsfotos 
aber nicht für so wichtig halten.
d) Die Datenübertragung kann im Hintergrund laufen, ohne dass du es 
merkst.



> Ist das nicht ein großer Unterschied, was die Datensicherheit angeht?

Kein Unterschied, siehe oben. Außerdem weiß Google durch deine 
Suchanfragen mehr über dich, als wenn sie deine Urlaubsfotos auswerten 
würden.

von Nano (Gast)


Lesenswert?

Der Haken an kommerziellen Cloudanbietern ist im Wesentlichen, dass sie 
Geld kosten, wenn man größere Datenmengen speichern will.
Bei Firmendaten kommen noch so Sachen wie DSGVO hinzu, aber die kriegen 
eh keine kostenlosen Cloud Dienste, da kostet es immer.

Mit deinem NAS kannst du natürlich auch deinen eigene Cloud machen und 
über deine langsame Internetleitung nach draußen anbieten.
Bei TrueNAS gibt's dafür das Plugin NextCloud, dann hat man ne 
Oberfläche wie bei jedem anderen Cloudanbieter auch.

Siehe:
https://nextcloud.com/

Der Haken ist allerdings, dass die eigene Internetleitung in der Regel 
nicht sehr schnell ist und auch keine großen Uploadraten erlaubt.
Wenn du also Fotos mit deiner alten Schulklasse teilen willst, dann wird 
das über deine eigene Cloud sehr langsam gehen, weil die Uploadrate 
einfach viel zu schlecht ist.
Das gilt erst Recht für Deutschland, es sei denn du hast einen 
Glasfaseranschluss, dann kann der natürlich etwas höher sein.

Der andere Haken ist, dass du dich um die Sicherheit selber kümmern 
musst.
In deinem Router kannst du einen Port, der den Zugriff auf das Nextcloud 
Webinterface erlaubt, weiterleiten.
Mit TrueNAS ist man hier auch sehr flexibel, weil man bspw. in das 
eigene NAS eine weitere Netzwerkkarte einbauen könnte, diese in ein 
eigenes vLAN stopfen könnte, dann Firewallregeln anlegen könnte, die 
alles sperrt, bis auf den Zugriff auf die NextCloud Software bzw. den 
Webserver dafür und auf dem Router macht man dann für diese eine NIC 
eine DMZ.
Und schon hat man das recht sauber getrennt und halbwegs brauchbar 
abgeschottet.

Viele Supermicro Mainboards kommen zudem noch gleich mit 2 NICs, da kann 
man das gleich umsetzen. Allerdings ist bei Intel NICs wegen der Intel 
Mangement Engine Vorsicht angesagt, wenn die CPU das supported. Da macht 
dann eine separate PCIe NIC mehr Sinn.

Und dennoch bleibt trotz Firewall und Begrenzung auf die allernötigsten 
Dienste, die nach außen weitergeleitet werden, ein Restrisiko, wenn man 
das NAS ins Internet hängt.
Software kann nämlich Sicherheitslücken haben.
Angefangen bei 0Day Sicherheitslücken bis hin zur Wartezeit bis es 
Patches gibt und die auf das System drauf kommen.
Und da man sein eigenes NAS nicht rund um die Uhr supporten kann, ist 
man hier gegenüber professionellen Clouds im Nachteil.
Die achten 24 h auf die Server und haben dafür halt entsprechend viele 
Admins eingestellt, die dann im Schichtdienst arbeiten.

von A. S. (Gast)


Lesenswert?

Stefan B. schrieb:
> Redundanz sollte natürlich vermieden werden (7te ausführlichst
> dokumentierte Asienreise). Jedoch ist der Gedanke schön Erinnerungen wie
> die ersten Schritte, das erste Fußballspiel, die erste eigene Wohnung
> der Kinder usw. zu behalten und den nächsten Generationen weitergeben zu
> können. Was würde ich dafür tun diesbezüglich Einblicke in das Leben
> meiner Großeltern/Urgroßeltern usw. zu haben. Spannender als jeder
> 0815-Tatort.

Das Verstehe ich nur zu gut. Nur leider überschreitet man sehr schnell 
einen Punkt, wo das ganze nur noch Last ist. 1h Super 8, oder 10h oder 
auch 20h, da freut sich jeder. 100h, da guckt man ein paar Szenen an und 
packt den Rest in die Kiste zurück. Und entsorgt sie irgendwann, wenn es 
nicht zerbröselt.

Bei Kindern macht man ja den Jahreskalender mit je einem Foto pro Monat 
des Vorjahres. Da sitzt Du im ersten Jahr und möchtest jeden Monat 100 
auswählen. Aber auch dort lieber eines (oder eine ganz kleine Collage). 
Wenn die Kinder 20 sind, hast Du 240 Fotos und kannst aus denen die 
besten 10 für eine Hochzeitszeitung oder so zusammenstellen.

Ich glaube viel wichtiger als die Masse ist es, die Fotos auch irgendwie 
"ankern" zu können, also sie mehrfach mal zu sehen. Und die wenigen dann 
gerne auch archivieren.

von _Gast (Gast)


Lesenswert?

Hm,


1) Externer Zugriff würde ich mir sehr, sehr, sehr genau überlegen, es 
gibt immer wieder Sicherheitslücken, auch in der besten Software. Im 
besten Fall gibt es Updates, im schlechtsten Fall ist das Produkt EOL 
und dann heist es neukaufen. Dies trifft vor allem auf fertige 
NAS-Lösungen zu. Im Endeffekt läufst du immer hinterher.

2) Moderne Festplatten ab ca. 8TB haben fast alle eine Heliumfüllung, 
die hält nicht ewig, weil das Helium sich verflüchtigt! Also eigentlich 
ein eingebautes Verfallsdatum! Wenn man nur die Netto-Kapazität 
nachkaufen müsste, wäre das ansich ok, wenn aber Redundanz im Spiel ist 
wird es schnell teuer!

3) Ich würde keine fertige NAS-Lösung nehmen, zum einen wegen Möglicher 
Sicherheitslücken und eingestellten Support, zum anderen kann es sein, 
das die Platten in irgendeinen komischen inkompatiblen Format formatiert 
werden!

4) Aufzeichnungsverfahren der Festplatten beachten! Bei SMR, werden die 
Daten überlappend gespeichert, was die Kapazität erhöht, allerdings muss 
immer der gesamte Block neu geschreiben werden, was die Sache ziemlich 
ausbremst, bzw. es gibt auch Fälle in denen die Platte aus dem Raid 
fliegt, weil diese zu lange braucht. (CMR sollte es sein)

5) Platten aus unterschiedlichen Chargen kaufen, oder verschiedenen 
Herstellern. Achtung aktuell gibt es nur noch 3 Hersteller Weltweit. WD, 
Seagate und Toshiba.

6) Achte auf den Versand, wenn die Platte nicht stoßsicher verpackt 
versendet wird, reklamieren und Verkäufer meiden. Amazon ist hier 
grenzwertig, am besten Retail Ware kaufen, hier gibt es einen schicken 
Umkarton vom Hersteller. Bulk kommt auf der Palette. Hier kann man zwar 
nicht verhindern, was beim Versender intern geschieht, aber wer eine 
Festplatte mit einen Streifen Packpapier in einen Riesenkarton steckt, 
wird hier intern bestimmt nicht aufpassen.

7) Testen, Testen, Testen!
D.h. Raid erstellen, Testdaten drauf, dann Platte austauschen und 
Rebuild versuchen. Fein ist auch ein Raid-Set in einer anderen Maschine 
versuchen einzubinden.

von Thomas B. (franzbing)


Lesenswert?

Die Verschlüsselung finde ich sehr wichtig. Zur Verschlüsselung verwende 
ich LUKS und darin ext4. Werde auch den Heimserver umstellen, denn wenn 
ein Dieb den stiehlt... Ein AMD Athlon X2 64 mit ca. 2,3GHZ ist als 
Serverprozessor hinreichend leistungsfähig, doch mit Verschlüsselung der 
Zielplatte dauert es viele Stunden länger. Ein i5 3570 ist da schon 
deutlich schneller.
Ich transportiere die Backupplatten in einen entfernten Haushalt.

In der Firma verwenden wir AES-256-verschlüsselte LTO-8-Tapes; das Drive 
verschlüsselt. Die Tapes sind leicht zu transportieren und im Safe 
belegen sie kaum Platz. SW ist die amanada. Die Daten werden über das 
Netz vom NAS geholt, über 2er-Bond. Wie es scheint, müssen wir noch den 
Host anpassen an den Datenhunger des LTO. Also kostspielige Lösung.

Das beste backup nutzt nur, wenn es seine Restore-Fähigkeit bewiesen 
hat. Eine Bedienungsanleitung für Admin und Co-Admin sollte vorliegen. 
In Papier und auf dem Smartphone.
Disaster Recovery: falls der Backupserver abraucht mitsamt allen 
spezifischen Schnittstellen - der Neuaufbau muss zum Backupmedium 
passen.

von oszi40 (Gast)


Lesenswert?

Thomas B. schrieb:
> der Neuaufbau muss zum Backupmedium passen.

Das heißt auch, dass in einigen Jahren noch ein altes Backup ausgegraben 
werden könnte, falls sich in der Zwischenzeit FEHLER in die Daten 
eingeschlichen haben sollten. Dateien nicht einfach kopieren, sondern 
sichern mit Originaldatum! An sicherem Ort lagern. Immobiliendaten 
müssen z.B.100 Jahre archiviert werden ... Viel Spaß mit exotischen 
Lösungen!

Neue Platten sollte man (mit "etwas" Geduld) vor der ernsthaften 
Benutzung schon mal vollgeschrieben haben (z.B. mit H2testw). Oft kam 
das "dicke Ende" erst, wenn die Platte fast voll war, weil dort die 
Spuren kürzer sind. Außerdem gibt es bei Ausfällen die berüchtigte 
"Badewannenkurve" bestehend aus Frühausfällen und Alterserscheinungen.

von Realist (Gast)


Lesenswert?

Hallo

Stefan B. schrieb:
> Letztendlich sollte jeder (Familien)User seine eigene, verschlüsselte
> "NAS-Cloud" haben (auf die ich ebenfalls kein Zugriff habe), auf die
> automatisiert die Fotos/Videos/Kontakte vom Handy und das Backup vom PC
> gesynct werden. Natürlich gibt es auch ein Familienordner mit
> Fotos/Momente usw. für alle.


Eigentlich hast du recht...
Aber wie man auch in diesen Forum hier sieht (aber auch in "1000" 
anderen) haben selbst wir "Nerds" und so manche Profis immer wieder 
Fragen zur Datensicherung und zur jeweils richtigen Backupstartegie, es 
werden sich viele Gedanken gemacht und es ist schon ein größerer 
Wissenserwerb mit doch recht steiler Lernkurve erforderlich.

Und das sollen dann alle Familienmitglieder wenigstens ansatzweise auch 
beherrschen?

Schon mit der reinen Nutzung und "Pflege" sind viele überfordert bzw. du 
bist dann letztendlich schuldig wenn sie keine Ordnung halten und 
irgendwas doch verloren geht oder auch nur nicht da ist wo es schon 
"immer" war... - da gibt es keinen Familienbonus (zusätzlich hat der 
ganze "Kram" auch noch viel Geld gekostet und du hast da ja über Tage 
dran rumgehangen also muss es doch funktionieren...)
Illusorisch - letztendlich ist man doch wieder der "Trottel" wenn was 
verloren geht oder nicht funktioniert, man ist ja der "Administrator" 
der kommt doch immer und auf jeden Fall an die Daten heran und hat immer 
Zeit, ist natürlich "allwissend" und immer motiviert...

Zusätzlich (trotz 2021 und "neue" universelle Rollenverteilung) darfst 
du dann neben den defekten Schalter, den Tropfenden Wasserhahn oder den 
"Hilfslehrer" der selbst der "Generation Internet" zeigen muss wie man 
im Netz sucht und Quellen vernünftig auswertet halt noch den 
Datensicherungsspezialist und die Familieninternen "allwissende" 
Müllhalde spielen ("Der Computer und Netzwerkspezialist").

Dabei verliert man nur (auch oder sogar gerade in der Kernfamilie) - 
denn ist man gut wächst die "Familie" sehr schnell an geht irgendwas 
daneben und das ewig gleiche 100fach geknipste "wertvolle" Bild der 
Einschulung ( weder meine noch deine Kinder sind so einzigartig - sein 
wir doch mal ehrlich) geht verloren bist natürlich nur du (und der teure 
Kram von den alle anderen nichts haben...ist doch alles für dein 
Hobby...) der Schuldige...

Realist

von Nano (Gast)


Lesenswert?

oszi40 schrieb:
> Neue Platten sollte man (mit "etwas" Geduld) vor der ernsthaften
> Benutzung schon mal vollgeschrieben haben (z.B. mit H2testw).

Ein Smart long Test prüft die Plattenoberfläche genauso.

Der sollte bei neuen Platten immer Pflicht sein

von Nano (Gast)


Lesenswert?

Realist schrieb:
> Dabei verliert man nur (auch oder sogar gerade in der Kernfamilie) -
> denn ist man gut wächst die "Familie" sehr schnell an geht irgendwas
> daneben und das ewig gleiche 100fach geknipste "wertvolle" Bild der
> Einschulung ( weder meine noch deine Kinder sind so einzigartig - sein
> wir doch mal ehrlich) geht verloren bist natürlich nur du (und der teure
> Kram von den alle anderen nichts haben...ist doch alles für dein
> Hobby...) der Schuldige...

Einfach wichtige Bilder auf optischen Datenträger kopieren und dem 
anderen in die Hand drücke, dann ist der verantwortlich. :)

Insgeheim macht man dann natürlich noch ein Backup auf Festplatten, denn 
man weiß ja selbst, dass das mit den optischen Datenträgern so ne Sache 
ist, aber die anderen wissen es eher nicht. ;)

von oszi40 (Gast)


Lesenswert?

Nano schrieb:
> auf optischen Datenträger kopieren und dem
> anderen in die Hand drücke, dann ist der verantwortlich. :)

Es gibt CDs, die kann man schon nach 5 Minuten nicht mehr lesen. Dann 
bist Du auch wieder schuld. :-) Auf verschiedene Datenträger nochmals 
sichern ist schon mal gut. Noch besser ist natürlich, sie gescheit zu 
beschriften was drin ist und wann gesichert (falls man alten Stand 
sucht).

von michael_ (Gast)


Lesenswert?

oszi40 schrieb:
> Es gibt CDs, die kann man schon nach 5 Minuten nicht mehr lesen.

Aber nur, wenn du zu ..... bist, beim Brennen den Haken zur 
Datenüberprüfung nicht zu setzen.
In den letzten 20 Jahren sind bei mir noch alle Daten auf CD/DVD noch 
da.

von Sheeva P. (sheevaplug)


Lesenswert?

Realist schrieb:
> Eigentlich hast du recht...
> Aber wie man auch in diesen Forum hier sieht (aber auch in "1000"
> anderen) haben selbst wir "Nerds" und so manche Profis immer wieder
> Fragen zur Datensicherung und zur jeweils richtigen Backupstartegie, es
> werden sich viele Gedanken gemacht und es ist schon ein größerer
> Wissenserwerb mit doch recht steiler Lernkurve erforderlich.

Der ganze Thread ist für erfahrene Sysops unfaßbar witzig. Danke Euch 
allen, ich habe lange nicht mehr so gelacht...

Nur so ein paar Tipps: Backup ist langweilig, Restore ist wichtig.

Was sind eigentlich diese komischen Kenngrößen, MTBF, MTTR, MTTA, and 
MTTF?

Und wenn mir einer sagt, daß er 20 GB unverzichtbare Dokumente hat oder 
die ersten Wohnungen seiner Kinder gerne auch dann behalten will, wenn 
der Russe den atomaren Erstschlag... meine Güte.

Ist aber auch eine großartige Idee, Mikrocontrollertypen wegen Backups 
von drölfzig Terabyte zu fragen. Meine Güte.

Beitrag #6575728 wurde von einem Moderator gelöscht.
von Felix (Gast)


Lesenswert?

Schaffe es nicht, das alles zu lesen. Nur als kurzer Impuls mein Setup, 
da meine Anforderungen recht ähnlich sind. Vielleicht wurde manches 
schon gesagt, vielleicht hilft es aber doch.

Ich habe mir selbst ein NAS gebaut. ASRock J3455-ITX  im leeren 
PC-Gehäuse mit Laptop-Netzteil und Spannungskonverter. Daran eine SSD 
und eine große HDD, kein RAID. Installiert ist Ubuntu Server, die 
Dateipartitionen laufen mit ZFS, exponiert über Samba. Ist billiger, 
stabiler und durchschaubarer als der QNAP, den ich vorher hatte. Warum 
soll ich die krude Logik von QNAP und Synology lernen, wenn ich es unter 
Linux selber leicher kann?

Ab und zu mache ich Updates und schaue auf die Logs, Mails ließen sich 
aber auch verschicken. Bin aber zu faul und vertraue auf die 
"Badewannenkurve", d.h. Festplatten werden am Anfang geprüft und nach 3 
Jahren aussortiert.

Sehr datenintensive Anwendungen wie Filmschnitt oder Photoshop machen 
wir auf den PCs und schieben am Ende das Ergebnis auf den NAS.

Backup in die Cloud auf einen Strato-Account per nächtlichem Batch-Job. 
Fotos, Bücher etc. unverschlüsselt mit rsych, persönliche Dokumente per 
eigenem Skript vorher verschlüsselt. Runtergeladene Filme und andere 
große Dateien werden zweimal im Jahr auf externen Festplatten gesichert 
(der Rest aber auch), die außerhalb des Hauses gelagert werden.

Parallel dazu Einsatz von OneDrive für unkritische Daten mit Bedarf an 
Verfügbarkeit überall oder Teilen mit anderen. Das NAS bleibt nach außen 
zu!

Läuft...

Ok, Du hast deutlich mehr Daten. Ich kenne Deine Usecases nicht, würde 
aber für frühes Aussortieren plädieren, wenn es nicht beruflich 
notwendig ist. Am Ende muss es eh jemand aussortieren, oder? Wenn das 
nicht der Fall wäre, wäre das Datengrab auch nicht so tragisch. Warum 
soll man sich Mühe machen für Daten, die niemand braucht? Zumindest 
sollte Backup auf USB-Platte für solche Daten doch reichen. Oder hast Du 
Angst, dass die Zombies Deine Kinderfotos anschauen, während sie Dich 
verspeisen?

von Stefan B. (Gast)


Lesenswert?

Hallo oszi40,

danke auch für deinen Tipp die Badewannenkurve mit ihrer erhöhten Gefahr 
für Frühausfälle zu beachten. Natürlich wurden alle HDDS vor 
Inbetriebnahme ausgiebig getestet.

von Stefan B. (Gast)


Lesenswert?

Hallo Realist,

habe kein Problem damit mal den Kopf für etwas herzuhalten und schon gar 
nicht für die eigene Familie. Man tut eben was man kann.

von Stefan B. (Gast)


Lesenswert?

Hallo Sheeva,

freut mich natürlich, dass dieser Thread für deine Unterhaltung 
zweckdienlich ist/war und vielen Dank für deine Tipps. Habe die Begriffe 
bereits recherchiert und bin nun durfte wieder reichlich dazulernen. 
Danke. Die Relevanz von Dateien entspricht eben der (persönlichen) 
Bedeutung, welche wir diesen geben.

Zu den "Microcontrollertypen":
Die Qualität der Hilfestellung in diesem Forum, sowie die Masse an 
Schlagwörtern bzw wertvollen Tipps hätte ich mir nicht zu träumen 
gewagt. Nicht auszudenken wie viele potentielle Pannen dies jetzt schon 
verhindert hat und wieviel (Mehr)zeit dadurch für Familie und co. 
geschaffen wurde.

Meine Hoffnung besteht darin, dass zukünftig eventuell auch andere 
Internetuser über diesen oder ähnliche Threads stolpern (sei es zur 
Belustigung oder zum Lernen). Das wäre klasse.

von Stefan B. (Gast)


Lesenswert?

Hallo Felix,

vielen Dank zunächst, dass du dir die Zeit für deinen 
umfangreichen/lehrreichen Post genommen hast!

Dein Tipp die HDDs nach 3 Jahren auszusortieren ist prima, erhöht die 
Planungssicherheit und werde ich so definitiv übernehmen. NAS bleibt 
nach all den hiesigen Warnungen definitiv nach außen zu und als 
Schnittstelle zwischen NAS und Außenwelt werden Fotos bzw unkritische 
Daten in der Microsoft-Cloud (6 TB für 60€ pro Jahr) abgespeichert, 
welche sich das NAS dann abholt.

Leider fehlt mir aktuell etwas die Zeit dafür ein eigenes NAS 
aufzusetzen und mich wirklich tiefgehend mit der Thematik TrueNAS/Linux 
und der Hardware auseinanderzusetzen bzw. umfangreich Daten 
auszusortieren. Aktuell laufen die beiden Synologys im Verbund mit allen 
benötigten Funktionalitäten (bis auf die Unterbindung von Bit Rotting). 
Verständlicherweise schimpfen viele über die Klickybuntie-Systeme wie 
bspw. Synology und deren einhergehenden Nachteilen, wie fehlendes ZFS 
und co, weshalb ich langfristig das zweite Backup (USB-HDD) durch einen 
Supermicro-Server mit ECC-Ram ersetzen werde.

In den (durch dieses Forum angestoßenen) Recherchen bin ich auf eine 
weitere lustige Methode der Datenarchivierung gestoßen, welche auch der 
Zombie-Apokalypse trotzen sollte:
Es gibt Software, welche Daten auf Papier drucken kann. Die 
Speicherdichte soll dabei bei etwa 1,4MB/DINA4 Seite liegen. Entspricht 
immerhin 3,5GB pro Karton Druckpapier. Wirklich wichtige Daten (z.B. die 
ersten Gehversuche in Prosa) sollte man jedoch gut komprimiert auf 
Schiefertafeln eingravieren lassen, sodass diese bei ähnlicher Lagerung 
selbst Microsofts Quarzglas-Archivierung von Superman überstehen dürfte.

von Nano (Gast)


Lesenswert?

Stefan B. schrieb:
> In den (durch dieses Forum angestoßenen) Recherchen bin ich auf eine
> weitere lustige Methode der Datenarchivierung gestoßen, welche auch der
> Zombie-Apokalypse trotzen sollte:
> Es gibt Software, welche Daten auf Papier drucken kann.

Ja, nennt sich 2d Code.

Es gibt verschiedene Formen davon, einige inkl. Fehlerkorrektur und 
Redundanz.

Siehe:
https://de.wikipedia.org/wiki/QR-Code
https://de.wikipedia.org/wiki/DataMatrix-Code
https://de.wikipedia.org/wiki/JAB-Code

Du musst die Daten am Ende halt wieder einlesen können, nach dem EMP.

von Nano (Gast)


Lesenswert?

Stefan B. schrieb:
> Wirklich wichtige Daten (z.B. die
> ersten Gehversuche in Prosa) sollte man jedoch gut komprimiert auf
> Schiefertafeln eingravieren lassen, sodass diese bei ähnlicher Lagerung
> selbst Microsofts Quarzglas-Archivierung von Superman überstehen dürfte.

Die Daten möglichst oft kopieren und weiterverbreiten hilft auch gegen 
Verlust.
Also mach ein sehr schönes Foto oder bildnerisches Kunstwerk, dann nutze 
ein Steganographie verfahren, bei dem du die Daten in das Foto einpacken 
kannst und sich die Daten aber auch wieder, selbst bei kleinen 
Änderungen gut auslesen lassen.

Und dann erstelle aus dem fertigen Bild Poster und Postkarten, die sich 
die Leute kaufen wollen und können und die sie dann an die Wand kleben 
oder in die ganze Welt verschicken.

von Stefan B. (Gast)


Lesenswert?

Guten Morgen werte Mentoren und stille Mitleser,

gerne möchte ich abschließend eine Zusammenfassung der wichtigsten 
Tipps/Entscheidungen und den Beweggründen dazu geben, sowie das daraus 
resultierende (ausfallsichere!) Setup präsentieren, was einzig und 
allein durch eure produktive Unterstützung und Geduld mit meiner Person 
möglich war.

Die (für mich) wichtigsten Tipps/Entscheidungen aus diesem Forum waren:
1. NAS nach außen zu! (Kein Fernzugriff)
2. Kein RAID! (Dient allein der Verfügbarkeit und nicht als Backup)
3. Haupt-NAS und Backup-NAS vom selben Hersteller!
4. Externe USB-HDD Sicherung ist kein (sicheres) Backup!
5. Keine Cloud für empfindliche Daten!
6. Ohne ZFS generell unsicher auf lange Sicht (Bit Rotting)!
7. Wichtig Restore, dann Backup (sinngemäß)!
8. Datenträger nach 3 Jahren komplett ersetzen!

Beweggründe zu:
1. Einstimmiges Stimmungsbild im Forum: Viel zu 
risikobehaftet/gefährlich
2. RAID scheint bereits im stationären Betrieb relativ störanfällig
 gegenüber Stromausfällen und co. zu sein. Fällt die erste Platte aus, 
so stellt das Rebuild eine erhöhte Belastung für die restlichen Platten 
dar. Dies hat zur Folge, dass während des Rebuilds eine weitere Platte 
ausfallen könnte und das Rebuild somit vollständig fehlschlägt. Bei 
Klickybuntie-Systemen wie Synology/QNAP ist das übrigens nicht 
unwahrscheinlich. Tipp: RAID Rebuild Crash/fail Synology googlen. Aber 
der für mich wesentlichste Nachteil ist der, dass ein Rebuild mit 20+ TB 
Daten viele Tage Zeit in Anspruch nimmt und durch die maximale 
Auslastung der Platten dabei die Verfügbarkeit des NAS-Systems nur sehr 
eingeschränkt möglich ist.
3. Ermöglicht die unkomplizierte Wiederherstellung von Daten mit 
maximaler Übertragungsrate.
4. Defekte Platten/Sektoren werden womöglich zu spät bzw. erst dann 
entdeckt, wenn die absolute Notwendigkeit eines Zugriffs besteht. Besser 
ist eine Live-Überwachung der SMART-Werte und co. aller Datenträger.
5. Cloud dient alleinig der Schnittstelle bzw. Zwischenpuffer zwischen 
NAS und Außenwelt für unkritische Daten (Fotos von Handy).
6. Wehrmutstropfen bei KlickyBuntie-Systemen wie Synology.
7. Danke Sheeva!
8. Erhöhte Planungssicherheit.

Daher folgendes ausfallsichere Setup (Haupt-NAS:DS920+/Backup-NAS:DS420j 
an unterschiedlichen sowie sicheren Orten (darunter ein Safe), Backup 
nach Generationsprinzip und der Zustand aller Datenträger wird 
kontinuierlich überwacht bzw. löst bei Abweichung vom Soll-Zustand Alarm 
per E-Mail und SMS aus):
1. Haupt-NAS mit vollständigem Datensatz der Prio1/2/3 Daten (1. und 2. 
Platte als JBOD) sowie Sicherung der wichtigen Prio1/2 Daten (3. + 4. 
Platte als JBOD).
2. Backup-NAS mit Sicherung der wichtigen Prio1/2 Daten (1. + 2. Platte 
als JBOD) sowie Sicherung der unwichtigen Prio3 Daten auf Platte 3 und 
zusätzliche Sicherung der unwichtigen Prio3 Daten (inkl. unsortiertem 
Datenmüll) auf Platte 4.
3. USV mit Überspannungsschutz (auch für Netzwerkschnittstelle).

Mögliche geplante/ungeplante Ausfälle:
1. Platte 1 oder Platte 2 im Haupt-NAS defekt.
2. Platte 3 oder Platte 4 im Haupt-NAS defekt.
3. Haupt-NAS selbst defekt (RAM/Hauptplatine etc. defekt).
4. Stromausfall bzw. Netzschwankungen.
5. Diebstahl von Haupt-NAS bzw Überschwemmung/Feuer/Blitzeinschlag usw.
6. Tod vom Admin.

Resultat:
1. Kompletter Datensatz des JBODs weg! (Auch die Daten der noch intakten 
Platte)
2. Komplettes erstes Backup der Prio1/2 Daten weg!
3. Daten auf Platten noch vorhanden.
4. Daten noch erhalten, ggfs kurzfristig nicht erreichbar.
5. Kompletter Datensatz + erstes Backup der Prio1/2 Daten weg.
6. Daten noch vorhanden, ggfs kurzfristig nicht erreichbar.

ToDo:
1. Defekte Platte ersetzen, JBOD neu bilden, Wiederherstellung der Daten 
innerhalb vom NAS mit ~150MB/s möglich. Falls nicht möglich, zweites 
Backup nutzen.
2. siehe 1.
3. NAS ersetzen, Daten wieder vorhanden. Falls nicht möglich, zweites 
Backup nutzen.
4. NAS wieder in Betrieb nehmen, Daten wieder vorhanden.
5. NAS/Platten ersetzen und zweites Backup aufspielen.
6. Auf NAS klebt ein Zettel mit den Zugangsdaten sowie einem Link zu 
diesem Thread. Passwort setzt sich zusammen aus Anfangsbuchstaben meiner 
Lieblingsfarbe/Lieblingspizza/Lieblingsgetränk usw.

Risiko bei EMP/Zombie-Apokalypse ist durch Entfernung zwischen Haupt-NAS 
und Backup-NAS minimiert.

Danke nochmal für eure Hilfe, habt ein schönes Wochenende!

von Felix (Gast)


Lesenswert?

Das ist schon sehr durchdacht, trotzdem noch ein paar abschließende 
Gedanken.

Den Vorteil von ZFS sehe ich in erster Linie in der Versionierung von 
Dateien, ein probates Mittel gegen Verschlüsselungstrojaner. Das mit dem 
Bit Rotting ist sicher auch richtig, habe in meinem Leben so einen Fall 
allerdings noch nie bemerkt.

Ubuntu Server empfehle ich, wenn der Server noch andere Dinge machen 
soll und man Spaß am Lernen über Linux hat. Ich fand den Aufwand nicht 
höher als bei QNAP und mir hat es Spaß gemacht. Zudem läuft bei QNAP 
unter der Haube beim Backup auch nur rsynch oder andere Linuxtools, bei 
meinem QNAP leider fehlerhaft parametrisiert. Seit der QNAP weg ist, 
habe ich eine Fehlerquelle weniger.

Ich bin hardwaremäßig eher am unteren Ende unterwegs. Das möchte ich 
eigentlich auch beibehalten und werde zur Erhöhung der Sicherheit in 
Zukunft mehr auf redundante Cloudspicherung der Backups setzen. 
Verschlüsselt, mehrere Anbieter aus mehreren Ländern gleichzeitig.

Nicht unterschätzen würde ich die Zombies! Ganz im Ernst, als Synonym 
für den größten Fehlerfall, der noch sinnvoll abzudecken ist. Hier habe 
ich leider keine Antwort, außer bei wichtigen Erinnerungen den Pfad der 
Digitalisierung zu verlassen (Ausdrucke, Fotoabzüge). Ich kann die Fotos 
und Briefe meiner Urgroßeltern aus dem 19. Jahrhundert problemlos 
ansehen, selbst nach 2 Weltkriegen. Das wird meinen Urenkeln mit meinen 
Daten wohl nicht gelingen.

von Nano (Gast)


Lesenswert?

Stefan B. schrieb:
> 2. Aber
> der für mich wesentlichste Nachteil ist der, dass ein Rebuild mit 20+ TB
> Daten viele Tage Zeit in Anspruch nimmt und durch die maximale
> Auslastung der Platten dabei die Verfügbarkeit des NAS-Systems nur sehr
> eingeschränkt möglich ist.

Es gäbe noch die Möglichkeit einfacher Mirrors.

Die Sache mit "RAID dient allein der Verfügbarkeit und ist kein Backup" 
stimmt schon, bedenke aber, das zwischen dem Kopieren von Daten auf das 
NAS und dem Erstellen der Backups auch Zeit vergehen kann und dann hilft 
ein RAID schon gegen Datenverlust.
Es hängt hier also davon ab, wie oft du ein Backup machst. Wenn du das 
nur einmal pro Woche machst, würde ich auf dem NAS schon eine Form von 
RAID einplanen.
Gegen den langen Rebuild helfen einfache gespiegelte Platten.
Im Prinzip ist es also nur eine Geldfrage.

> 3. Ermöglicht die unkomplizierte Wiederherstellung von Daten mit
> maximaler Übertragungsrate.

Es ist nicht einmal garantiert, dass bspw. ein RAID auf einem gleichen 
NAS eines Herstellers wieder rekonstruiert werden kann.

Viel wichtiger sind hier offene standardisierte Dateisystemformate und 
wenn man Raid nimmt, Softwareraid.
Denn Hardwareraid ist Controllerabhängig, da kann man dann Probleme 
kriegen.

Dennoch  stimmt die Aussage "Haupt-NAS und Backup-NAS vom selben 
Hersteller!" nicht. Denn wenn eine Sicherheitslücke erlaubt in das 
Haupt-NAS einzudringen und Schaden zu verursachen, dann wird das auch 
beim baugleichen Backup-NAS funktionieren.

NAS von unterschiedlichen Herstellern zu verwenden wäre also die bessere 
Variante, da dies gegen Sicherheitslücken und Angriffe schützen kann.

Z.B. TrueNAS auf dem Hauptnas und OpenMediaVault auf dem Backup-NAS.
Dann hat man auch gleich zwei Open Source Systeme.

> 4. Defekte Platten/Sektoren werden womöglich zu spät bzw. erst dann
> entdeckt, wenn die absolute Notwendigkeit eines Zugriffs besteht. Besser
> ist eine Live-Überwachung der SMART-Werte und co. aller Datenträger.

Du kannst noch Scrubbing einsetzen, da werden die Daten gelesen und neu 
geschrieben. So bleibt die Magnetinformation stark und mit dem richtigen 
Dateisystem, wie bspw. ZFS Fehler werden frühzeitig erkannt und dann 
korrigiert wieder auf den Datenträger geschrieben.

Gegen Ausfälle hilft RAID, in deinem Fall dann Mirrors, wenn du keinen 
langen Rebuild haben willst.

> 8. Erhöhte Planungssicherheit.

Das geht ins Geld.
Da kannst du auch Mirrors nehmen und warten bis eine Platte ausfällt.

Und wenn das passiert, kannst du sogar vorher schon Hot Spare Platten 
einbauen, die in solchen Fällen dann gleich einspringt. D.h. der Rebuild 
(bei RAID) oder der das klopieren (Mirror) kann gleich beginnen und die 
Spare Platten werden dann gleich automatisch verwendet, wenn eine Platte 
im RAID kaputt ist.

Mit TrueNAS geht das.
Bei Synology bräuchtest du dafür definitiv ein System das mehrere 
Platten aufnehmen kann.
Denn die Hot Spare Platte muss ja irgendwo hin.

Siehe:
https://de.wikipedia.org/wiki/Hot-Spare

> 3. USV mit Überspannungsschutz (auch für Netzwerkschnittstelle).

Dann brauchst du aber noch ein Netzteil mit Redundanz bzw. solltest das 
zumindest wissen.
Denn wenn ein normales Netzteil kaputt geht, bringt dir die USV auch 
nichts.

Im Serverbereich gibt es deswegen Netzteile mit Redundanz.
Aber Vorsicht, so etwas willst du nicht im Wohnzimmer stehen haben.
Diese Art von Netzteilen haben in der Regel kleine 40 mm Lüfter und die 
sind entsprechend laut.
Der Keller im 19" Serverrackschrank ist für solche NAS Geräte dann der 
richtige Ort.

Ich habe bspw. eine USV, aber ich gestehe, ich habe kein redundantes 
Netzteil verbaut, weil mir das schlichtweg zu laut wäre.
Dieses Risiko gehe ich also ein, aber ich kenne es zumindest.
Dafür habe ich ein hochwertiges Netzteil mit großen Lüftern und gutem 
Wirkungsgrad genommen, das ist leise.
Im Desktopbereich ist mir auch noch nie ein Netzteil kaputt gegangen.
Ausfallen könnte es theoretisch trotzdem, das muss man halt wissen, es 
ist eine Risikoabwägung.

Aber die Gefahr, dass der Strom hier mal weg ist, würde ich höher 
einschätzen als das das NT ausfällt. Deswegen habe ich ne USV.
Gerade in Deutschland steigt dieses Risiko mit dem Abschalten der Kohle- 
und Kernkraftwerke.

> Mögliche geplante/ungeplante Ausfälle:
> 1. Platte 1 oder Platte 2 im Haupt-NAS defekt.
> 2. Platte 3 oder Platte 4 im Haupt-NAS defekt.
> 3. Haupt-NAS selbst defekt (RAM/Hauptplatine etc. defekt).
> 4. Stromausfall bzw. Netzschwankungen.
> 5. Diebstahl von Haupt-NAS bzw Überschwemmung/Feuer/Blitzeinschlag usw.
> 6. Tod vom Admin.

7. Ausfall des Netzteil, kann aber auch unter Punkt 3 fallen.
8. Schadsoftware korrumpiert dir dein NAS.
9. Kind entfernt aus Spaß die Platten im laufenden NAS. Die 
Festplattenschächte sind durchaus zum Spielen interessant.

> 6. Auf NAS klebt ein Zettel mit den Zugangsdaten sowie einem Link zu
> diesem Thread. Passwort setzt sich zusammen aus Anfangsbuchstaben meiner
> Lieblingsfarbe/Lieblingspizza/Lieblingsgetränk usw.

Du kannst auch eine Anleitung schreiben und die in den Safe legen.
Dann musst du nicht PW außen an das NAS kleben.
Stell dir mal vor, du bekommst Besuch und der macht ein Foto vom PW.


>
> Risiko bei EMP/Zombie-Apokalypse ist durch Entfernung zwischen Haupt-NAS
> und Backup-NAS minimiert.

Beim EMP muss die Entfernung schon sehr groß sein.
Rechne mal mit 5000 km.
Also einmal über den großen Teich, dann ja, dann könnte das Backup-NAS 
vor dem EMP sicher sein.

Ansonsten nützt das nichts. Da brauchst du schon nicht anfällige 
Datenträger, wie die oben von mir genannten optischen Datenträger.

>
> Danke nochmal für eure Hilfe, habt ein schönes Wochenende!

Danke, gleichfalls.

von Nano (Gast)


Lesenswert?

Felix schrieb:
> Das mit dem
> Bit Rotting ist sicher auch richtig, habe in meinem Leben so einen Fall
> allerdings noch nie bemerkt.

Das kannst du auch nicht bemerken, wenn dein Dateisystem keine 
Prüfsummen wie ZFS anlegt.
Einzige Ausnahme, du legst die Prüfsummen händisch jedes mal selber an, 
dann kann man es bemerken, aber man kann die Daten damit immer noch 
nicht reparieren. Da braucht es eine Form von Error Correction, die 
liefert ZFS eben falls mit.

Mit ZFS ist das also alles schön transparent, ohne muss man alles selber 
machen.

Synology verwendet unter der Haube Linux, wenn man also irgendwie kann, 
dann sollte man dort Btrfs verwenden.
Da er kein RAID nutzt, ist das eine durchaus nutzbare Option.

Btrfs hat dieses Feature nämlich auch, allerdings ist Btrfs bei RAIDs 
noch experiemental und sollte dafür nicht eingesetzt werden.
Red Hat hat sich von Btrfs verabschiedet, weil sie zu hohe Ausfälle 
hatten.
Btrfs ist also mit Vorsicht zu genießen, aber es hätte theoretisch die 
Features auf dem Papier.

ZFS ist ausgereift.


> Ubuntu Server empfehle ich, wenn der Server noch andere Dinge machen
> soll und man Spaß am Lernen über Linux hat. Ich fand den Aufwand nicht
> höher als bei QNAP und mir hat es Spaß gemacht. Zudem läuft bei QNAP
> unter der Haube beim Backup auch nur rsynch oder andere Linuxtools, bei
> meinem QNAP leider fehlerhaft parametrisiert. Seit der QNAP weg ist,
> habe ich eine Fehlerquelle weniger.

Ubuntu Server kann man nur einsetzen, wenn man sich auf die Pakete aus 
dem Main Zweig beschränkt.

Wer andere Pakete benötigt, der ist mit Debian besser bedient.
Für ein NAS kann man hier aber gleich OpenMediaVault nutzen, das baut 
auf Debian auf, ist aber auch gleich für den NAS Einsatz vorbereitet.
Man hat also eine schöne Weboberfläche, über die man alles wichtige 
konfigurieren kann. Bei einem reinen Debian oder Ubuntu Server müsste 
man das alles händisch machen, da steigt auch die Wahrscheinlichkeit, 
dass man Fehler macht.

> Hier habe
> ich leider keine Antwort, außer bei wichtigen Erinnerungen den Pfad der
> Digitalisierung zu verlassen (Ausdrucke, Fotoabzüge). Ich kann die Fotos
> und Briefe meiner Urgroßeltern aus dem 19. Jahrhundert problemlos
> ansehen, selbst nach 2 Weltkriegen. Das wird meinen Urenkeln mit meinen
> Daten wohl nicht gelingen.

Das Problem bei solchen alten Urururgroßelternfotos ist nur, man kann 
zeigen, schau, so sahen sie aus. Aber man hat keine Geschichte, die man 
über sie erzählen könnte, weil man sie nicht kannte.

von oszi40 (Gast)


Lesenswert?

Stefan B. schrieb:
> 8. Datenträger nach 3 Jahren komplett ersetzen!

1-8 sind ja schön, aber wenn ein DAU rm -r macht, sind Deine Daten weg. 
Mindestens 1 Backup gehört stromlos in den Schrank!
9. Auch eingescanntes Papier kann schon Fehler enthalten! 
https://www.heise.de/tp/features/Xerox-Software-veraendert-eingescannte-Zahlen-3961586.html

von Sebastian S. (amateur)


Lesenswert?

Ich würde das Problem dritteln!
Die zwei großen Klopse im Back-Up ausschließen (sollte praktisch in 
jedem Programm möglich sein) und einzeln mit einem Vergleichsprogramm 
(DirectoryCompare oder so) aktuell halten.
Den sich häufig ändernden Teil mit einem 08/15 Backup-Programm im Auge 
behalten.
Alternativ ein Programm wählen, dass verschiedene Back-Up-Strategien 
beherrscht. Das können erstaunlich viele. Bedeutet aber Einlesen.

von Sheeva P. (sheevaplug)


Lesenswert?

Hallo Stefan,

Stefan B. schrieb:
> freut mich natürlich, dass dieser Thread für deine Unterhaltung
> zweckdienlich ist/war und vielen Dank für deine Tipps. Habe die Begriffe
> bereits recherchiert und bin nun durfte wieder reichlich dazulernen.

Das wiederum freut mich... aber der wichtigste Teil meines Beitrages war 
ein ganz anderer, nämlich der Hinweis auf den Restore. Mir sind nämlich 
im Laufe meines Lebens, das leider nicht immer so ereignislos war wie 
ich es mir gewünscht hatte, nun bereits mehrmals Szenarien begegnet, in 
denen die Daten des Kunden zwar regelmäßig in ein Backup geschrieben 
wurden (yay!), sich im Ernstfall aber nicht mehr wiederherstellen 
ließen. Aus unterschiedlichsten Gründen: mal war der Schreiblesekopf 
eines (im Übrigen sauteuren) Taperoboters defekt, mal erfolgte das 
Backup verschlüsselt und der Schlüssel war nicht wiederauffindbar. Sowas 
ist dann... genau.

Da ich anscheinend nicht der Einzige bin, der so etwas schon einmal 
erlebt hat, gibt es unter Leuten, die das professionell machen, eine 
goldene Regel: direkt nach dem Einrichten eines Backups wird ein Restore 
versucht, dann nach zwei Wochen nochmals, und nach zwei weiteren Wochen 
noch einmal. Wenn einer der Restore-Versuche nicht wie gewünscht 
funktioniert, zurück auf Anfang. Danach geht man in den laufenden 
Betrieb, und je nach Veränderlichkeit und Anforderungen mindestens 
einmal pro Jahr, besser einmal pro Quartal, wiederum ein Restore 
versucht -- und wenn eines nicht klappt... ganz genau, wie vor.

Ja, das ist aufwändig. Aber wenn man sich vergegenwärtigt, daß ein 
Gigabyte Daten für ein Unternehmen laut einschlägiger Schätzungen 
schnell einen durchschnittlichen Wert von ca. 15.000 Euro haben kann...

von Peter D. (peda)


Lesenswert?

Also bei mir im privaten Umfeld kenne ich keinen, der so einen riesen 
Aufwand betreibt. Für die Familie schonmal gar nicht, jeder ist für 
seine Daten alleine verantwortlich. Alles andere bringt nur Ärger, wenn 
mal doch was zu schnell gelöscht wurde oder zu privat ist.
Was neben der Datensicherung sinnvoll ist, ist ein Systemabbild. Niemand 
merkt sich alle Einstellungen, wenn man das System neu aufsetzen muß.
Schnell hat man was verstellt und dann ist ein Systemabbild in wenigen 
Minuten eingespielt und die Updates seitdem.
Mir wichtige Daten sichere ich in >=3 Kopien, das sollte reichen.
HDDs schmeiße ich nach 3 Jahren natürlich nicht weg. Ein NAS brauche ich 
nicht, die HDDs laufen nur, wenn ich auch am PC sitze. Den letzten PC 
habe ich 2014 gekauft und dessen HDDs sind auch so alt.
Als Backup habe ich eine 10TB und 14TB USB-HDD neben der 8TB im PC.

: Bearbeitet durch User
von Karl (Gast)


Lesenswert?

Thomas B. schrieb:
> Ein AMD Athlon X2 64 mit ca. 2,3GHZ ist als
> Serverprozessor hinreichend leistungsfähig

Und verbraucht 65 Watt. Ein moderner Prozessor macht das Gleiche mit 5 
Watt.

60*24*365 = 525 kWh * 0,25€/kWh = 131 € Strom im Jahr.

von Nano (Gast)


Lesenswert?

Sheeva P. schrieb:
> Der ganze Thread ist für erfahrene Sysops unfaßbar witzig. Danke Euch
> allen, ich habe lange nicht mehr so gelacht...
>
> Nur so ein paar Tipps: Backup ist langweilig, Restore ist wichtig.

Das sagte ich bereits.

Siehe oben, da steht:

"Wichtig ist da nur, dass du hinterher nach dem beschreiben die Daten
auch verifzieren, also lesen solltest."

von Reinhard S. (rezz)


Lesenswert?

Sheeva P. schrieb:
> Da ich anscheinend nicht der Einzige bin, der so etwas schon einmal
> erlebt hat, gibt es unter Leuten, die das professionell machen, eine
> goldene Regel: direkt nach dem Einrichten eines Backups wird ein Restore
> versucht, dann nach zwei Wochen nochmals, und nach zwei weiteren Wochen
> noch einmal.

Warum das mehrmalige Probieren in 2 Wochen Abstand? Was soll sich in der 
Zeit ändern?

Und wie testet ihr ein Restore? Außerbetriebnahme des laufenden Gerätes 
kann ich mir schlecht vorstellen.

Ich mach mein Backup als 1:1-Kopie der kompletten SSD auf externe 
Festplatte bzw. 2,5"-Festplatte im Wechselschacht vom Laptop. Vorteil: 
Funktionsprobe sehr einfach möglich.

: Bearbeitet durch User
von oszi40 (Gast)


Lesenswert?

Reinhard S. schrieb:
> Ich mach mein Backup als 1:1-Kopie der kompletten SSD auf externe
> Festplatte

Merke: Wer schon mal beim Clonen Quelle und Ziel verwechselt: hat dann 2 
LEERE Platten. Besser sind komplette Images (Sofern wirklich alles 
kopiert wird). Deswegen sind Tests mit Restore durchaus nützlich 
(möglichst nie auf Ursprungs-HDD).

von Reinhard S. (rezz)


Lesenswert?

oszi40 schrieb:
> Reinhard S. schrieb:
>> Ich mach mein Backup als 1:1-Kopie der kompletten SSD auf externe
>> Festplatte
>
> Merke: Wer schon mal beim Clonen Quelle und Ziel verwechselt: hat dann 2
> LEERE Platten.

In meinem Fall hätte ich dann 2 Platten mit dem Stand des letzten 
Backups.

von Thomas (kosmos)


Lesenswert?

irgendwo weiter oben stand was von SSDs, das ist ne sehr schlechte Idee 
wenn die nicht ab und zu mal betrieben werden, den diese refreshen auch 
ihre Zellen damit da keine Bits kippen.

von Sheeva P. (sheevaplug)


Lesenswert?

Nano schrieb:
> Sheeva P. schrieb:
>> Der ganze Thread ist für erfahrene Sysops unfaßbar witzig. Danke Euch
>> allen, ich habe lange nicht mehr so gelacht...
>>
>> Nur so ein paar Tipps: Backup ist langweilig, Restore ist wichtig.
>
> Das sagte ich bereits.

Das stimmt, und sollte von mir nur noch einmal verdeutlicht werden. ;-)

von Sheeva P. (sheevaplug)


Lesenswert?

Reinhard S. schrieb:
> Sheeva P. schrieb:
>> Da ich anscheinend nicht der Einzige bin, der so etwas schon einmal
>> erlebt hat, gibt es unter Leuten, die das professionell machen, eine
>> goldene Regel: direkt nach dem Einrichten eines Backups wird ein Restore
>> versucht, dann nach zwei Wochen nochmals, und nach zwei weiteren Wochen
>> noch einmal.
>
> Warum das mehrmalige Probieren in 2 Wochen Abstand? Was soll sich in der
> Zeit ändern?

Die Daten. Wenn wir ein System in Betrieb nehmen und das Backup / 
Restore einrichten, dann sind normalerweise nur wenige bis keine Daten 
darauf.

Schon dabei können einem... wie sage ich das elegant... verschiedene 
eher unheilige Dinge passieren. Ein Beispiel: mir selbst ist es in den 
letzten Monaten vorgekommen, daß ich bei mir privat ein Backup mittels 
rsnapshot eingerichtet, getestet, und für gut befunden habe. 
Funktionierte auch prima... auf den ersten Blick.

Drei Wochen später habe ich einen sshfs-Mount in ein Unterverzeichnis 
von meinem Homedirectory gemacht, und kurz danach hat mich mein 
Monitoring gemobbt. Was war passiert? Genau: ich hatte mein Homedir ins 
Backup gelegt, und mit dem sshfs-mount... genau: 3 TB Daten in ein 2 TB 
Backupmedium, schwieritsch. ;-)

> Und wie testet ihr ein Restore? Außerbetriebnahme des laufenden Gerätes
> kann ich mir schlecht vorstellen.

Wenn wir eine Umgebung aufbauen, gibt es immer zwei identische weitere: 
einmal eine Staging-Umgebung für uns Systemfritzen, einmal eine 
Acceptance-Umgebung für unsere Kunden. Beide sind heute nicht mehr 
ständig online (und können sich sogar dieselben Ressourcen teilen, 
meistens), aber im Kern genauso ausgestattet wie die Produktion. Auf 
diesen Umgebungen testen wir die Backups.

> Ich mach mein Backup als 1:1-Kopie der kompletten SSD auf externe
> Festplatte bzw. 2,5"-Festplatte im Wechselschacht vom Laptop. Vorteil:
> Funktionsprobe sehr einfach möglich.

Das ist für Privatanwender sicherlich eine sehr brauchbare Strategie, 
aber für den Unternehmenseinsatz insbesondere in regulierten Bereichen 
-- Banken, Versicherungen, Fintech halt -- noch ein wenig 
unterambitioniert. ;-)

Die Fragen sind am Ende immer dieselben: was genau willst Du nach einem 
Atomkrieg  Ausfall eines Rechenzentrums  ... wiederherstellen, wie 
schnell soll das gehen, bis Du wieder voll einsatzfähig bist, ...

von Nano (Gast)


Lesenswert?

Thomas O. schrieb:
> irgendwo weiter oben stand was von SSDs, das ist ne sehr schlechte
> Idee
> wenn die nicht ab und zu mal betrieben werden, den diese refreshen auch
> ihre Zellen damit da keine Bits kippen.

Das bezog sich auf ein NAS und ein NAS steht nicht Monate im Schrank, 
sondern befindet sich im Normalfall im Betrieb.
Es gibt Firmen, die für so etwas nur noch SSDs einsetzen, da Festplatten 
deren Erfahrung nach viel anfälliger sind und daher auf SSDs schwören.

von oszi40 (Gast)


Lesenswert?

Nano schrieb:
> auf ein NAS und ein NAS steht nicht Monate im Schrank,

Solange keine Blitz, Virus oder DAU beide NAS gekillt hat, mag Deine 
Variante funktionieren. Trotzdem ist mindestens ein stromloses Backup 
mit Lagerung an einem sicheren Ort nötig. Ein paar lesbare DVSs im 
Schrank sind billiger als ein Revovery bei Ontrack.

von Nano (Gast)


Lesenswert?

oszi40 schrieb:
> Nano schrieb:
>> auf ein NAS und ein NAS steht nicht Monate im Schrank,
>
> Solange keine Blitz, Virus oder DAU beide NAS gekillt hat, mag Deine
> Variante funktionieren. Trotzdem ist mindestens ein stromloses Backup
> mit Lagerung an einem sicheren Ort nötig.

Habe ich irgendwas davon geschrieben, das man kein Backup braucht? Lies 
doch oben mal nach!

von Stefan B. (Gast)


Lesenswert?

Hallo liebe Leute!

gerne möchte ich kurz ein Feedback zum aktuellen Status geben.

Haupt-NAS (ohne RAID): Original: Kompletter Datensatz
Backup-NAS (ohne RAID): Backup: kompletter Datensatz
Externe Festplatte: Backup 2: kompletter Datensatz

Arbeitsrechner: Prio1-Daten zusätzlich auf SSD und eingesteckter 
µSD-Karte + zusätzlicher externer Festplatte.

Geschützt natürlich durch eine USV. Die Datensätze sind unverschlüsselt 
(keine Geschäftsdaten) und Backup erfolgt händisch. Das sieht auf den 
ersten Blick nach Arbeit aus aber ich weiß gerne was wohin kopiert wurde 
(+teste sporadisch durch) und hilft mir persönlich auch etwas bei dem 
Punkt Restore. Haben sich zu viele Daten geändert, sodass händisches 
Ordner-Kopieren kein Spaß mehr macht, so wird ein vollständiges Backup 
in unterschiedlicher Weise durchgeschleift, wie z.B. nach folgendem 
Schema:

Arbeitsrechner SSD --> Externe Festplatte --> Haupt-NAS --> Backup-NAS
Arbeitsrechner SSD --> Haupt-NAS --> Backup-NAS --> Externe Festplatte

Bei RAW-Daten auch gerne mal:

Haupt-NAS --> Backup-NAS --> Externe Festplatte
Backup-NAS --> Haupt-NAS --> Externe Festplatte
Externe Festplatte --> Haupt-NAS --> Backup-NAS
usw.

Geplant ist weiter, dass neben dem Austausch defekter Platten die 
externen Festplatten nach Ablauf der Garantiezeit durch neuere Modelle 
ersetzt werden und im Schrank lagern.

Interessant war übrigens die selbe Information von unterschiedlichen 
Quellen (Rechenzentrum-Mitarbeiter, Synology-Mitarbeiter, IT-Experte 
etc.), dass neben den Originaldaten mindestens (sic!) zwei Backups 
existieren müssen, sofern einem die Daten am Herz liegen. Besser drei 
Backups und RAID ist kein Backup.

Die Geschichte mit der Cloud, sowie ein externer Zugriff auf die NAS hat 
sich nach den obigen geführten Gesprächen erledigt und würde ich 
niemandem empfehlen.

habt ein schönes Wochenende

von Peter D. (peda)


Lesenswert?

Stefan B. schrieb:
> dass neben den Originaldaten mindestens (sic!) zwei Backups
> existieren müssen

Es kann ja auch mal das Backup hops gehen und da es im Schrank liegt, 
merkt es niemand. Man sollte auch jährlich einen MD5 Check darauf 
durchführen.

von Oliver S. (oliverso)


Lesenswert?

Stefan B. schrieb:
> Geplant ist weiter, dass

Meine Lebenserfahrung sagt mir, daß nach den ersten paar Monaten 
Begeisterung für das ganze Spielzeug eine längere Zeit mit "läuft noch 
irgendwie mit" folgt, und danach kümmert ich keiner mehr drum.

Im Falle eines Falles weiß niemand mehr, was der ganze komplexe Kram 
eigentlich macht, und wie er funktioniert. Sämtliche Software ist völlig 
veraltet, und keiner weiß mehr, wie man an die Daten kommt.

Der hier erwähnet "Zombie" muß da gar nicht auftauche, da reichen ganz 
handelsübliche Änderungen im Leben, die die Prioritäten mal eben 
verschieben: Neuer Job (im Ausland), neue Freundin, Scheidung, Krebs, 
was auch immer.

Dagegen hilft nur KISS: keep it simple and stupid.
Der hier gezeigte Ansatz ist nur S: stupid.

Oliver

: Bearbeitet durch User
von Klaus (Gast)


Lesenswert?

Oliver S. schrieb:
> Meine Lebenserfahrung sagt mir, daß nach den ersten paar Monaten
> Begeisterung für das ganze Spielzeug eine längere Zeit mit "läuft noch
> irgendwie mit" folgt, und danach kümmert ich keiner mehr drum.

Das war auch meine Befürchtung. Ich hab das umgedreht:

* Auf jedem PC/Notebook im Haushalt sind alle Daten drauf.
 * Jeder arbeitet lokal auf den Daten und synchronisiert auf einen Linux 
Server. (FreeFileSync)
* Damit ist jeder in der Pflicht und nicht nur der IT Pappa.
* Der macht dann nur monatlich ein Backups auf extern.
* Beim Synchronisieren werden die alten Daten zusätzlich noch in ein 
Backup Verzeichnis geschoben. Falls jemand was überschrieben hat ist das 
meistens auf einem anderen PC noch auffindbar.

Das funktioniert richtig gut und man ist nicht an eine Hardware 
gebunden. Man nimmt den PC der gerade frei ist.

Trotz defekter Platten oder versehentlichem Löschen gab es in den 
letzten Jahren dadurch keine Verluste.

von Joker (Gast)


Lesenswert?

> prima wäre eine durchdachte Backup-Strategie für die ganze Familie
Also die ganze Familie irgendwo abspeichern, äußerst schwierig.

von Datenumherträger (Gast)


Lesenswert?

Stefan B. schrieb:
> Arbeitsrechner: Prio1-Daten zusätzlich auf SSD und eingesteckter
> µSD-Karte + zusätzlicher externer Festplatte.

hihi, ich mach auch regelmäßig Backups auf der µSD-Karte in meinem 
Handy.
Die ist im Falle eines Falles mit etwa Glück 'off-site' :-)

von Realist (Gast)


Lesenswert?

Hallo

hier mal ein Gedanke der absolut nichts mit der Technik zu tun hat und 
zu beginn des Tread auch schon mal kurz erwähnt wurde - aber 
verständlicher Weise zu so einen frühen Zeitpunkt nicht weiter beachtet 
wurde:

Muss wirklich alles x-Fach gesichert werden?
Wird das 128ste eigentlich gleiche Bild mit der Schultüte in der Hand 
(gibt es die überhaupt noch in der Form?) von der Einschulung des Enkels 
(aber auch des ersten eigenen Kindes) überhaupt irgendwann noch mal 
angeschaut?
Muss man den Ausbildungsvertrag der 1985 erfolgten Ausbildung unbedingt 
noch irgendwo (als Scan) herumliegen haben - wurde der Vertrag (der 
Scan) überhaupt jemals angepackt?
Die Versicherungspolice des Autos dessen Metallbestandteile schon 2 mal 
eingeschmolzen wurde wird auch eher selten benötigt.
Die 2500 Bilder vom Eifelturm - selbst die mit der DSLR aufgenommen 
wurden und bewusst Komponiert wurden - wie viele davon Nutz man oder 
sieht sich wenigsten hin und wieder an?
Meist sind das unter 10 Stück.
Auch ich hatte viel zu lange jede blöden Vertragspolice von längst 
aufgelösten Verträgen aufgehoben, Bedienungsanleitungen von Geräten die 
schon seit Jahren ihren letzten Weg gegangen waren irgendwo 
wiedergefunden.
Auf meinen Festplatten lagen bestimmt über 1000 Aufnahmen (Auch der 
Details) des Kölner Doms - "richtig" nutze und "liebe" ich vielleicht 50 
bis 100 davon.
Meine ganz persönliche Bewältigung (zumindest ein Teil davon) eines 
heftigen aber zum Leben gehörenden Verlust einer sehr nahstehenden 
Person war es alle Bilder und Aufnahmen (Es gab recht wenige und alles 
noch Analog) zu vernichten - hat mir geholfen - ist aber wohl eher 
untypisch und für viele ist eine auch Bildliche Erinnerung ein Trost - 
für mich nun mal aber nicht - Was fott ist ist fott und mus fott 
bleiben...

Das alles nur mal mehr als "philosophische" (Na ja etwas großkotzig 
Gesprochen.. ) Hinweise und Gedanken.
Vergessen, durchaus heftiges aussortieren und "Wegschmeißen" ist meiner 
Meinung nach sehr wichtig - wobei mir das aber auch erst mit etwas 
höheren alter klar wurde...

Realist

von Klaus H. (klummel69)


Lesenswert?

>Meine ganz persönliche Bewältigung (zumindest ein Teil davon) eines heftigen aber 
zum Leben gehörenden Verlust einer sehr nahstehenden Person war es alle Bilder und 
Aufnahmen (Es gab recht wenige und alles noch Analog) zu vernichten - hat mir 
geholfen

Boah, mein ehrlichen Respekt das tu tun.
Es ist nicht mein Weg, aber ich verstehe warum Du das gemacht hast.

von Jan H. (j_hansen)


Lesenswert?

Realist schrieb:
> Vergessen, durchaus heftiges aussortieren und "Wegschmeißen" ist meiner
> Meinung nach sehr wichtig - wobei mir das aber auch erst mit etwas
> höheren alter klar wurde...

Ja! Allerdings ist bewusstes Aussortieren und Wegschmeißen etwas anderes 
als ein Festplattendefekt der alles mitnimmt.

Der Festplattendefekt erspart einem halt das bewusste Löschen, was mir 
durchaus schwer fällt. Aber ich will ja auch nicht, dass mir die Hütte 
abbrennt - auch wenn ich mir dadurch das Entsorgen meines Gerümpels 
ersparen würde.

Und mit dem bewussten Löschen ist das auch so eine Sache. Oft merke ich 
erst nach Jahren beim erneuten Durchsehen, dass gerade das verwackelte 
Foto schöne Erinnerungen weckt. Ich bin aber glaube ich auch ein Mensch 
der viel in der Vergangenheit lebt.

von Nicht W. (nichtsowichtig)


Lesenswert?

Jeder hat da eben so seine eigene Prioritäten.

Ich für meinen Teil schaue lieber ein verwackeltes Video von damals, auf 
dem mein Uropa Fotos mit uns durchschaut und von seiner ersten 
Amerikareise erzählt als ein billiges Fußballspiel.

Auch lese ich lieber in Tagebüchern der Familie von damals, als ein 0815 
Roman, indem sowieso nur konstruierter Schwachsinn steht.

Könnte ich in gleichem Sinne teilhaben an den Erinnerungen und den 
Geschichten meines Urururopas, wäre das für mich unbezahlbar.

: Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.