Hallo zusammen, ich bin auf der Suche nach einem vernünftigen Backup-Tool, das eigentlich nicht viel mehr können soll als: - Auf Klick hin einzelne Ordner als Vollsicherung auf eine externe Platte sichern - Auf Klick hin einzelne Ordner initial als Vollsicherung, danach inkrementell auf eine externe Platte sichern (ggf. neue Vollsicherung nach x inkrementellen Sicherungen) - Das ganze nicht in einem "Containerformat", sondern 1:1 meine Dateien in originaler Ordnerstruktur. - Validierung des Backups Vormals habe ich Areca genutzt und war damit eigentlich total zufrieden, die seit 2015 nicht mehr gepflegte Software scheint aber mit meinem aktuellen Java nicht zurechtzukommen... Ich habe mich jetzt durch Testversionen von ASHAMPOO BACKUP --> Einzelne Ordner erhalten hier als einzige Option automatisch eine inkrementelle Sicherung ACRONIS True Image --> Wiederherstellen-Dialog total dämlich, z.B. klappt die Ordnerstruktur jedesmal wieder komplett zu, wenn man das Datum ändert --> Lästig (Auch wenn ich die Funktion, auf ein bestimmtes Datum zu springen, vermutlich kaum brauchen werde...)! O&O DISKIMAGE --> Insgesamt super unübersichtlich PARAGON BACKUP & RECOVERY 16 --> Davon ab, dass ich nicht so recht durchsteige durch Free vs "Pro" und warum es so schwierig ist, die "Pro" direkt bei Paragon zu ergoogeln ;) --> Sichert nur in Containerformaten, entweder properitär Paragon oder Microsoft AOMEI BACKUPPER --> SEHR simpel gehalten, sichert ebenfalls nur in Container geklickt und bin irgendwie ernüchtert. Die Tools können entweder sau viel, aber eben nicht alles, oder ganz wenig. Sind meine paar Anfoderungen so merkwürdig? Warum wirkt gerade in diesem Umfeld, wo man einem Programm wirklich vertrauen können sollte vieles so dilletantisch und/oder bevormundend? Irgendwie Unbehagen ruft bei mir insbesondere die Speicherung in irgendwelchen Containern hervor, potentielle Vorteile sind mir natürlich klar (Größe, einfachere Validierbarkeit, ...), aber ich fühle mich erstens zu abhängig vom Tool und sehe zweitens nicht einfach 1:1 meine Datei. Sind diese Sorgen unbegründet? Insbesondere vllt. wenn z.B. Paragon auch in .vhdx sichern kann? Viele Grüße, Max
Vielleicht verrätst Du noch, für welches OS das Tool gesucht wird. Ich bin mit Time Machine ganz zufrieden.
Torsten R. schrieb: > Vielleicht verrätst Du noch, für welches OS das Tool gesucht wird. Hoppla, natürlich: Windows (7) --> die genannten sind damit raus ;)
...bis auf Hardlinkbackup natürlich. War ich bei heise drüber gestolpert und hörte sich erstmal merkwürdig an. Ist aber praktikabel? Wiederherstellung dann vermutlich nur mit dem Programm, weil die Links ja wieder aufgelöst werden müssen?
Max schrieb: > Ist aber praktikabel? Ja. Freilich nur für Datenbackups, nicht für Sicherung und Wiederherstellung des Windows-Systems. > Wiederherstellung dann vermutlich nur mit dem Programm, weil die Links > ja wieder aufgelöst werden müssen? Yep. Das Programm dazu heisst "Windows", mit Explorer, irgendeinem Commander, was immer man halt für Files so nimmt. Diese Links sind nämlich ein nicht jedem bekannter aber von Anfang an vorhandener Teil von NTFS. Setzt deshalb freilich eine mit NTFS formatierte Backup-Disk voraus, mit FAT gehts nicht. Soll heissen: Auf der Backup-Disk ist aus Sicht des Windows-Filesystems für jede inkrementelle Sicherung der vollständige Stand des Quellbaums gespeichert. Ein spezielles Restore-Programm gibt es nicht.
:
Bearbeitet durch User
Für jede inkrementelle Sicherung hat man dann einen Mix aus geänderten "echten" Dateien und links auf eine vorherige oder die Initiale Sicherung?
Macrium Reflect wurde nicht erwaehnt. Benutze es seit Jahren - allerdings die Free Version die mir "nur" differentielles und Voll-Backup zur Verfuegung stellt. Das reicht mir aber auch vollkommen. Was mir an Macrium gefaellt ist die Professionalitaet,Zuverlaessigkeit und konstante Weiterentwicklung was dazu fuehrt das z.B. notwendige Patches sofort an die User weitergegeben werden. Hier der Link zur Free Version.Man bekommt dort auch eine Aufstellung der Unterschiede zwischen den Vollversionen gegenueber der freien Version. https://www.macrium.com/reflectfree
Hallo, ich habe die Sache bei mir etwas unkonventionell gelöst, nämlich durch Subversion (SVN). Ist zwar ein Versionskontrollsystem, aber da ich zwei Festplatten im PC verbaut habe liegt der SVN-Server auf einer Platte, meine Daten zum Arbeiten auf der anderen. Jedes mal, wenn ich mit etwas fertig bin oder für eine Zeit nicht mehr weiter machen werden gibt es ein Rechtsklick auf den Ordner und SVN Commit (damit wird das ganze auf den Server geladen). Und dann kopiere ich normal alle 1-2 Monate den Server manuell auf eine externe Festplatte. Hat für mich den zusätzlichen Vorteil, das ich darüber die Dateien auf mehreren PCs synchron halten kann und zusätzlich jede Kopie der Daten als Backup fungiert, obwohl damit gearbeitet werden kann. Zusätzlich kann ich von einer Datei auch jeden vorhergehenden Zustand wiederherstellen oder mir Unterschiede zu älteren Versionen ansehen. Nachteil ist, das die Arbeitskopien einen massiven Overhead haben (benötigt ca. den doppelten Speicherplatz, da die Dateien ganz normal in der Ordnerstruktur liegt und zusätzlich im Hauptordner versteckter Ordner angelegt wird mit dem Verlauf). Da ich nur ein paar GB gesicherte Daten habe stört mich der Overhead nicht in Zeiten von TB Platten, ist aber sicher ein Nachteil. Ob es für dich interessant ist kann ich aber leider nicht sagen. Gruß Kai
Kai S. schrieb: > Ob es für dich interessant ist kann ich aber leider nicht sagen. Puh, ehrlich gesagt fordert das ja noch mehr Selbstdisziplin, als ich ohnehin schon nicht habe und weswegen ich auch eine komfortable Lösung suche. Ist bei mir auch nur ein Rechner im wesentlichen und die Vorteile einer Versionierung bräuchte ich wenn überhaupt nur bei einem Bruchteil der Dateien. Sind eher Fotos und so und werden nicht bearbeitet.. trotzdem Danke für diesen Blick über den Tellerrand! ;)
Max schrieb: > Für jede inkrementelle Sicherung hat man dann einen Mix aus geänderten > "echten" Dateien und links auf eine vorherige oder die Initiale > Sicherung? Es gibt keine echten Files und unechte. Das sind alles durchweg normale gleichberechtigte Files, nur sitzt dasselbe File in zig Directories drin, wenn es sich nicht zwischendrin änderte. Und zwar nicht als Kopie oder Verweise, sondern als Original in einem einzigen Exemplar. So wie du in 5 Telefonbüchern stehen kannst, ohne dich klonen zu müssen und ohne dass eines davon irgendwie besonders wäre. Es gibt Filenodes (das bist du) und Directory-Einträge (im Telefonbuch). Beliebig viele Dir-Einträge können auf ein und dieselbe Filenode verweisen, ohne den Inhalt zu kopieren. Das Filesystem zählt mit, wieviele Dir-Einträge auf eine Filenode verweisen. Eine Filenode verschwindet erst, wenn der letzte darauf verweisende Dir-Eintrag verschwindet (wenn du aus dem letzten Telbuch gelöscht wirst, dann Frieden deiner Seele ;-). All das macht NTFS selbst. HardlinkBackup nutzt nur das, was Windows sowieso schon mitbringt. Diese Feature ist recht wenig bekannt, steckte aber von Anfang an in Windows NT, vermutlich weil sie für das ebenfalls recht unbekannte POSIX-Subsystem notwendig war. Probier es aus. Die Basisversion ist kostenlos und u.U. bereits ausreichend.
:
Bearbeitet durch User
A. K. schrieb: > Probier es aus. Die Basisversion ist kostenlos und u.U. bereits > ausreichend. Bin dabei :) Bedienung geht auch gut von der Hand und Oberfläche wirkt auch ansprechend. Ein Verständnisproblem bleibt gerade trotzdem: Ich sichere auf meine NTFS-formatierte Festplatte. Im zu sichernden Ordner habe ich jetzt mal eine "größere" Datei gepackt --> Erste Sicherung ist dann gute 9MB groß. Der Ordner der zweiten Größe wird, wenn ich zwischendurch nichts verändert habe, als genau so groß angezeigt (die Dateien sehen ja auch für mich absolut identisch aus). Der Vorteil der Hardlinks liegt jetzt aber nicht nur in höherer Geschwindigkeit, sondern tatsächlich auch in weniger Speicherbedarf? --> D.h. auch wenn die Ordner im Explorer alle gleich groß aussehen, summiert sich ihre Speicherbedarf nicht einfach nur auf? Ich kriege einen 100GB großen Ordner also mehr als 10x auf eine Terrabyte-HD gesichert?
Max schrieb: > habe ich jetzt mal eine "größere" Datei gepackt --> Erste Sicherung ist > dann gute 9MB groß. Der Ordner der zweiten Größe wird, wenn ich > zwischendurch nichts verändert habe, als genau so groß angezeigt (die > Dateien sehen ja auch für mich absolut identisch aus). Yep, du wirst feststellen, dass die Summe der Grösse der einzelnen Backup-Bäume die Kapazität der Zielplatte übersteigen kann. Das ist aber bloss ein Schmutzeffekt der Messung. > Der Vorteil der Hardlinks liegt jetzt aber nicht nur in höherer > Geschwindigkeit, sondern tatsächlich auch in weniger Speicherbedarf? Richtig. Ergibt inkrementelle Sicherungen ohne inkrementellen Charakter des Backups-Mediums. Jeder Backup ist vollständig, belegt aber nur die Änderungen. Einen Nachteil gegenüber Containern auf dem Backup-Medium hat die Sache: Da aus guten Gründen nur Files hardlinkbar sind, nicht auch Directories, gibts immer noch für jedes File einen Directory-Eintrag. Werden sehr viele selten geänderte Files gesichert, wird die Backup-Dauer wesentlich von der Zeit bestimmt, diese Einträge im Zielfilesystem zu erzeugen. Das dauert auch dann einige Zeit, wenn sich gegenüber dem letzten Backup nichts geändert hat. Aufgrund von Massnahmen zur Integrität entfernbarer NTFS Medien ist Windows da etwas träge. Das gilt natürlich auch wenn man alte Backups wieder entfernt. Die vielen Einträge zu löschen dauert etwas.
:
Bearbeitet durch User
A. K. schrieb: > Yep, du wirst feststellen, dass die Summe der Grösse der einzelnen > Backup-Bäume die Kapazität der Zielplatte übersteigen kann. Das ist aber > bloss ein Schmutzeffekt der Messung. Was meinst du damit? Dass die Summe nur unwesentlich größer sein kann? --> Ist doch gar nicht so, oder? Ich habe jetzt mal rund 100MB im Testordner und mehrere Backups erhöhen den in den Eigenschaften des Volumes angezeigten belegten Speicher nur um knappe 100kB, also kann das bei wenig Änderungen ja schnell ein vielfaches sein (was ja gut ist!)? Na jedenfalls bin ich erstmal positiv überrascht und muss meinen allerersten Eindruck revidieren. Wie gesagt: Als ich das erste Mal drüber stolperte, habe ich ziemlich schnell weitergeklickt, weil ich dachte: "Aha, da werden also irgendwelche Tricks genutzt, sicher irgendein Gefrickel". Aber ist ja wirklich je mehr man sich damit beschäftigt, eine clevere und sehr unabhängige Lösung, deren "Abkündigung" soweit faktisch auf lange Sicht ausgeschlossen ist... Nochmal zum Thema Container: Die vereinfachen ja auch andere Sachen, wie das Validieren des Backups auf Integrität. Gibt es hier auch auf Einzeldateiebene sinnvolle Maßnahmen? Ich stecke in der Materie natürlich nicht so sehr drin, aber sollte man ggf. noch über das Backup Checksummen oder dergleichen laufen lassen? Gibt es darüber hinaus noch Ansatzpunkte, zu verhindern, dass Originaldateien, die z.B. aufgrund von Festplattenfehlern "kaputt gehen" erkannt werden und nicht intakte Dateien im Backup überschreiben? --> Letztlich müsste man das ja VOR dem Backup machen? Oder sind solche Probleme alle eher vernachlässigbar?
Max schrieb: > Was meinst du damit? Dass die Summe nur unwesentlich größer sein kann? Dass die Summe der Backups sehr viel grösser sein kann, als eigentlich auf die Platte passt. Wenn man die einzelnen Bäume betrachtet. Backups unveränderter Daten belegen im Ziel-Filesystem nur den Platz für die Directories, nicht für die Inhalte der Files.
Max schrieb: > Nochmal zum Thema Container: Die vereinfachen ja auch andere Sachen, wie > das Validieren des Backups auf Integrität. Gibt es hier auch auf > Einzeldateiebene sinnvolle Maßnahmen? Windows NTFS ist zig Jahre alt und eine ziemlich stabile Angelegenheit. Kannst ab und zu ein chkdsk mit vollständigem Diskscan drüber laufen lassen. Ansonsten gibts auch "diff" Tools, die Bäume vergleichen können. > Ansatzpunkte, zu verhindern, dass Originaldateien, die z.B. aufgrund von > Festplattenfehlern "kaputt gehen" erkannt werden und nicht intakte > Dateien im Backup überschreiben? Bei diesem Verfahren werden Fileinhalte auf der Zieldisk nie überschrieben. Entweder sie sind unverändert (*), dann passiert überhaupt nichts, oder sie werden neu geschrieben und irgendwann später werden die alten nach Ablauf der Backup-Frist gelöscht. *: Irgendwie muss das erkannt werden, vermutlich per Vergleich der Änderungs-Timestamp mit der des letzten Backups auf der Zieldisk. Ist ein Sektor der Quelldisk irgendwann tot, führt das folglich nicht zu einer neuen Backup-Version und auf der Zieldisk verbleibt die intakte Version. Man kann auch mehrere Zieldisks abwechseln. Ist ohnehin klüger.
:
Bearbeitet durch User
Für Windows Backup benutze ich Acronis. Für meine Datensicherung benutze ich das Programm AllSynch. Das ist ein Synchronisierungsprogramm und Speichert auf eine Externe Festplatte meine Daten 1:1 ohne einen Container....
Hubert M. schrieb: > ich das Programm AllSynch. Das ist ein Synchronisierungsprogramm und > Speichert auf eine Externe Festplatte meine Daten 1:1 ohne einen > Container.... Das kann auch das in Windows mitgelieferte robocopy.
Ein weiterer Kandidat könnte Cobian sein. http://www.cobiansoft.com/cobianbackup.htm (Die Seite sieht grindig aus, aber das Tool ist besser)
A. K. schrieb: > Das kann auch das in Windows mitgelieferte robocopy. Das kenne ich nicht, laut Wiki sollte es über die Kommandozentrale funktionieren, wie steht nicht im Wiki. Also: Wie funktioniert das?
Hubert M. schrieb: > A. K. schrieb: >> Das kann auch das in Windows mitgelieferte robocopy. > > Das kenne ich nicht, laut Wiki sollte es über die Kommandozentrale > funktionieren, wie steht nicht im Wiki. Also: Wie funktioniert das? Es gibt auch eine grafische Oberfläche für Robocopy: YARCGUI http://yarcgui.wilkes.es/ Da hat man sämtliche Optionen zur Auswahl, muss sich aber nicht die Kommandozeile merken. Sehr komfortabel!
Hubert M. schrieb: >> Das kann auch das in Windows mitgelieferte robocopy. > > Das kenne ich nicht, laut Wiki sollte es über die Kommandozentrale > funktionieren, wie steht nicht im Wiki. Also: Wie funktioniert das? robocopy /? https://de.wikipedia.org/wiki/Robocopy
Auch wenn ich kein Windows-Fan bin. Wie wäre es mit xcopy? In einen Batch-Job verpackt, kann man sich mit den optionalen Parametern so richtig austoben.
Sebastian S. schrieb: > Wie wäre es mit xcopy? robocopy ist eine Art erweiteres xcopy, kann aber auch das Ziel mit der Quelle abgleichen. Also Files, die nur noch im Backup exitieren, auch wieder löschen. Und tauesend andere Dinge, wie Batch-Betrieb ohne dumme Fragen.
Wie sieht es aus mit dem Erstellungs- und Änderungsdatum bei den kopierten Dateien/Ordnern? Die möchte man ja wie bei der Quelle haben. Die meisten Tools scheinen die aber nicht mitzunehmen, was unnötiger Informationsverlust ist. Ist euch eigentlich schon aufgefallen, daß Windows gar keine Änderungsmöglichkeit für diese Daten im Informationsdialog des Explorers bietet? Für Win98 gibts da ein Tool. Für XP und mehr kenne ich keins.
Der Explorer ist kein ein Spiegelbild dessen, was auf API Ebene möglich ist.
Abdul K. schrieb: > Ach echt. Du machst wohl gerne Scherze. Hätte mich fast verschluckt. War deine Idee, den Explorer zum Massstab zu nehmen, nicht meine. https://msdn.microsoft.com/de-de/library/windows/desktop/ms724933(v=vs.85).aspx Robocopy kann zudem den Backup-API verwenden, um Files zu kopieren. Da dürfte dann automatisch alles dabei sein, Alternate Streams inklusive. Timestamps gibts aber auch auf normalem Weg: /COPY:T.
:
Bearbeitet durch User
Wir hatten das Thema doch schonmal. Was war das Problem mit robocopy? Habs vergessen. Die Hardlinks wurden ja schon erwähnt.
A. K. schrieb: > Timestamps gibts aber auch auf normalem Weg: /COPY:T Das gilt allerdings nur für Dateien. Um auch die Zeitstempel von Verzeichnissen zu retten, braucht es zusätzlich die Option /DCOPY:T
ich hab das vorgeschlagene hradlinkbackup jetzt mal ausprobiert: ist ok. - installieren - quellverzeichnisse wählen - zielverzeichnis (auf NTFS datenträger, hier 2. interne Festplatte) wählen - start dauer beim ersten syncen war 1:15h für 125GB (von SSD auf platte). dauer beim gleich darauffolgenden nochmaligen backup war 2min (100mb geänderte daten). die backupdaten (quellverzeichnisse) liegen dann unter z.b. d:\<zielverzeichnis>\<backupdatum>\ auch schön: die einstellungsdatei für dieses backup kann auf den desktop gelegt, und ein backup einfach mit doppelklick und [start] gestartet werden - optional kann der rechner danach heruntergefahren werden. nicht schön: einige dateien aus c\benutzer\* können nicht gelesen werden weil das dreckswindows die finger drauf hat. ist halt einfach ein scheiss betriebssystem.
c. m. schrieb: > nicht schön: einige dateien aus c\benutzer\* können nicht gelesen werden > weil das dreckswindows die finger drauf hat. ist halt einfach ein > scheiss betriebssystem. Die Bezahlversion kann es laut Feature-Vergleich.
A. K. schrieb: > c. m. schrieb: >> nicht schön: einige dateien aus c\benutzer\* können nicht gelesen werden >> weil das dreckswindows die finger drauf hat. ist halt einfach ein >> scheiss betriebssystem. > > Die Bezahlversion kann es laut Feature-Vergleich. möglicherweise. sind aber nur eine handvoll windows-interner dateien von diensten die ich eh nicht will, aber auch nicht deinstallieren kann. mir sind auf der spielekiste (mehr ist dieser rechner nicht) nur die sicherung der spielstände wichtig.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.