Forum: PC Hard- und Software Automatisches Webseiten-Backup


von WebseiteWeg (Gast)


Lesenswert?

Hallo Leute

Heute hat es mich erwischt! Wie es so ist mi manuellen Backups: "shit 
hits the fan+ wenn keines gemacht wurde! Der Anbieter, bei welchem ich 
meine Webseite habe (kleine Firma) hat dicht gemacht. Einfach so... 
Geschichte für sich.

Was ich nun auch mit langer Suche noch nicht gefunden habe:

Ich möchte eine Lösung bei mir zu Hause, welche mir das BAckup 
automatisch vom Webhoster abholt. Bei mir zu Hause wäre wohl nötig, da 
ich auf dem Server keine PRogramme ausführen kann...

Folgendes möchte ich:
- Abholen aller Daten per FTP: 1 mal im Monat komplett, dann nur 
Änderungen (viele Bilder, somit viele Daten)
- Dump der MySQL-Datenbank, da Wordpress verwendet wird
- Alte Backups nach X Monaten löschen

Bei mir läuft ein QNap NAS 24/7 durch. Habe hierfür allerdings keine 
brauchbare Lösung gefunden. Ausserdem läuft ein Raspberry Pi mit Linux - 
ebenfalls 24/7...
Leider bin ich nicht wirklich mit Linux vertraut um Scripte und Jobs zu 
erstellen :-(

Kennt vielleicht jemand eine Lösung, welche auf meinen Geräten laufen 
könnte - oder auch eine Anleitung für Dummies um die nötigen Scripe auf 
Linux zu erstellen?


Für meine jetztige Webseite wird wohl zu spät sein - aber das will ich 
nicht nochmal! Das letzte Backup ist halt schon eine Weile her :-/

von K. J. (Gast)


Lesenswert?

Wenn Linux eh läuft z.b. auf dem rpi, FTP Mounten und dann mit rsync das 
Backup machen Datenbank würde ich per Cron ... direkt auf dem Server und 
dann mit beim Backup runterladen.

FTP ist nur sehr ungünstig für Backups und viel zu langsam.

von WebseiteWeg (Gast)


Lesenswert?

K. J. schrieb:
> FTP ist nur sehr ungünstig für Backups und viel zu langsam.

Danke, K.J. Damit kann ich schon mal etwas weiter suchen...

Das Problem ist halt, dass die meisten Hoster HTTP und FTP haben - und 
dann ist meines Wissens schon mal Schluss. Zumindest wenn es nicht in 
die Business-Preisklasse gehen soll (soweit ist es nur eine private und 
Hobby-Seite).

Jetzt muss erst mal ein neuer Hoster her und denne gucken, ob ich da nen 
Cron zum laufen kriege :-/

von Base64 U. (6964fcd710b8d77)


Lesenswert?

Mit ftp kannst du direkt ordner spiegeln. Das braucht beim ersten mal 
lange und dann lässt du das einfach täglich laufen. Macht nur die diffs 
dann.
Merke; wenn du nur einmal im Monat ein Backup machst verlierst du im 
besten Fall ein Monat....

Damit das script ned parallel läuft sowas wie:

> #!/bin/sh
> [ "${FLOCKER}" != "$0" ] && exec env FLOCKER="$0" flock -en "$0" "$0" "$@" || :

oben ins script rein am Anfang. Und das script startest du dann (am 
besten ned als root) einfach täglich oder wöchentlich via cron.

z.B. mit:
> runuser -l MYUSER -c '/bin/sh /path/to/script.sh > 
/var/log/anacron/LOGNAME$(date +%Y-%m-%d_%H-%M-%S) 2>&1'


Das legt dir dann bei jedem mal ein log file an und redirectet stdout 
und stderr dort hin.

Bitte auf jeden Fall eine Verschlüsselung und ned nur ftp (also ftps 
z.B.) nutzen!!!

Ich nutze Borg für differentielle Backups.

Am besten auch im pull modus, also den Server den du backuppen willst, 
von dem ziehst du. Wenn der Server den du backuppen will pusht und der 
wird kopromittiert dann überschreibt der dir im besten Fall auch deine 
Backups.

von Nop (Gast)


Lesenswert?

Kannst ja mal drüber nachdenken, ob Du den ganzen Prozeß nicht umkehren 
willst, und zwar mit statischen Webseiten.

Du hättest dann den Generator mit den Source-Dateien bei Dir lokal auf 
dem Rechner und würdest nur die Ausgabe-Dateien auf den Webhost 
raufschieben. Backup geht bei Dir dann lokal genauso wie für Deine 
anderen lokalen Daten.

Hat obendrein den Vorteil, daß Du WordPress loswirst, und Deine Webseite 
dürfte schneller werden.

von WebseiteWeg (Gast)


Lesenswert?

Time to celebrate!
Meine Webseite ist wieder online - für wie lange? ... naja. Filezilla 
und so sind jedenfalls am backupen! Somit habe ich zumindest den 
heutigen Status :-)

@ Base64 U.
So komme ich weiter! Vielen dank!
Dass der FTP dann nur noch geänderte Files zieht, dass sollte ich 
googeln können - dann noch Ordner packen und nach Datum benennen...
So tut der RasPi auch mal was wenn er nicht Media servert :-p

@Nop
Ach! Wenn Du Dich mal daran gewöhnt hat etwas zu posten - und es knallt 
gleich auf Facebook, Instagram, Flickr etc... dem ganzen 
Social-Media-P*rn halt... Ich gebs zu: ich bin geil auf Likes :-P
45 Jahre und noch immer ein Kind ;-)
Du weisst ja: Männer wachsen bis 8 - danach werden sie nur noch... ah 
nee! Männer sind wie Wein: sie werden nicht älter - sie werden besser 
:-P

von Oli (Gast)


Lesenswert?

WebseiteWeg schrieb:
> Das Problem ist halt, dass die meisten Hoster HTTP und FTP haben - und
> dann ist meines Wissens schon mal Schluss. Zumindest wenn es nicht in
> die Business-Preisklasse gehen soll (soweit ist es nur eine private und
> Hobby-Seite).

Habe gute Erfahrungen mit Uberspace als Hoster gemacht.
Ein Cron-Job auf dem Heimserver holt bei mir per RSync regelmäßig alles 
ab und speichert lokal.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.