server backup auf NAS zuhause

stefkey

Member
Hi, ich habe einen vServer. Ich würde gerne bestimmte Verzeichnisse auf mein NAS zuhause backupen. Ich habe eine gute Leitung und für den Zugriff per rsync ist alles vorbereitet. Per ssh-Key kann ich mich einloggen auf dem NAS.

Was ist stabiler: Auf dem NAS ein script und cronjob einrichten der per rsync das Backup zieht oder auf dem Server ein script und cronjob anlegen?

Im Moment mache ich Backups per duply auf einen online Storage eines großen Providers. Dieser Storage ist auf dem Server gemounted. Das Problem ist, wenn aus irgendwelches Gründen der Storage nicht gemounted ist, schreibt mir das duply Backup meine server Platte voll.

Wer kann etwas zu dem einen oder anderen sagen und mir helfen weiterzudenken?
 
Zu Hause Backuppen kann eine gute Möglichkeit sein. Nur daran denken, dass üblicherweise der Download ein Vielfaches vom Upload ist. D. h. wenn Du dann einen Ausfall hast, dann brauchst Du aufgrund des geringen Uploads vielleicht seeehr lange, bist Du das Backup eingespielt hast. Bei einem Backup per rsync werden zusätzlich nur die Änderungen übertragen. Bei einer vollen Wiederherstellung musst Du aber alles auf einmal übertragen.

Da würde ich vielleicht anhand der tatsächlichen Uploadgeschwindigkeit und Datenmenge vorher mal überschlagen, wie lange so etwas dauern wird. Es könnten Tage und Wochen sein.

Das Problem ist, wenn aus irgendwelches Gründen der Storage nicht gemounted ist, schreibt mir das duply Backup meine server Platte voll.

  • Das duply nur starten wenn das Verzeichnis eingehängt ist. Eine Möglichkeit wäre es, das Sicherungsverzeichnis nicht direkt auf den Mountordner zu legen, sondern in ein Unterverzeichnis. Denn: Wenn die Backupfreigabe nicht eingehängt ist, dann ist das Unterverzeichnis nicht da und Duply dürfte sich deswegen mit Fehler sofort beenden.
  • Dir eine Mail schicken wenn es nicht gemountet ist. bzw. wenn das alter der Backups nicht geprüft werden kann. Es ist nicht nur wichtig Backups zu durchzuführen, sondern auch zu wissen, dass Sie wirklich in Ordnung sind.

Dafür würde ich auch autofs verwenden. Der hängt das Dateisystem bei Bedarf ein und nach einer gewissen Zeit ohne Benutzung hängt es das Dateisystem auch wieder aus. D. h. der Vorteil wäre, dass Dir das mit geringerer Wahrscheinlichkeit passiert, dass sich die Freigabe irgendwann mal aufhängt, weil die Freigabe eben nur Bei Bedarf eingehängt wird und nicht immer und dementsprechend immer darauf angewiesen ist, dass Sie da ist.
 
Last edited by a moderator:
Danke, das sind Knallertips! Werde es morgen angehen!

Und der Upload ist okay, ich würde nur bestimmte extrem wichtige Sachen zusätzlich (quasi ein drittes Backup) zuhause sichern.

Danke und Gruß
 
rsnapshot habe ich für meinen Privatkram (Webseiten, vserver,...) auch immer zu Hause mitlaufen lassen. Wenn das NAS eh schon läuft, dann kann es auch alles sichern. Die Platte zu Hause ist billiger als die im RZ. Und ein Backup mehr ist nie verkehrt. Aufgrund der inkrementellen Sicherung fällt da auch nicht viel an.

---

Nur Mal ein kleines Rechenbeispiel:

100 GB Wiederherstellung bei 2 MBit Upload (z. B. bei einem DSL 32K-Anschluss):

2 MBit / 8 => 0.25 MByte/Sek * 3600 => 900 MB/Std * 24 => 21,6 GB/Tag => ~5 Tage Wiederherstellungszeit.
 
Last edited by a moderator:
ok, klasse. So würde ich es auch machen wollen. Einfach zusätzlich zuhause sichern. Evtl mit Dupla spaßhalber... mal schauen ob ich das zum laufen bekomme. Ich habe zufällig im Haus einen 10GB Upload Anschluss, der ist ganz stabil und flott seit einem Jahr. Und es handelt sich nur um ca 20-30 GB. Wie gesagt es, die wahrscheinlichkeit das ich auf das dritte Backup uruckgreifen muss ist gering, vielleicht mal ne einzelne Datei ausgraben? Evtl. halte ich die Backups dann zuhause einfach 2-3 Jahre vor... mal sehen.

Und die Geschichte mit duply: duply erstellt das Unterverzeichnis lokal wenn nicht gemounted. Mache ich was falsch?

Gemounted wird /media/1und1

und im duplyscript steht:
TARGET='file:///media/1und1/meinserver/privat/2016/'

Das mit autofs werde ich gleich machen, das wird vlt helfen.

Aber noch ein Problem: Wenn das gemountete Laufwerk voll ist während des Backups, dann bleiben die Dateien lokal in /var/cache/davfs/usw Und hier schreibt es dann auch wieder meinen Server voll. Kann ich in der davfs-Konfig das cache Verzeichnis begrenzen?
 
Und die Geschichte mit duply: duply erstellt das Unterverzeichnis lokal wenn nicht gemounted. Mache ich was falsch?

Keine Ahnung. Habe Duply noch nie verwendet.

In dem Fall würde ich mir einen kleinen Wrapper bauen, der testet ob die Freigabe eingehängt ist und per cron diesen aufrufen und nicht Duply selbst.

Code:
#!/bin/bash

DIR="/backup/verzeichnis"
if df | grep -q "$DIR\$" && touch "$DIR/test"; then
   rm -f $DIR/test
   duply ....
else
   echo "Backupdateisystem nicht verfügbar, Backup wird nicht gestartet"  \
          | mail -s "$HOSTNAME : Backupproblem" adminemail@bla.de
fi
 
Hi greystone, danke für deine Hilfe. Autos ist ein Paket welches ich installieren muss, richtig. Hier das passt, ja? https://wiki.archlinux.org/index.php/autofs

Oder geht das auch in der fstab zu regeln?

PS Cool mit dem script und touch oben :-)
Ich hatte es so versucht, geht auch:
Code:
#!/bin/bash
mounted=$(mount | grep "https://sd2dav.1und1.de on /media/1und1")

if [ "$mounted" ]; then
   echo "Backup-Platte gemounted. Backup kann gestartet werden"
     /usr/bin/duply ...

else
   echo "Backup-Platte ist nicht gemountet."
fi

exit 0
 
Last edited by a moderator:
Ja, autofs habe ich gemeint.

Den touch habe ich eingebaut, weil eine Freigabe durchaus eingehängt sein kann, aber vielleicht einfach nicht mehr reagiert, was man dann erst beim tatsächlichen Zugriff darauf merkt.
 
Back
Top