• This forum has a zero tolerance policy regarding spam. If you register here to publish advertising, your user account will be deleted without further questions.

Backup 100gB vServer rsync

stefkey

Member
Hallo zusammen,

ich habe einen vServer mit ca 100GB belegtem Platz. Das meiste sind E-Mails, ca 40GB und eine 40GB Nextcloud-Instanz. Der Provider macht täglich ein Image. Ich möchte zusätzlich gerne auf mein NAS zuhause täglich sichern. Ich habe einen 100/10 MBit Anschluss. Wie mache ich das am besten?

Ich würde per rsync mithilfe des Backup-Scrit von laurent22 https://github.com/laurent22/rsync-time-backupdem arbeiten wollen.

Ich frage mich halt ob rsync bei 100GB und gefühlt unendlich vielen Files fehlerfrei läuft. Der erste Sync würde einige Stunden laufen, das mache ich über Nacht. Die folgenden Backups ziehen ja dann nur noch die neuen und geänderten Files.

Kann rsync das schaffen, oder ist das fehleranfällig? Ist das Backup per rsync üblich oder nutzt man dafür besser andere Verfahren, es gibt ja sonst keine meine ich... per tar zB. müsste man ja auf dem Server genug Platz haben und ist ja zusätzlich noch Fehleranfällig falls Komprimierung genutzt wird.

Das rsync-time-backup Script behält 7 Tage, dann ein Backup pro Monat, und dann noch ein Backup pro Jahr.

Grüße, stefkey
 
Hmmm, da fällt aber ganz schön viel Speicherplatz auf dem vServer für die Backups an. Laut der Anleitung in dem Script werden da nur 1:1-Kopien gemacht. D.h., allein pro Jahr mindestens 12 Stück + 1 Jahres Backup. Dann noch die wöchentlichen. Ohne Deduplizierung und/oder Komprimierung können da die restlichen 20GB auf dem vServer schnell voll sein.
 
ein rsync-Backup auf ein etwas umfangreicheres VZ mit vielen UVZ und vielen kleinen Dateien mit in Summe ca. 500GB läuft hier recht entspannt...
 
Vielleicht kann dir Borgbackup weiterhelfen. Unterstützt Verschlüsselung, Kompression und Deduplizierung, remote respository und FUSE.
Wenn es sich um einzelne Images handelt, kann die Deduplizierung aber nichts ausrichten.
 
Vielen Dank für die Hinweise!

@mr_brain: das Backup-Scrit von laurent22 macht Hardlinks und es werden nur neue oder veränderte Daten mit jedem Backup neu gespeichert. Die 20GB vom Server werden nicht genutzt dafür, das Backup ist ja auf meinem NAS zuhause.

@marce: Machst du dann auch von Zeit zu Zeit mal ein neues Vollbackup oder lässt du dauerhaft rsync immer nur die Änderungen synchronisieren?

@DeaD_EyE: Cool, danke. Aber bei Borgbackup muss die Backupkette vollständig bleiben, oder? Ich zwar täglich ein Backup machen, aber aufbewahren will ich ja nur ein wöchentliches, bzw. sein monatliches. Das oben genannten Backup-Scrit von laurent22 erstelle die Backups ja mit hardlinks, da kann man dann einzelnen Backups zwischendrin einfach löschen.
 
Der rsync-Job macht nur rsync - sprich jeden Tag die Deltas.

(Das System, auf dem der rsync-Job läuft wird aber auch komplett gesichert, die Baustelle gehört aber "jemand anderem" bzw. das darf die HV-Umgebung herumfeaturen)

für die Stellen, wo ich selbst noch für Backup-Historie zuständig bin verwende ich rsnapshot.
 
Ich nutze für meine Backups schon seit Jahren tartarus - ist letztendlich nur ein Wrapper-Script für tar, bzip2 und gpg. Da ist auch ein Script dabei, um alte Backups aufzuräumen. Seit ich nicht mehr bei Strato bin, wird auf Amazon S3 gesichert, da lasse ich das Löschen allerdings von S3 erledigen.
 
Back
Top