• This forum has a zero tolerance policy regarding spam. If you register here to publish advertising, your user account will be deleted without further questions.

Webserver Backup in der Cloud

mad_moses

Member
Hi,

ich würde gerne unsere Serverdaten in der Cloud sichern. Zur Zeit erstelle ich auf dem Server täglich ein SQL-Dump und kopiere diesen inklusiver aller Serverdaten mittels rsync auf unser NAS. Mit tar + gz erstelle ich komprimierte Archive und lege Sie dort ab. Ein paar mal im Jahr sichere ich die alten Backups auf eine Blueray und lagere diese für den Fall der Fälle noch in einen Bankschließfach.

Das ganze würde ich aber gerne vermeiden und direkt in der Cloud speichern. Die Daten sollen nicht mehr in der Firma liegen. (Könnten beim Diebstahl entwendet werden). Die Daten in der Cloud würde ich aber gerne auch Verschlüsselt ablegen. (Falls mal irgendeiner irgendwie an meine Zugangsdaten kommen soll und diese Runterlädt, soll er es nicht so einfach haben).

Da ich sowieso AWS schon nutze, habe ich mir Überlegt die Daten dort auf ein S3 Glacier abzulegen.

1) Ist es DSGVO konform die Daten bei Amazon zu lagern?
2) Habt Ihr alternative Vorschläge?
3) Wir würdet Ihr das umsetzen?

Ich bin für jeden input sehr Dankbar :)
 
(1) kommt auf die Daten an, die in dem Backup enthalten sind und auf die verwendete AWS-Region
(2) Wie groß ist denn der Datenumfang? Wie oft und schnell musst Du ggf. an die Daten herankommen?
(3) kommt drauf an :)
 
1) Ist es DSGVO konform die Daten bei Amazon zu lagern?

Für mein Verständnis ist gar nichts mehr DSGVO-Konform, dass sich auf US-amerikanische Unternehmen bezieht.
https://www.datenschutzexperte.de/blog/datenschutz-und-eu-dsgvo/eu-us-privacy-shield/

Sind die Daten denn Personenbezogen?

2) Habt Ihr alternative Vorschläge?

Nimm ein deutsches Unternehmen, dann musst du auch nicht so lange über Probleme mit den Gesetzen und Verordnungen nachdenken.
Ich denke mal, dass es in Ordnung ist, wenn ich Hetzner nenne. Die arbeiten professionell.

Wenn du dich hier im Forum umsiehst, wirst du weitere Deutsche Hoster finden, die gerne dazu bereit sind dich zu beraten.
 
(1) kommt auf die Daten an, die in dem Backup enthalten sind und auf die verwendete AWS-Region
Es handelt sich um Personenbezogene Daten. Die Region kann ich hoffentlich auf DE oder zumindest EU stellen?
(2) Wie groß ist denn der Datenumfang? Wie oft und schnell musst Du ggf. an die Daten herankommen?
Minimum: Es sind so ca. 50GB die ich zumindest einmal die Woche sichern möchte. Und dann täglich noch die SQL Dumps.(~1-2GB)
Geschwindigkeit: Das kann 1 Tag dauern, das ist eher nur für den fall der fälle gedacht.
(3) kommt drauf an :)
Brauchst du noch mehr input? :)
 
Last edited:
Für mein Verständnis ist gar nichts mehr DSGVO-Konform, dass sich auf US-amerikanische Unternehmen bezieht.
https://www.datenschutzexperte.de/blog/datenschutz-und-eu-dsgvo/eu-us-privacy-shield/

Sind die Daten denn Personenbezogen?
Ja, aber ich kann die Daten ja auch bei Amazon in Europa ablegen. Umgehe ich dann nicht das problem?

Nimm ein deutsches Unternehmen, dann musst du auch nicht so lange über Probleme mit den Gesetzen und Verordnungen nachdenken.
Ich denke mal, dass es in Ordnung ist, wenn ich Hetzner nenne. Die arbeiten professionell.

Wenn du dich hier im Forum umsiehst, wirst du weitere Deutsche Hoster finden, die gerne dazu bereit sind dich zu beraten.
Die sind halt im vergleich super teuer.
 
S3-Glacier ist je nach Art der Backups auch nicht sonderlich billig. Zudem bedingt es entweder vorne dran noch eine EC2-Instanz (AFAIR) oder die Anpassung des "lokalen" Backupkonzeptes mit Anbindung an die entsprechende AWS-API.

Ich habe mir Glacier auch man für unser Backup-System überlegt, bin aber wieder davon abgekommen da bei uns die Art der zu sichernden Daten dafür so rein gar nicht geeignet ist (teilweise viele kleine Files und nur geringe Deltas) und das via Glacier nicht vernünftig abbildbar ist. Zudem sind die Zugriffsmöglichkeiten auf Glacier sehr eingeschränkt, so daß wir bei einer kleinen EC2-Instanz mit lokaler Platte gelandet sind.

Wenn Du aber nur wenige, dafür große Files sichern willst ist Glacier durchaus ein Blick wert.

Alternativen wie Hetzer Storage Box und so kann und sollte man sich auch immer anschauen.
 
Ich denke mal, dass es in Ordnung ist, wenn ich Hetzner nenne. Die arbeiten professionell.
Auch wenn das Topic schon älter ist, ich aber auch immer wieder mal gucke was es so für Storage Lösungen innerhalb der EU (oder in DE) gibt, würde ich jetzt noch Netcup in den Raum werfen, wobei Hetzner da wohl die "günstigeren" Produkte im Portfolio hat.

3) Wir würdet Ihr das umsetzen?
Ähnlich wie du dieses umsetzt, mache ich das auch. Hab mir selbst ein kleines Skript gebaut, welches mir ein DUMP der SQL Datenbank erstellt, dann '/var/vmail', '/var/www' und noch ein paar Ordner in einem tar.gz Archiv zusammenpackt und anschließend verschiebt. Immer Sonntags nach dem Backup wird alles was älter ist als 14 Tage (auf dem Storage System) und 7 Tage (Lokal) gelöscht. Anschließend wird noch eine E-Mail an mich versandt und fertig ist.

Aber da gibt es halt viele Wege die nach Rom führen :)

Gruß, Domi
 
Ich mache tägliche verschlüsstelte Backups (restic) in mehrere Clouds (Onedrive, Backblaze B2), allerdings nur für private Dinge. Ob das den Einsatz von amerikanischen Dienstleistern, welche die DSGVO nicht einhalten, dann für gewerbliche Zwecke legitimiert kann ich allerdings nicht sagen.

Mit restic hat man den Vorteil, dass es sog. Repositories gibt und man im Prinzip nur einmal eine Vollsicherung machen muss, in den Folgebackups werden dann nur die Änderungen gesichert, aber man kann auch beliebige Backups löschen und den Speicher wieder freigeben lassen.

Ich sichere grundsätzlich für 365 Tage, was sich in mehreren Fällen schon gelohnt hat. 14 Tage wären mit persönlich zu wenig.
 
Ich sichere grundsätzlich für 365 Tage, was sich in mehreren Fällen schon gelohnt hat. 14 Tage wären mit persönlich zu wenig.
Kann ich von meiner Seite nur bestätigen. Wir bieten üblicherweise 14 Tage Backupvorhaltezeit an, haben aber freiwillig meist eine längere Vorhaltezeit. Das wurde schon des Öfteren dringend benötigt.

Bzgl. der Datenbank wäre noch sinnvoll Transaktionsprotokolle zu sichern mit der man Datenbankdaten bis direkt vor einem Ausfallzeitpunkt wiederherstellen kann und nicht nur täglich(sog. Point in Time Recovery). Bei MySQL wären das die Binary-Logs bei Postgres die Write-Ahead-Logs.

---

Wie ist denn die Größe und Änderungshäufigkeit der Dateien? Bei einer großen Menge an kleinen bis mittelgroßen Dateien, mit einer mittleren bis geringen Änderungshäufigkeit ist rsync oder eine darauf basierende Backuplösung(Ich bevorzuge BackupPC) sehr gut geeignet. (Bei sehr großen Dateien mit hoher Änderungshäufigkeit bringt das keine zusätzlichen Vorteile.) Dazu kann man sich eine Storage-VM mieten, mit viel Festplattenspeicher.
 
Last edited:
Back
Top