1&1 "verliert" Backup-Space -> unzuverlässig? Wie erreicht man ein Restore durch 1&1?

async

New Member
Hallo zusammen,

kürzlich wurde mein Backup-Space bei 1&1 für einen Rootserver plötzlich unerreichbar.

Die Meldung
Connected to backupxxx.onlinehome-server.info (xxx.xxx.xxx.xxx).
220 FTP server ready.
Name (backupxxx.onlinehome-server.info:root): bakxxxxxxx
331 Please specify the password.
Password:
500 OOPS: cannot change directory:/kunden/xx/bakxxxxxxx

wurde erst nach zweimaliger Kontaktaufnahme mit dem Platin-Service mit Eskalation insofern behoben, als nun ein leerer Backup-Platz wieder zur Verfügung steht.

1&1 hatte zuvor behauptet, sie hätten kein Problem und schloss das Ticket einfach; o.g. Meldung besagt jedoch, dass der User erfolgreich angemeldet wurde, aber keinen Zugriff mehr auf das Backup-Verzeichnis hatte (oder das Verzeichnis gar nicht mehr vorhanden war?); diesen Umstand kann nur 1&1 selbst regeln.

Nun sind aber über 120 GB Backups verschwunden, dazu sämtliche bisherige Tagesbackups meiner eigenen Kunden.

Lapidare Antwort von 1&1:
Nach Rücksprache mit unserer zuständigen Fachabteilung konnte Ihr Backup-Space mittlerweile wieder zur Verfügung gestellt werden, der Zugriff sollte Ihnen somit erneut möglich sein. Trotz Anstrengungen unsererseits konnten die älteren Daten nicht mehr hergestellt werden, diesen Umstand bitten wir zu entschuldigen.
Sollte es weiterhin zu Problemen kommen, so geben Sie uns bitte eine entsprechende Rückmeldung. Um eine Problemlösung zu beschleunigen, können Sie sich auch gerne direkt unter unserer kostenfreien Rufnummer: 0800 / xxxxxxxxx melden.

Wie soll man Eurer Meinung nach mit so einer inakzeptablen Situation umgehen?

Der Backup-Space ist ja offenbar unzuverlässiger als der ganze Server, somit ist das Backup komplett sinnlos, da es ja jederzeit wieder dazu kommen kann, dass es einfach verschwindet. Andererseits muss man sich aber auf die Zuverlässigkeit gerade der Backups verlassen können.

Hat die Firma nicht selbst eine Sicherung dieses Backup-Space? Ich verstehe durchaus, dass man die Rootserver selbst natürlich nicht bei 1&1 sichert, dafür trage ich selbst Verantwortung, aber der vertraglich zugesicherte Backup-Space muss doch seine Funktion erfüllen, oder nicht?

Falls seitens 1&1 tatsächlich "Anstrengungen" unternommen worden sind, dann bedeutet das ja im Umkehrschluss, dass alle Backups bei 1&1 vollständig ungesichert sind, oder?

-> Was tun, abgesehen von der mehrgleisigen Backup-Strategie und einem permanenten rsync über DSL nach Hause oder auf Server anderer Anbieter?
 
Hi,

also das ist ja schon relativ "heftig" :eek: Auch die Aussage das die Daten nicht wieder gewonnen werden konnten. Grundsätzlich würde ich zunächst zu einem anderen Anbieter wechseln der dir entsprechendes FTP Backup zur Verfügung stellt.

Was man gegen 1&1 machen kann in dem Falle sollte wohl in den SLAs geregelt werden wobei ich nicht glaube das dort etwas drin steht was auf Datenverlust beim Backup-Space abzielt.
 
Nachtrag

Ergänzung nach einem klärenden Gespräch mit dem Platin-Service:

Lt. Aussage 1&1:
- seien sämtliche Backup-Spaces auf einem (RAID-gestützten) System vernichtet worden, es sei nicht nur ich davon betroffen.
- handele sich um einen (seltenen?) Hardware-Fehler und der Hersteller sei entsprechend eingebunden.
- werde man sich um eine Kulanzlösung kümmern, um entstandenen Aufwand/Ärger etwas zu abzumildern.

Man fand die o.g. Mail seitens Support offenbar inhaltlich auch nicht so glücklich; im Gespräch habe ich mal anregt, dass:

1. Tickets nicht mit "es liegt kein Problem" am Wochenende geschlossen werden, wenn das nicht der Wahrheit entspricht.

2. die Rückmeldung zu einer Problembeschreibung inhaltich wahrheitsgemäß und vollständig gemeldet wird (mit ein bisschen Wahrhaftigkeit hätte ich keine Beschwerde eingereicht, sondern vermutlich mehr Verständnis gehabt, wenn es auch am Ärger und Aufwand nichts ändert).

3. , weil der in einem Rootserver-Tarif enthaltenen Backup-Space an den Rootserver gekoppelt ist und man ihn nur über den Server erreichen kann, es nur schlüssig wäre, die SNMP-Meldungen aus dem Backup-System bzw. dem RAID-Controller oder einem entsprechenden SNMP-Agenten an die Monitoringkomponenten des Rootservers weiterzuleiten und so grundsätzlich der Monitoring-App zur Verfügung zu stellen. Das wäre ein systemtechnischer Aufwand, der m.E. überschaubar und im Interesse aller Kunden und auch Ops wäre. Was würde es ihnen denn bringen, Hardwaredefekte und Datenverluste zu verheimlichen?

Also habe ich erstmal meine rote Flagge durch eine gelbrote ersetzt und bis auf Weiteres eigenen Backup-Redundanzen vergrößert und schaue mal, ob sich Zeitaufwand und Kosten trotzdem wieder auf Normalniveau reduzieren lassen.
 
Sowohl Soft- als auch Hard-Raid kann die Inhalte zerschiessen oder die Partition sich in Einzelteile zerlegen. Es gibt natuerlich weitere selterenere Fehlerquellen wie Bitkipper auf beiden Platten, Logikfehler im Raid-Controller, ...
Dass das dem Anbieter scheinbar gar nicht aufgefallen ist (Monitoring?!) und keine Redundanz besteht halte ich fuer einen kommerziellen Anbieter dieser Groesse doch schon etwas fahrlaessig.

Dass einige -aber nicht alle- Daten wiederhergestellt worden konnten deutet imho auf eine kaputte Partition hin deren lost+found Ordner nun mit nicht zuordenbaren Daten ueberquellt.

Gehoert(e) 1&1 nicht zu den Anbieter welche die ganze Pizzaschachtel im Falle eines Hardware-Defekts inkl. Festplatten austauscht? Wenn ja; dann ist ein sauberes und sicheres Backupsystem doch wichtiger denn je.
 
Back
Top