Frage, Datenrettung vom USB Stick

Hallöchen, wollte vorhin schon mal schreiben... ging leider nicht. Aber der Stick ist ein 32GB Stick mit 22GB an Daten. Soweit ich das aber heute gesehen habe, konnte 'photorec' diverse Dateien wiederherstellen die gesucht wurden :)

Was die Datensicherung angeht, ich hätte bei Netcup einen root-Server mit ausreichend Speicher. Gibt es für Windows ein Programm das Datensicherungen auf einen sFTP Server schieben kann das man empfehlen kann..?

So etwas suchte ich im vergangenen Jahr schon mal für mich, hatte aber leider nichts gefunden.

Gruß, Domi
 
winscp würde ich da wohl nehmen.
Es gibt auch die eine oder andere rsync-Inplementierung für Windows, das müsstest du aber mal selbst ausprobieren.

Nachteil bei sowas wie winscp ist halt dass du entweder jedesmal alles übertragen, oder selbst erkennen musst was sich geändert hat.

Sowas macht rsync automatisch.

Thomas
 
AllwaySync sieht gut aus, dass hatte ich vor vielen Jahren mal benutzt um USB Stick und HDD immer abzugleichen, da ich damals noch keine Cloud hatte und diverse Daten immer von Zuhause mit ins Büro genommen habe :)

Nachdem ich jetzt erst einmal 40 Minuten lang versucht hatte eine sFTP Verbindung herzustellen und erst dann merkte, dass die Key Files unterschiedlich sind (was eigentlich nicht hätte sein sollen), hat es nun endlich geklappt :D

Und wenn ich das richtig sehe, kostet es $25 und diesen Preis sollte man bedenkenlos investieren. Ich bedanke mich schon mal herzlich für die Hilfe und Unterstützung.

Gruß, Domi
 
Testen kann man den Sync ohne weiteres mit der quasi nicht begrenzten persönlichen Version (da muss man schon sehr viele Daten übertragen). Wers fürs Business verwendet, muss dafür 25$ zahlen. Das ists in der Tat wert, ich verwende AllwaySync (bezahlt) privat, wie auch fürs Backup übers LAN in der Arbeit (natürlich ebenfalls bezahlt).
 
Moin moin, ich habe nach meinem Post noch mal ein wenig damit herum gespielt und getestet. Wenn ich das richtig sehe, kann das Programm ja auch gleich alles was es auf den sFTP Server schiebt, verschlüsseln.

Für meinen Kollegen wäre das ja gar nicht mal so schlecht, denke ich. Heute bringe ich ihm die wiederhergestellten Dateien vorbei und rede mal mit ihm über die Möglichkeiten für eine Datensicherung. Er hat zwar nun auch eine externe Festplatte bei sich, aber mit einem Automatismus wäre er da gut bedient.

Er kann ja seine Dateien auf dem USB Stick haben und mit AllwaySync gleicht man die lokale HDD und USB Stick ab und zusätzlich gleicht man noch die lokale HDD mit dem sFTP Verzeichnis ab, fertig ist.

Gruß, Domi
 
Er hat zwar nun auch eine externe Festplatte bei sich,

Aber das ist gleich schon wieder ein Problem. Denn wenn er die Festplatte in der gleichen Tasche wie den Laptop hat, können auch beide zusammen gestohlen werden / verloren gehen / herunterfallen / etc.

aber mit einem Automatismus wäre er da gut bedient.

NUR mit einem Automatismus ist ein auf lange Zeit hin funktionierendes Backup machbar. Jeglicher manueller Schritt wird vergessen / verschoben / etc.

Er kann ja seine Dateien auf dem USB Stick haben und mit AllwaySync gleicht man die lokale HDD und USB Stick ab und zusätzlich gleicht man noch die lokale HDD mit dem sFTP Verzeichnis ab, fertig ist.

Ich würde überhaupt nicht mit USB Sticks oder externen Festplatten arbeiten. Ein dropboxartiger Service (wie z.B. der Cloudsync auf eigener Hardware von Synology) wäre am einfachsten. Nebenbei könnten auf dem NAS (via Raid und professioneller Hardware, z.B. Festplatten) Verfügbarkeit und Ausfallsicherheit besser gewährleistet werden als auf USB Stick, Festplatte oder ähnlichem. Zudem hat man lokalen Zugriff auf die Daten (schnell), kann diese mit BTRFS "platzsparend" versionieren (z.B. 128 Versionen der gleichen Date) und kann noch andere nützliche Dienste laufen lassen. Ein externes Backup, das automatisch das NAS vor Desastern schützt, kann man mit immer verfügbaren und kontrolliert laufenden Geräten deutlich besser realisieren.

Die Lagerung von geschäftskritischen Daten auf Laptopfestplatten (die jederzeit ausfallen können), externen Festplatten und USB Sticks verbietet sich für mich.

Dein Vorschlag mag eine "Low Cost" Lösung sein, etwas mehr Sorgfalt könnte und sollte man aber trotzdem walten lassen.
 
Ich stimme dir da voll und ganz zu.. und das es die "Low Cost" oder "Low Budget" Variante ist, was ich da vorgeschlagen habe, liegt daran das ich die Leute leider kenne und viele kein Geld ausgeben wollen :eek:

AlwaySync bietet ja sogar an, Dateien verschlüsselt irgendwo abzulegen. Eine Variante wäre zusätzlich, alles was auf der HDD ist, mit meiner eigenen ownCloud (die verschlüsselt ist) zu synchronisieren.

Dann wären die Daten...
1.) Auf einem Datenträger der immer Griffbereit ist (USB Stick, externe HDD, interne HDD etc.)
2.) in der privaten und eigenen Cloud
3.) in der Datensicherung von der Cloud selbst

Ich habe sogar einen Kunden, Mittelständisches Unternehmen, mit denen wollte ich einen Servicevertrag machen für die Datensicherung (bin nebenberuflich IT Dienstleister) mit permanenter Überwachung der Sicherung, Prüfung der Sicherung etc. und da sagte der Kunde dann das er keinen Vertrag wolle. Mein Stundensatz ist nicht besonders hoch und ich hatte 6 Std. pro Monat für die Datensicherung + Überwachung angesetzt. War ihm zu viel.

Dem Kunden dann sagen "rechnen Sie sich aus, was der Verlust der Daten kostet" kann man ja auch noch machen, aber wenn darauf keine Reaktion kommt, sind einem die Hände gebunden. Nur mal so nebenbei erwähnt :D

Gruß, Domi

p.s. Den Ansatz mit der geklauten externen und dem Notebook etc. finde ich gut, so etwas hatte ich gestern auch mal angesprochen. Als Argument kam dann "hab nie beides gleichzeitig bei mir" :eek:

p.p.s. Aber AlwaySync ist schon gekauft. Lizenz muss nur noch da sein, dann wird es eingerichtet und fertig wäre der erste Teil.
 
Wie siehts denn eigentlich mit dem rechtlichen Zwang zur IT-Sicherheit aus?

Meines Wissens nach müssen Anwälte, Steuerberater und Co diverse Daten über längere Zeit revisionssicher vorhalten.
Eine Verschlüsselung ist nicht geplant? Einen gefundenen/geklauten USB-Stick wird wohl kaum einer direkt formatieren. Sieht doof aus, wenn solche Daten veröffentlicht werden.

Hier geht es ja nicht um einen Heimanwender, der gerne Urlaubsbilder zurück hätte, sondern um einen kommerziellen Anbieter, der auch Verantwortung seinen Mandanten/Kunden gegenüber hat.
 
Oh ha, da muss ich meinen Hut ziehen. So genau bin ich da jetzt auch nicht im Bilde. Bezüglich Verschlüsselung der Daten auf dem Stick hatte ich das Thema "TrueCrypt" schon mal in den Raum geworfen :)

Wird aktuell überlegt... die Lizenz von AlwaySync hatte ich ja schon gekauft und via Paypal bezahlt. Ich warte eigentlich nur noch auf eine E-Mail Rückmeldung. Dann treffen wir uns noch einmal und ich bringe das Thema noch mal auf den Tisch.

Wollte ihm sowieso dazu raten, nur mit den Daten auf der internen HDD zu arbeiten und mit AlwaySync die Daten verschlüsselt mit dem Stick abzugleichen. Und am anderen Ort werden dann die Daten wieder Synchronisiert und anschließend auf der lokalen HDD gearbeitet. Hoffe ich konnte das gut erklären wie ich das meinte :D

Gruß, Domi
 
Wollte ihm sowieso dazu raten, nur mit den Daten auf der internen HDD zu arbeiten und mit AlwaySync die Daten verschlüsselt mit dem Stick abzugleichen. Und am anderen Ort werden dann die Daten wieder Synchronisiert und anschließend auf der lokalen HDD gearbeitet. Hoffe ich konnte das gut erklären wie ich das meinte :D

Nochmals: jede Backupstrategie, die auf Kooperation des Nutzers angewiesen ist, wird Löcher haben und über kurz oder lang scheitern.
 
Vielleicht fasse ich das gerade falsch auf, aber es ist mir bewusst!! Und den Satz mit "nochmal" anzufangen, macht es nicht besser. Das ist auch nicht das erste mal, dass ich Datensicherungen durchführe. Ich höre mir nur gerne die Vorgehensweisen anderer Leute an und schaue was ich verbessern kann.

Dazu kommt, auf eine Kooperation des Nutzers ist man immer angewiesen... das fängt schon beim Kauf an. Und wenn es wie in diesem Fall darum geht, Daten von einem einzelnen Endgerät zu sichern, ist man sogar darauf angewiesen dass das Gerät nicht ausgeschaltet ist. Oder bei einem Notebook, dass es im W-LAN / LAN ist für eine Sicherung auf NAS (sogar das muss dann aktiv sein), oder dass der externe Datenträger angeschlossen ist (wenn es einen gibt).

Oder hast du einen Roboter Programmiert, der bei deinen Kunden die Datenträger automatisch tauscht und in den sicheren Tresor packt? Ich weiß also auf was du hinaus möchtest...

Gruß, Domi
 
Thunderbyte meint es sicher nicht böse ;) Er hat halt Recht. Backups müssen automatisch laufen, und nicht nur das. Sie sollten sich bei Fehlern auch deutlich bemerkbar machen sowie getestet werden. Wir nutzen zum Beispiel eine Eigenentwicklung zur Komprimierung und Deduplizierung unserer vServer-Backups - spätestens da war es unabdingbar, auch automatische Test-Restores mit Inhaltsprüfung zu implementieren, da gerade bei komplexer Software Fehler nicht ausgeschlossen werden können. Und die sollte man bemerken, bevor der Kunde sein Backup braucht und dieses aus irgendeinem Grund defekt ist.

Nichtsdestotrotz prüfen wir unsere Backups bzw. die Logfiles zusätzlich manuell, da ein derart wichtiger Bestandteil der Infrastruktur einfach funktionieren muss und man sich m.E. nicht nur auf seine Automatisierung verlassen sollte.
 
Vollkommen verständlich.. es wäre blöde, wenn man Backups macht, dann schmiert eine Kiste ab und "ta da", die Dateien sind unbrauchbar :eek:

Bei einem Kunden von mir hab ich z.B. auf dem Windows Server eine Acronis Software installiert die jeden Abend das Backup macht und per E-Mail die Rückmeldung gibt ob alles geklappt hat oder nicht. Wenn ich mich jetzt nicht irre, meldet der sich sogar erst nachdem er das Backup validiert hat. Einmal im Monat schaue ich dann sogar selbst in das Archiv rein ob die Daten auch funktionieren.

Hierbei ist allerdings auch der Kunde zu einem Teil gefragt, denn es existieren zwei externe Festplatten. Diese werden im Wochenzyklus gewechselt und sind beschriftet mit "Grade" und "Ungrade" :D Daran und mit einem Blick auf den Kalender erkenne ich, ob die richtige HDD angeschlossen ist. Die zweite HDD wird dann mit nach hause genommen. Da mein Kunde aber schon mal vergessen hat, die Dateien mit zu nehmen fand ich den Tipp von Thunderbyte mit AllwaySync echt Top! Nun spiele ich sogar mit dem Gedanken mir einen Backupserver (z.B. Hetzner Backup Storage) mit massig Speicher zu mieten um die Daten noch mal extern irgendwo abschieben zu können :)

Wie gesagt, hab das vielleicht auch etwas hart aufgefasst von ihm, weiß aber was er meint. Nichts ist sicherer als eine autonome backup-strategie, die aber (wie eben erwähnt) auch mal manuell geprüft werden sollte. Nicht das im Fall der Fälle alles kaputt ist :rolleyes:

Ich muss nur überlegen, wie ich das mit AllwaySync und einem externen Server mache, denn wenn ich jetzt z.B. die Daten vom Server mit einem Backup Storage Synchronisiere, eine Datei lösche, wird sie ja auch irgendwann am Server gelöscht. Da muss ich mir einen Plan machen wie ich das mit dem Programm verhindern könnte :)
 
Sorry, wenn meine Aussagen etwas zu bissig formuliert und entsprechend aufgefasst wurden. Definitiv keine Absicht, Dich anzugreifen. :)

Was ich meinte ist folgendes: m.E. sind bei "Laien" (Deinem Kunden) Backupstrategien ungünstig, die von irgendeiner Kooperation mit eben diesem Laien ausgehen (z.B. Festplatten nach einem Schema wechseln, bestimmte Programme manuell ausführen, etc.). Das simpelste Backup ist das, das man einmal konfiguriert und dann vergessen kann. Dazu zählt z.B. Apple Time Machine (fetten Regler auf EIN schieben, Speicherplatz für Backup auswählen, vergessen - insbesondere praktische wenn übers Netzwerk) oder wohl auch Acronis True Image, wenn es entsprechend konfiguriert ist.

Davon abgesehen sind Backups leichter, wenn man sie in "kontrollierten Umgebungen", wie einem NAS / Server machen kann, die 24/7 laufen. Ein Backup von einem NAS auf einen (verschlüsselten) Cloud Storage zeitgesteuert laufen zu lassen, ist eine der einfachsten Übungen und benötigt keine Userinteraktion mehr. Lokaler Storage (Laptopfestplatte, externe HD, USB Stick) ist dagegen höchst unsicher (kann verloren gehen, gestohlen werden, nicht verwendet werden) und niemals 24/7 online. Daher plädiere ich für das Arbeiten auf Netzlaufwerken und - wo dies nicht möglich oder praktikabel ist - auf das "dropboxartige" Synchronisieren von lokalem Speicher (Laptop) mit NAS/Serverordnern (z.B. Cloudstation auf Synology NAS) - alternativ hier Lösungen wie AllwaySync, wobei z.B. Cloudstation engmaschiger updated.

Fürs Komplettbackup (in erster Linie zum Schutz von OS Festplattencrashs) noch automatisiertes Acronis True Image dazu (wenn man im LAN ist) und fertig ist das wechselmedienfreie Backup.

Hinsichtlich AllwaySync: ich verwende es auf einem Windows Server, der nachts auf einen anderen Windows Server synct. Dieser hat "Volume Shadow Copy" und Deduplication (Winserver 2016) eingeschaltet, so dass mehrere Versionen einer Datei gespeichert werden können, jedoch nur das Delta den Speicher belastet. Eine ähnliche Versionierung lässt sich z.B. auch mit BTRFS auf Synology NASes realisieren, wo der Standard sogar 192 Versionen :eek: ist.
 
Okay, dem kann ich nicht widersprechen :) Mit AllwaySync hast du mir auf jeden Fall einen sehr guten Tipp gegeben. Die Möglichkeit, Dateien mit dem Programm auf einen SFTP schaufeln zu lassen, bietet mir ganz neue Ideen.

Bei einem meiner erwähnten Kunden ist es ja schon mal passiert das vergessen wurde die externe HDD zu tauschen. Mit AllwaySync könnte ich auch dessen Datensicherungen auf einen SFTP zu schieben. Nun muss ich mir eigentlich nur einen Server mit ca. 1 - 2 TB Speicher und SFTP Zugang besorgen, dann könnte ich dort zentral die Sicherungen von mir und von meinen Kunden hin schaufeln :D

Hast du vielleicht auch einen Tipp für ein Backup Programm das die Datensicherungen direkt auf einen SFTP schieben kann? Oder verwendest du für solch ein Szenario auch AllwaySync..? Ich sehe da aktuell nur das "Problem" das der Backup Server schnell voll wird, wenn AllwaySync die Dateien dort hin schiebt.

Es sei denn (korrigiere mich, wenn ich falsch liege), ich mache die Datensicherung lokal (z.B. Acronis) und das lokale Verzeichnis wo die Sicherungen drin sind, lasse ich mit dem Server einfach Synchronisieren. So wäre eine Sicherung immer vor Ort und eine auf meinem Backup Server. Nachteil wäre dann, wenn die lokale HDD kaputt geht ist man darauf angewiesen das SFTP Backup herunter zu laden.

Ist dieser Gedankengang richtig oder passend? So könnte ich dann anschließend bei allen Kunden wo Datensicherungen gefahren werden, alles vollkommen autonom laufen lassen. Der Kunde müsste nicht mal die Datenträger tauschen.

Gruß, Domi
 
Ich möchte jetzt kein Spielverderber sein, aber das Thema Datenschutz wurde bisher etwas vernachlässigt.

Da dein Provider beziehungsweise dessen Administratoren rein theoretisch Zugriff auf die Daten deines Servers haben können (Wartung, Konsolenzugang, ...) musst du an dieser Stelle (sofern du personenbezogene Daten auf deinem Server ablegst) eine ADV mit dem Provider abschließen.

Es kommt immer auf die Art und Weise an, wie du die Daten ablegst und wo, aber eine erste Leseempfehlung mal hier: https://www.bfdi.bund.de/bfdi_wiki/index.php/Auftragsdatenverarbeitung

Gruß
Markus
 
Vernachlässigt kann man so nicht sagen.. AllwaySync bietet die Möglichkeit, Dateien zu verschlüsseln. Meine Server die in den Rechenzentren stehen sind mit LUKS (glaube so hieß das) verschlüsselt. Das System selbst kann booten, aber die Partitionen können erst eingehängt werden sobald diese mit meinem eigenen Kennwort entschlüsselt werden.

Zusätzlich kommt noch, dass alle Sicherungen die ich fahre (egal ob privat, oder beim Kunden eingerichtet) mit einem Kennwort versehen sind. Da ich bei einem meiner Kunden sogar Acronis im Einsatz habe, sind die Archive sogar AES verschlüsselt (da weiß ich das zufälligerweise) :)

Klar sieht es erst einmal so aus, als wenn der Datenschutz komplett außer acht gelassen wird, ich bedanke mich auch für die Erwähnung. Die Informationen zu der "Auftragsdatenverarbeitung" sehen schon mal gut aus. Vielleicht kann man daraus auch einen guten Vertrag stricken oder entsprechende Vorlagen finden. Ich persönlich habe nur den üblichen §5 zur Schweigepflicht bei mir und wenn ein Kunde darauf Wert legt um sich abzusichern, wird das gerne erledigt ;)

Zum allgemeinen Thema Datenschutz hatte ich auch schon mal überlegt, Schulungen zu besuchen (es gibt ja TÜV Zertifikate) aber mein Chef (für den ich hauptberuflich arbeite) würde mich bei den Kosten von ca. 2.000 Euro eher auslachen und mir auch so etwas wie Bildungsurlaub gar nicht geben. Und das alles aus eigener Tasche zahlen, dafür bin ich noch zu klein am Markt :cool:

Gruß, Domi
 
@Domi: ich verwende AllwaySync nur für das, was es am Besten kann, nämlich zum Synchronisieren von Ordnern (zeitgesteuert).

Der "Schönheitsfehler" an Deinen Überlegungen ist m.E., dass durch ein solches Setup der Uploadtraffic beträchtlich und die Sicherungszeiten lange sein werden. Das ist bei unregelmäßig on/off bzw. online seienden Geräten ein Problem und behindert das Arbeiten beträchtlich, wenn z.B. über einen DSL Anschluss gearbeitet werden soll und (womöglich gleichzeitig) das Backup fährt.

Daher würde ich das "Erstbackup" vom ausfallgefährdeten Gerät (z.B. Arbeitslaptop) engmaschig auf jeden Fall lokal auf ein (raidgeschütztes) NAS / einen lokalen Server machen und dann für den "Katastrophenschutz" in der Nacht / an Wochenenden ein externes Backup übers Internet. So reduziert man den externen Traffic und verschiebt ihn auf günstige Zeiten und hat zudem den Vorteil eines schnellen Enduserbackups.

Wie gesagt: Geräte die immer online sind, kann man viel leichter automatisieren, daher wäre es z.B. ein leichtes, eine NAS Freigabe via diverser Möglichkeiten auf dem NAS selbst irgendwohin zu backuppen, z.B. auf ein anderes NAS des gleichen Herstellers (Beispiel von Synology: https://www.synology.com/de-de/dsm/6.0/data_backup <-- großartig!!).

Meine Empfehlungen:
- Lokales NAS / Server, den Du administrierst
- Die Nutzer arbeiten vornehmlich auf dem NAS (wegen Ausfallsicherung und Versionierung!), die wichtigen Daten werden verschlüsselt extern gesichert.
- True Image der Arbeitsrechner würde ich nur auf das NAS backuppen lassen, ob ein Upload ins Internet hier wirklich nötig ist, kann man debattieren.

Erst vorgestern wieder in der Arbeit passiert: SSD eines Arbeitslaptops (Kollege) hat die Grätsche gemacht. System-SSD nicht mehr verwendbar, kein Acronis Backup vorhanden. Das war ihm aber wurscht, da er seine wertvollen Arbeitsdaten ausschließlich auf dem Server (Raid6 mit Hotspare und nächtlichem Backup) gespeichert waren. Die Mails liegen auf dem Exchange Server. Daher heute einfach neu installiert (dieses Mal Acronis auch konfiguriert, damit er sich eben dieses Neuinstallieren spart) und weiter gehts.
Ich selbst backuppe meinen Mac übers Netzwerk per Time Machine aufs NAS, der kann also auch ohne Probleme jederzeit ausfallen, natürlich arbeite ich auch auf dem Server.
 
Nabend, damit ich das jetzt nicht falsch verstehe oder wir aneinander vorbei reden... Mein Plan war ungefähr so,
- Windows / Linux Server
-- Datensicherung mit Acronis etc. auf interne separate HDD
--- Datensicherung von interner HDD mit AllwaySync auf SFTP schieben

Mit meinen WebServern verfahren ich zumindest genau in solch einem Verfahren. Die Datensicherungen werden jede Nacht automatisiert um 1:00 lokal durchgeführt und in /var/backup abgelegt. Nachdem die Sicherung fertig ist, wird dieses 1:1 mit /mnt/backup abgeglichen :) Der Server auf dem die Sicherungen landen, ist ein von mir gemieteter root-Server bei Netcup.

Ich habe aber auch gerade gesehen, dass das eine Backup auf dem Server von einem meiner Kunden 300 GB groß ist und dort vor Ort "nur" ein 50 Mbit Anschluss vorhanden ist. Mal mit dem Kunden reden, das private Haus ist auf dem gleichen Grundstück und es existiert eine Verbindung zwischen den Gebäuden. Also in der privaten Wohnung ein NAS / HP ProLiant mit Ubuntu hin stellen und die Sicherungen automatisiert dort hin schieben.

Gruß, Domi
 
Back
Top