Hallo,
ich habe meine wichtigen Daten mit SHA-1 Prüfsummen versehen. Das sind zum Teil Urlaubsfotos, usw.... Die Daten ändern sich nicht sehr oft (einmal im Jahr im Urlaub eben^^) und wenn werden die neuen Prüfsummen einfach angehängt. Wenn man diese Daten für unbegrenzte Zeit konservieren will, kommt man um das regelmäßige kopieren auf neue Datenträger nicht herum. Am besten gleich 10 gleichzeitige kopien. Um sicherzugehen dass die Daten auch korrekt geschrieben wurden, kann man natürlich immer einen 1:1 vergleich machen. Aber was tun wenn man von der Festplatte auf eine externe sichert und vorher (vor dem kopieren) durch einen blöd gelaufenen Defragmentiervorgang die Quelldaten verändert wurden? Oder ein Dateisystemfehler auf der Quellplatte, usw? Dann wird der bit für bit vergleich nichts bringen. Deshalb stellt sich die Frage ob es sinnvoll ist Prüfsummen einzusetzen. Ich habe jetzt mal alle Daten mit SHA-1 versenhen. Es geht einfach daran manipulationen an Daten durch Soft- / Hardwarefehler aufzuspüren. Das ein Hacker 2 identische Hashes erzeugen kann (in der theorie) ist klar. Es geht aber um zufällige Fehler beim kopieren. Bin ich mit SHA-1 gut bedient? Habe mal zum testen mit einem Hex Editor ein bit einer 15GB großen Datei verändert (Festplattenimage einfach zur gaudi). Der Schwindel ist sofort aufgefallen -> CRC falsch....
Vor Jahren gabs ja mal ein Problem mit Windows XP (ohne Service Pack) un Festplatten grö0er 137GB. Die konnten wegen eines mangelhaften Treibers nicht richtig adressiert werden (diverse Tools konnten diese Beschränkung "illegal" aufheben). Das Resulatat war böse: Manche User klagte, dass eine vorher einwandfreie MP3 plötzlich nach 20 sekunden ein völlig anderes Lied gespielt haben. Es waren teilweise 5 verschiedene Lieder in einer MP3, quasi alles zerhackstückelt. Genau so ging es Videoarchiven. Bis man dann darauf gekommen ist, dass die fehlerhafte Adressierung (besonders in kombination mit einer defragmentierung oder sonstiger NTFS komprimierung) sämtliche Daten völlig vermischt wurden. Selbst das öffnen durch einen Virenscanner hat ausgereicht um die Datei zu beschädigen. Es waren dann 5 Dateien in einer aber von jeder nur ein kleiner Teil -> Müll Manche waren sogar hoffnungslos verstellt, da andere Anwendungsdaten mit reingerutscht sind.
Das hat man mit dem Service Pack 1 zwar behoben, aber wer garantiert, dass solche Schwierigkeiten bei größeren Festplatten über 1TB zb. nicht auch wieder auftreten? Da hilft dann kein 1:1 vergleich mehr wenn die Quelldaten genau so verstückelt eingelesen werden. Ist nicht besonders so ein Fall die stärke von Prüfsummen?
Jetzt möchte ich mal eure Meinung dazu hören. Prüfsummen oder nicht.
ich habe meine wichtigen Daten mit SHA-1 Prüfsummen versehen. Das sind zum Teil Urlaubsfotos, usw.... Die Daten ändern sich nicht sehr oft (einmal im Jahr im Urlaub eben^^) und wenn werden die neuen Prüfsummen einfach angehängt. Wenn man diese Daten für unbegrenzte Zeit konservieren will, kommt man um das regelmäßige kopieren auf neue Datenträger nicht herum. Am besten gleich 10 gleichzeitige kopien. Um sicherzugehen dass die Daten auch korrekt geschrieben wurden, kann man natürlich immer einen 1:1 vergleich machen. Aber was tun wenn man von der Festplatte auf eine externe sichert und vorher (vor dem kopieren) durch einen blöd gelaufenen Defragmentiervorgang die Quelldaten verändert wurden? Oder ein Dateisystemfehler auf der Quellplatte, usw? Dann wird der bit für bit vergleich nichts bringen. Deshalb stellt sich die Frage ob es sinnvoll ist Prüfsummen einzusetzen. Ich habe jetzt mal alle Daten mit SHA-1 versenhen. Es geht einfach daran manipulationen an Daten durch Soft- / Hardwarefehler aufzuspüren. Das ein Hacker 2 identische Hashes erzeugen kann (in der theorie) ist klar. Es geht aber um zufällige Fehler beim kopieren. Bin ich mit SHA-1 gut bedient? Habe mal zum testen mit einem Hex Editor ein bit einer 15GB großen Datei verändert (Festplattenimage einfach zur gaudi). Der Schwindel ist sofort aufgefallen -> CRC falsch....
Vor Jahren gabs ja mal ein Problem mit Windows XP (ohne Service Pack) un Festplatten grö0er 137GB. Die konnten wegen eines mangelhaften Treibers nicht richtig adressiert werden (diverse Tools konnten diese Beschränkung "illegal" aufheben). Das Resulatat war böse: Manche User klagte, dass eine vorher einwandfreie MP3 plötzlich nach 20 sekunden ein völlig anderes Lied gespielt haben. Es waren teilweise 5 verschiedene Lieder in einer MP3, quasi alles zerhackstückelt. Genau so ging es Videoarchiven. Bis man dann darauf gekommen ist, dass die fehlerhafte Adressierung (besonders in kombination mit einer defragmentierung oder sonstiger NTFS komprimierung) sämtliche Daten völlig vermischt wurden. Selbst das öffnen durch einen Virenscanner hat ausgereicht um die Datei zu beschädigen. Es waren dann 5 Dateien in einer aber von jeder nur ein kleiner Teil -> Müll Manche waren sogar hoffnungslos verstellt, da andere Anwendungsdaten mit reingerutscht sind.
Das hat man mit dem Service Pack 1 zwar behoben, aber wer garantiert, dass solche Schwierigkeiten bei größeren Festplatten über 1TB zb. nicht auch wieder auftreten? Da hilft dann kein 1:1 vergleich mehr wenn die Quelldaten genau so verstückelt eingelesen werden. Ist nicht besonders so ein Fall die stärke von Prüfsummen?
Jetzt möchte ich mal eure Meinung dazu hören. Prüfsummen oder nicht.
Last edited by a moderator: