Systemabsturz während cp / tar

wellers

New Member
Tag allerseits,

als relativer Linux Neu-Einsteiger habe ich vor einiger Weile eine recht simple Backuplösung gebastelt. Funktionsweise:

cp –a >> kopieren der zu sichernden Daten
tar –cjpf >> packen der zu sichernden Daten
gpg --encrypt –r >> verschlüsseln des Packetes
ncftpput -V –u >> wegsichern des verschlüsselten Packetes

Das ganze lief auch eine ganze Weile wunderbar. Nun habe ich das Phänomen, dass sich die Maschine entweder beim Kopiervorgang oder beim Packet-schnüren verabschiedet. Und das natürlich nicht jedes Mal, sondern recht sporadisch.

Nachdem ich alle mir bekannten Logs durchforstet hab finde ich keine Meldung die mir den Reboot erklären könnte oder diesen auch nur ankündigt.

Nach etwas Recherche hab ich nun den Kenntnisstand, dass weder das Filesystem, noch Dateisystem, noch die verwendeten Befehle einen Flaschenhals darstellen der den unverhofften Neustart des Systems erklären würde!?
Oder kann es durchaus passieren, dass sich eine Maschine verabschiedet wenn ram + swap überkochen?
Könnten defekter Ram oder fehlerhafte Sektoren auf der Platte die Ursache sein?
Gibt es eine Möglichkeit im laufenden Betrieb einen Memorytest durchzuführen und/oder auf fehlerhafte Sektoren der Festplatte zu prüfen?

oss: openSUSE 10.3
cpu: 2,2 dualcore
ram: 4 GB
hdd: ausreichend

Dass das Ganze schon grundlegend nicht das gelbe vom Ei ist um seine tägliche Sicherung zu erledigen, ist mir bewusst. Weswegen ich gerade dabei bin eine sauberere Lösung für die Backups zu schustern/suchen.
Dennoch möchte ich der Ursache gerne auf den Grund gehen um auszuschließen dass mit der Kiste was grundlegend nicht stimmt.

Bin dankbar für jeden Denkanstoss


Gruß
\wellers
 
Du kannst beim fsck einen lesenden Oberflächentest laufen lassen, der aber keine Probleme beheben kann. Das geht auch im laufenden Betrieb.
Einen vernünftigen Speichertest bekommst du aber nur offline hin, hier bietet sich memtest an.
Was das Backup selber betrifft: Hast du dir schon mal duplicity und ftplicity angesehen?
 
Hallo danton,

Danke für deine zackige Antwort!

die fsck manpages schau ich mir mal eben an... auf den ersten Blick scheint das etwas zu sein.
memtest hatte ich schon im Visier... aber auch die Hoffnung auf etwas für den Livebetrieb. Werd ich wohl mal ne Nachtschicht einlegen - is ja Wochenende :cool:

Bzgl. Backup... ja ich habe mir duplicity samt Variation schonmal angesehen. Wenn Möglich möchte ich allerdings mit Boardmitteln zurande kommen. Abgesehen davon arbietet duplicity mit rsync(?) und da bin ich mir noch nicht sicher ob es der Weisheit letzter Schluss ist (siehe: https://serversupportforum.de/threads/rsync-oder-lieber-workaround-via-scp.40467/)

Gruß
\wellers
 
Du kannst die Festplatten physikalisch mit 'badblocks' auf fehlerhafte Sektoren überprüfen. 'memtest' kannst du auch im Live-Betrieb einsetzen, kannst dann aber halt nur die derzeit nicht belegten Bereiche testen.

Eine wirklich gründliche HW-Überprüfung ist im Live-System nicht möglich. Wobei sich defekter RAM oder eine logische Beschädigung der Festplatte(n) im Regelfall auch in den Logdateien niederschlagen.
 
Back
Top