Gelöst: Server bootet nach update nicht mehr
Hallo allerseits,
ich bin neu hier, habe seit einigen Tagen einen Root-Server und schon dicke Probleme. Ich hoffe, Ihr könnt mir besser helfen als der inkompetente Support meines Providers.
Was habe ich gemietet:
Einen Server mit SuSE 10.2 und Plesk 8.x
Was habe ich gemacht, als der Server noch richtig lief:
Mit Yast einen Online-Update. Dabei wurde auch der Kernel aktualisiert, was einen Reboot erforderlich machte. Das war's. Seit dem bootet der Server nicht mehr.
Ich kann das Rescue System aktivieren und komme mit der Seriellen Console auch auf den Server. Nach Kontakt mit der Hotline habe ich eine Mail erhalten, was ich tun sollte. Ich bin danach vorgegangen, allerdings ohne Erfolg. Die empfohlene Vorgehensweise der Hotline ist folgende:
- Rescue System starten -> OK
- Login uaf dem Server -> OK
- Mounten der Platten md1, md5 und md8 -> OK
- Danach chroot /mnt --> OK
- Danach Ausführen von lilo --> OK
- Platten unmounten --> OK
- Erneuter Rebbot aus dem Control Center --> wird durchgeführt, aber Server ist nicht erreichbar
Erneutes Telefonat mit der Hotline - erfolglos, die übermittelten Informationen waren unbrauchbar.
Folgendes habe ich festgestellt:
Es gibt noch zwei weitere Platten, md6 und md7 die nicht gemountet werden können. Bei Ausführung des Mount-Kommandos hängt die Session, kann nicht gekillt werden und ein neuer Start des Rescue-System ist notwendig.
fdisk -l gibt folgendes aus:
Wenn das Rescue-System neu gestartet ist, bringt ein mount auf md6 diese Meldung:
Das gleiche Ergebnis erhalte ich beim mount von md7. Die Devices m1, md5 und md8 lassen sich ohne Probleme mounten.
Ein xfs_check bringt folgende Meldung:
Das empfohlene xfs_repair -L /dev/md[6|] startet, friert die Session ein und einer neuer Start des Rescue-Systems wird notwendig. Das Kommando kann nicht gekillt werden.
Das ist der Stand heute morgen. Ich hoffe Ihr könnt aus diesen Angaben entwas entnehmen, was mir helfen kann, den Server ohne Neuinitialisierung wieder flott zu bekommen.
Ach ja, noch etwas:
Der Zugriff auf das syslog ist das syslog des Rescue-Systems. Die syslogs des Servers liegen auf md6 oder 7, die ja nicht gemountet werden können.
Schon mal im Voraus vielen Dank für Eure Hilfe.
Spanier
Hallo allerseits,
ich bin neu hier, habe seit einigen Tagen einen Root-Server und schon dicke Probleme. Ich hoffe, Ihr könnt mir besser helfen als der inkompetente Support meines Providers.
Was habe ich gemietet:
Einen Server mit SuSE 10.2 und Plesk 8.x
Was habe ich gemacht, als der Server noch richtig lief:
Mit Yast einen Online-Update. Dabei wurde auch der Kernel aktualisiert, was einen Reboot erforderlich machte. Das war's. Seit dem bootet der Server nicht mehr.
Ich kann das Rescue System aktivieren und komme mit der Seriellen Console auch auf den Server. Nach Kontakt mit der Hotline habe ich eine Mail erhalten, was ich tun sollte. Ich bin danach vorgegangen, allerdings ohne Erfolg. Die empfohlene Vorgehensweise der Hotline ist folgende:
- Rescue System starten -> OK
- Login uaf dem Server -> OK
- Mounten der Platten md1, md5 und md8 -> OK
- Danach chroot /mnt --> OK
- Danach Ausführen von lilo --> OK
- Platten unmounten --> OK
- Erneuter Rebbot aus dem Control Center --> wird durchgeführt, aber Server ist nicht erreichbar
Erneutes Telefonat mit der Hotline - erfolglos, die übermittelten Informationen waren unbrauchbar.
Folgendes habe ich festgestellt:
Es gibt noch zwei weitere Platten, md6 und md7 die nicht gemountet werden können. Bei Ausführung des Mount-Kommandos hängt die Session, kann nicht gekillt werden und ein neuer Start des Rescue-System ist notwendig.
fdisk -l gibt folgendes aus:
Code:
rescue:~# fdisk -l
Disk /dev/sda: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 123 987966 fd Linux raid autodetect
/dev/sda2 124 367 1959930 82 Linux swap / Solaris
/dev/sda4 368 19457 153340425 5 Extended
/dev/sda5 368 976 4891761 fd Linux raid autodetect
/dev/sda6 977 1585 4891761 fd Linux raid autodetect
/dev/sda7 1586 4018 19543041 fd Linux raid autodetect
/dev/sda8 4019 19457 124013736 fd Linux raid autodetect
Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 123 987966 fd Linux raid autodetect
/dev/sdb2 124 367 1959930 82 Linux swap / Solaris
/dev/sdb4 368 19457 153340425 5 Extended
/dev/sdb5 368 976 4891761 fd Linux raid autodetect
/dev/sdb6 977 1585 4891761 fd Linux raid autodetect
/dev/sdb7 1586 4018 19543041 fd Linux raid autodetect
/dev/sdb8 4019 19457 124013736 fd Linux raid autodetect
Disk /dev/md8: 126.9 GB, 126989959168 bytes
2 heads, 4 sectors/track, 31003408 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md8 doesn't contain a valid partition table
Disk /dev/md7: 20.0 GB, 20012007424 bytes
2 heads, 4 sectors/track, 4885744 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md7 doesn't contain a valid partition table
Disk /dev/md6: 5009 MB, 5009047552 bytes
2 heads, 4 sectors/track, 1222912 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md6 doesn't contain a valid partition table
Disk /dev/md5: 5009 MB, 5009047552 bytes
2 heads, 4 sectors/track, 1222912 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md5 doesn't contain a valid partition table
Disk /dev/md1: 1011 MB, 1011548160 bytes
2 heads, 4 sectors/track, 246960 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md1 doesn't contain a valid partition table
Wenn das Rescue-System neu gestartet ist, bringt ein mount auf md6 diese Meldung:
Code:
rescue:~# mount /dev/md6 /mnt
Killed
rescue:~#
Message from syslogd@rescue at Tue Mar 11 00:48:37 2008 ...
rescue kernel: Oops: 0000 [2] SMP
Message from syslogd@rescue at Tue Mar 11 00:48:37 2008 ...
rescue kernel: CR2: 0000000000000008
Ein xfs_check bringt folgende Meldung:
Code:
rescue:~# xfs_check -v /dev/md6
ERROR: The filesystem has valuable metadata changes in a log which needs to
be replayed. Mount the filesystem to replay the log, and unmount it before
re-running xfs_check. If you are unable to mount the filesystem, then use
the xfs_repair -L option to destroy the log and attempt a repair.
Note that destroying the log may cause corruption -- please attempt a mount
of the filesystem before doing this.
Das empfohlene xfs_repair -L /dev/md[6|] startet, friert die Session ein und einer neuer Start des Rescue-Systems wird notwendig. Das Kommando kann nicht gekillt werden.
Das ist der Stand heute morgen. Ich hoffe Ihr könnt aus diesen Angaben entwas entnehmen, was mir helfen kann, den Server ohne Neuinitialisierung wieder flott zu bekommen.
Ach ja, noch etwas:
Der Zugriff auf das syslog ist das syslog des Rescue-Systems. Die syslogs des Servers liegen auf md6 oder 7, die ja nicht gemountet werden können.
Schon mal im Voraus vielen Dank für Eure Hilfe.
Spanier
Last edited by a moderator: