Festplattenaustausch: Bootloader defekt

RedAsphyx

New Member
Moin,

wir suchen jemanden, der mal einen Blick auf unseren Server wirft und ansagt, was dort falsch läuft.

Infomationen:

Der Server steht bei Hetzner. Eine der Festplatten (Raid) wurde ausgetauscht. Seit dem Austausch lässt sich der Server nicht mehr booten. Laut Hetzner ist die Hardware ok. Über die sogenannte LARA-Konsole konnte unsererseits nur ermittelt werden, dass der Bootloader defekt zu sein scheint.. und hier endet unser Latein.

Alles weitere bitte per PN.
 
Danke für die Antworten.

Über den Wiki-Artikel sind wir schon hinaus. Bootloader wurde im Rescuemodus neu konfiguriert - leider ohne Ergebnis. Server bleibt beim Booten hängen: ohne Fehlermeldung.
 
War es ein RAID 0 oder 1?

Wenn RAID 1, wurden die Partitionen schon angelegt und die Daten gesynct?

Sofern Auftrag noch nicht vergeben, können Sie mich unter info@welcome2inter.net kontaktieren.
 
Last edited by a moderator:
RAID 1. Partitionstabelle wie in Hetzner-Anleitung kopiert, neue Platte ins RAID eingebunden. Synchronisiert wurde sie dadurch automatisch. Anschließend wurde noch der Bootloader auf der neuen Platte, ebenfalls nach Anleitung, installiert.

Auftrag noch nicht vergeben - allerdings einer in der Pipeline. Melde mich nochmal im Laufe des Tages.
 
Probiere einmal folgendes:

1. Server in das Rescue System booten
2. Partition chrooten

mount /dev/md1 /mnt --> sofern md1 die Daten Partition ist. Sieht man mit cat /proc/mdstat

mount /dev/md0 /mnt/boot --> sofern md0 die Boot Partition ist. Sieht man mit cat /proc/mdstat

mount -t proc proc /mnt/proc
mount -o bind /dev /mnt/dev
chroot /mnt /bin/bash


3. Software RAID wiederherstellen

cat /proc/mdstat --> erstmal prüfen, welche der HDDs nicht im RAID Verbund vorhanden ist. Wenn das /dev/sdb ist also er /dev/sda als aktiven Member anzeigt, folgende Befehle ausführen:

sfdisk -d /dev/sda | sfdisk /dev/sdb --> spiegelt die Partitionierung der bestehenden Festplatte auf die Neue leere Festplatte

mdadm --manage /dev/md0 -a /dev/sdb1 --> fügt die Partition der neuen Festplatte dem RAID Array md0 hinzu - hier etwas aufpassen dass man die richtigen Partitionen erwischt.

mdadm --manage /dev/md1 -a /dev/sdb3 --> fügt die Partition der neuen Festplatte dem RAID Array md1 hinzu - hier etwas aufpassen dass man die richtigen Partitionen erwischt.

grub-install /dev/sdb --> damit von der neuen Festplatte gebootet werden kann.

grub-install /dev/sda --> wenn du von der alten Festplatte momentan nicht booten kannst, wäre dieser Befehl auch gut, damit er Grub auf der alten Festplatte auch direkt installiert.

mkswap /dev/sdb2 --> installation der SWAP Partition im Betriebssystem.


Wenn du das ausgeführt hast, sollte der Server eigentlich normal hochbooten sobald die Boot Partition synchronisiert ist, was aufgrund der Größe erfahrungsgemäß sehr schnell geht. Dann den Server einfach von den Festplatten booten lassen.

Das chrooten machen wir deshalb, da wir schon öfter Probleme hatten, wenn wir direkt aus dem Debian heraus das Software RAID repariert haben hinsichtlich des grub-installs und der Versionierung von Grub. Wir reparieren sowas in der Regel für unsere Kunden kostenfrei :)
 
Last edited by a moderator:
Probiere einmal folgendes:

1. Server in das Rescue System booten
2. Partition chrooten

mount /dev/md1 /mnt --> sofern md1 die Daten Partition ist. Sieht man mit cat /proc/mdstat

mount /dev/md0 /mnt/boot --> sofern md0 die Boot Partition ist. Sieht man mit cat /proc/mdstat
...

Erstmal vielen Dank für die Ausführlich Antwort - ich wollte mich gerade daran machen, deinen Anweisungen zu folgen, scheitere aber schon beim Identifizieren der Partitionen:

cat /proc/mdstat

PHP:
root@rescue ~ # cat /proc/mdstat
Personalities : [raid1]
md3 : active raid1 sda4[2] sdb4[3]
      1822442815 blocks super 1.2 [2/2] [UU]

md2 : active raid1 sda3[2] sdb3[3]
      1073740664 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda2[2] sdb2[3]
      524276 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sda1[2] sdb1[3]
      33553336 blocks super 1.2 [2/2] [UU]

unused devices: <none>

Daraufhin mal etwas weitergegooglelt:

sfdisk -l /dev/sda

PHP:
   Device Boot Start     End   #cyls    #blocks   Id  System
/dev/sda1          0+ 266305- 266306- 2147483647+  ee  GPT
/dev/sda2          0       -       0          0    0  Empty
/dev/sda3          0       -       0          0    0  Empty
/dev/sda4          0       -       0          0    0  Empty

Hier hätte ich jetzt unter Boot irgendwo ein * erwartet. Ich vermute mal, dass md1 die Boot-Partition sein soll, da am kleinsten.

PHP:
Partition table entries are not in disk order.
Disk /dev/md0: 32 GiB, 34358616064 bytes, 67106672 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/md1: 512 MiB, 536858624 bytes, 1048552 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/md2: 1024 GiB, 1099510439936 bytes, 2147481328 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/md3: 1.7 TiB, 1866181442560 bytes, 3644885630 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Korrekt?
 
Back
Top