RAID1 MDADM auflösen schlug fehl

pcfreak09

New Member
Hallo Community,

ich habe ein Problem mit meinem Server. Da ich einen neuen bestellt habe, wollte ich den alten nach den üblichen Backups mit VMWare Converter sichern.

Da der Server in einem RAID1 Verbund ist/war ging das nicht.

Ich hatte versucht das RAID1 aufzulösen nach folgenden Anleitung:
http://linux-club.de/forum/viewtopic.php?t=118678

Das
Code:
mdadm --zero-superblock

Hat schon mal nicht funktioniert. Fehlermeldung nicht mehr bekannt. (Habe nicht mitgeschrieben)

Nach Stundenlangem studieren diverser Internetseiten und HowTos zum Thema RAID1 auflösen bin ich nicht weiter gekommen.

Nach einem Neustart,startet nun der Server gleich im Rescure Modus.

Ich bekomme den Server nicht mehr "normal" gestartet ob mit oder ohne Raid.

Anbei der aktuelle Status:
Code:
root@xxx:~# cat /proc/mdstat
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sdb1[0]
      97536 blocks [2/1] [U_]

md1 : active raid1 sdb3[0]
      930414912 blocks [2/1] [U_]

unused devices: <none>

Code:
root@proxxx:/# cat /etc/fstab
# UNCONFIGURED FSTAB FOR BASE SYSTEM

Code:
root@pxxxx:~# cat /mnt/etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=bbb6c46b:fba9eca5:7792c71e:7dc17aa4
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=2a129602:c5de4ca8:7792c71e:7dc17aa4

# This file was auto-generated on Wed, 16 Feb 2011 09:44:42 +0000
# by mkconf $Id$

Code:
root@xxxx:~# fdisk -l

Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000ddd3c

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      195312       97656   83  Linux
Partition 1 does not start on physical sector boundary.
/dev/sda2          195313     2195312     1000000   83  Linux
Partition 2 does not start on physical sector boundary.
/dev/sda3         2195313  1863025390   930415039   83  Linux
Partition 3 does not start on physical sector boundary.

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000df884

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1      195312       97656   fd  Linux raid autodetect
Partition 1 does not start on physical sector boundary.
/dev/sdb2          195313     2195312     1000000   82  Linux swap / Solaris
Partition 2 does not start on physical sector boundary.
/dev/sdb3         2195313  1863025390   930415039   fd  Linux raid autodetect
Partition 3 does not start on physical sector boundary.

Disk /dev/md1: 952.7 GB, 952744869888 bytes
2 heads, 4 sectors/track, 232603728 cylinders, total 1860829824 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Alignment offset: 3584 bytes
Disk identifier: 0x00000000

Disk /dev/md1 doesn't contain a valid partition table

Disk /dev/md0: 99 MB, 99876864 bytes
2 heads, 4 sectors/track, 24384 cylinders, total 195072 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Alignment offset: 3584 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Das Raid Volume "md1" kann ich im Rescure System mounten und sehe auch miine Daten wenn ich "md0" mounte sehe ich folgenden Inhalt:

Code:
root@pro1135:/mnt# ls -la
total 30282
drwxr-xr-x  4 root root    1024 Dec  8  2013 .
drwxrwxrwt 26 root root     200 Jul 19 03:44 ..
-rw-r--r--  1 root root 1226655 Jan 25  2011 System.map-2.6.26-2-amd64
-rw-r--r--  1 root root 1667938 Sep 23  2013 System.map-2.6.32-5-amd64
-rw-r--r--  1 root root   85694 Jan 25  2011 config-2.6.26-2-amd64
-rw-r--r--  1 root root  106193 Sep 23  2013 config-2.6.32-5-amd64
drwxr-xr-x  3 root root    6144 Dec  8  2013 grub
-rw-r--r--  1 root root 6949055 Feb 16  2011 initrd.img-2.6.26-2-amd64
-rw-r--r--  1 root root 6933386 Feb 16  2011 initrd.img-2.6.26-2-amd64.bak
-rw-r--r--  1 root root 9700513 Dec  8  2013 initrd.img-2.6.32-5-amd64
drwx------  2 root root   12288 Feb 16  2011 lost+found
-rw-r--r--  1 root root 1757488 Jan 25  2011 vmlinuz-2.6.26-2-amd64
-rw-r--r--  1 root root 2426688 Sep 23  2013 vmlinuz-2.6.32-5-amd64

Wie kann ich das Raid nun erfolgreich auflösen und den Server "normal" starten?

Bin für jede Unterstützung dankbar.

Viele Grüße
pcfreak09
 
Last edited by a moderator:
Soweit ich das noch von MDADM weiß musst du das Array erstmal stoppen:

Code:
mdadm --stop /dev/md0
und
Code:
mdadm --stop /dev/md1

Danach solltest du ohne weiteres einen --zero-superblock ausführen können.

Nachtrag: Bedenke bitte, dass du hierfür ein funktionierendes Rescue brauchst, da du kein gemountetes MDADM stoppen kannst... oder eher willst.
 
Hallo,

Danke für die schnelle Antwort.

Mit der genannten Anleitung komme ich noch nicht ganz zurecht.

Muss ich den "--zero-superblock" auf beiden Raids ausführen, also md0 und md1?

Bzgl.* des neu partitionieren und Daten überspielen. Es müssten doch auf beiden die gleichen Daten d4auf sein, kann ich nicht einfach wenn das RAID gestoppt wurde eine Platte zum starten nehmen und fertig?

Die zweite HDD benötige ich ja nicht mehr.

Wie kann ich also am besten und schnellsten vorgehen ohne die HDD zu kopieren nachdem ich den MDADM gestoppt undenkbar Zero-superblock durchgeführt habe?

Vielen Dank für die Hilfestellung.

Viele Grüße
Pcfreak09

P.S. Soweit ich das sehe ist auf beiden Platten gar nicht das gleiche drauf. Siehe mein erster Post, was also auf welcher HDD ausführen?
 
Last edited by a moderator:
*Hallo,

ich habe jetzt folgendes gemacht:

Code:
mdadm --assemble --run /dev/md0

und

Code:
mdadm --assemble --run /dev/md1

Sonst kann ich den nächsten Befehl nicht ausführen:

Code:
mdadm --zero-superblock mda

und

Code:
mdadm --zero-superblock mda
6

Bei beiden kommt es zu folgendem Fehler:

Code:
Mdadm: couldn't* open mdl for write- not zeroing

Soweit ich das recherchiert habe ist das nicht unbedingt erforderlich.

Ich will ja nur von einer der beiden physischen HDD booten können um das Image zu machen. Reicht es hier nicht aus Typ der Partition von RAID (0xfd) auf Linux native (0x83) zu ändern?

Hatte ich bereits versucht und ist anscheinend fehlgeschlagen.

Was muss noch geändert werden das der Server weiß das er von der physischen Festplatte booten soll ohne ein Rebuild der beiden Festplatten zu versuchen?

Danke für Vorschläge.

Gruß
Pcfreak09
 
--zero-superblock verwendest du auf den Platten selbst die du nicht mehr im MDADM RAID verwenden willst. z.B. wenn du /dev/md0 hast das /dev/sdX1 und /dev/sdY1 als Platte hat, musst du --zero-superblock auf den beiden Platten sdX1 und sdY1 ausführen.

Sei dir hier allerdings gesagt dass --zero-superblock meines Wissens nach eine destruktive Aktion ist und die Daten darauf nicht ohne weiteres wiederverwendbar sind.
 
Back
Top