• This forum has a zero tolerance policy regarding spam. If you register here to publish advertising, your user account will be deleted without further questions.

[DATENRETTUNG] LV von defektem MDADM RAID mounten

Tobse101

New Member
Hallo,
mir ist der NAS abgeraucht und nun versuche ich die Daten mit einem Debian auf einem Banana Pi zu retten.

Code:
root@bananapi ~ # lvmdiskscan
  /dev/ram0      [      64,00 MiB]
  /dev/md0       [     952,99 MiB]
  /dev/vg8/lv8   [       1,82 TiB]
  /dev/ram1      [      64,00 MiB]
  /dev/md1       [     952,99 MiB]
  /dev/mmcblk0p1 [      20,00 MiB]
  /dev/ram2      [      64,00 MiB]
  /dev/md2       [       9,99 MiB]
  /dev/root      [       3,67 GiB]
  /dev/ram3      [      64,00 MiB]
  /dev/md3       [     953,99 MiB]
  /dev/ram4      [      64,00 MiB]
  /dev/md4       [       9,99 MiB]
  /dev/ram5      [      64,00 MiB]
  /dev/md5       [      10,99 MiB]
  /dev/ram6      [      64,00 MiB]
  /dev/md6       [     283,99 MiB]
  /dev/ram7      [      64,00 MiB]
  /dev/md7       [     975,99 MiB]
  /dev/ram8      [      64,00 MiB]
  /dev/md8       [       1,82 TiB] LVM physical volume
  /dev/ram9      [      64,00 MiB]
  /dev/ram10     [      64,00 MiB]
  /dev/ram11     [      64,00 MiB]
  /dev/ram12     [      64,00 MiB]
  /dev/ram13     [      64,00 MiB]
  /dev/ram14     [      64,00 MiB]
  /dev/ram15     [      64,00 MiB]
  1 disk
  26 partitions
  0 LVM physical volume whole disks
  1 LVM physical volume
root@bananapi ~ # pvdisplay
  --- Physical volume ---
  PV Name               /dev/md8
  VG Name               vg8
  PV Size               1,82 TiB / not usable 3,02 MiB
  Allocatable           yes (but full)
  PE Size               4,00 MiB
  Total PE              475893
  Free PE               0
  Allocated PE          475893
  PV UUID               Q1LSl9-cBfH-2bxx-moi9-0Sn7-Wd9L-n0L6YK

root@bananapi ~ # vgscan --mknodes
  Reading all physical volumes.  This may take a while...
  Found volume group "vg8" using metadata type lvm2
root@bananapi ~ # vgchance -ay
zsh: command not found: vgchance
127 root@bananapi ~ # vgchange -ay                                                                                                                                                                           :(
  1 logical volume(s) in volume group "vg8" now active
root@bananapi ~ # lvscan
  ACTIVE            '/dev/vg8/lv8' [1,82 TiB] inherit
root@bananapi ~ # mount /dev/vg8/lv8 /home/test
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg8-lv8,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

Hat jemand von euch eine Idee wie ich die Platte mounten kann?
Es handelte sich um einen Segate (muss man mehr sagen? ...) 2 bay Business NAS

Liebe Grüße,
Tobias
 
Code:
ls /dev/mapper

darin sollten die LV's liegen, diese kannst du mounten.

Code:
mount -o ro /dev/mapper/<LV> /<mountpoint>
 
Last edited by a moderator:
Hier die Daten in der /dev/mapper/

Code:
root@bananapi /dev # cd mapper
root@bananapi /dev/mapper # ls
control  vg8-lv8@

wenn ich jetzt das Verzeichnis mounten will kommen je nach Aufruf 2 unterschiedliche Meldungen
Code:
root@bananapi /mnt # mount -o /dev/mapper/vg8-lv8 /mnt
mount: can't find /mnt in /etc/fstab or /etc/mtab
bzw.
Code:
1 root@bananapi /mnt # mount -o -ro /dev/mapper/vg8-lv8 /mnt                                                                                                                                                 :(
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg8-lv8,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so
 
Entschuldigt die verspätete Antwort:

Code:
 root@bananapi /dev/mapper # blkid                                                                                                                                                                         :(
/dev/mmcblk0p1: SEC_TYPE="msdos" UUID="4D17-5A3B" TYPE="vfat"
/dev/mmcblk0p2: UUID="1af97748-34b7-4a6e-a16d-29c409d9c367" TYPE="ext4"
/dev/sda2: UUID="9d7909ef-dd32-9919-ba0d-6ebd9e2d8f5b" UUID_SUB="e4633d0d-d165-29ea-dede-cfd15fd53785" LABEL="(none):0" TYPE="linux_raid_member"
/dev/sda3: UUID="791de272-4aab-59d7-4d48-d084b4bcb0ea" UUID_SUB="94e3a702-5692-bc56-1baf-6352616742a9" LABEL="(none):1" TYPE="linux_raid_member"
/dev/sda4: UUID="15d85a97-5277-d970-9676-e119bf92706d" UUID_SUB="62475ecf-086a-2c55-da13-f4e11fb59ba9" LABEL="(none):2" TYPE="linux_raid_member"
/dev/sda5: UUID="99576ece-1166-0e45-8308-b1214b2a771c" UUID_SUB="4ff1e6d6-067d-793f-cb65-dddc5e458ccb" LABEL="(none):3" TYPE="linux_raid_member"
/dev/sda6: UUID="c462ec0e-bb5f-cf4e-63d0-d85cddf78e72" UUID_SUB="585e8eb1-a467-ac2d-529c-e93a0eb51882" LABEL="(none):4" TYPE="linux_raid_member"
/dev/sda7: UUID="b19b81c4-4bb9-3123-2f29-d6a8a52012a2" UUID_SUB="a2a895c7-ad1c-e191-387c-d354746c52de" LABEL="(none):5" TYPE="linux_raid_member"
/dev/sda8: UUID="fc8ba2d1-f855-a59e-c44c-e61af0cf2c4a" UUID_SUB="5e1beca2-04c3-3370-a5e6-598eae2ae75d" LABEL="(none):6" TYPE="linux_raid_member"
/dev/sda9: UUID="e32bb7a0-9359-a941-ab20-10903f3f5750" UUID_SUB="91664208-0b67-f276-d862-2aa5350f2b86" LABEL="(none):7" TYPE="linux_raid_member"
/dev/sda10: UUID="858b8431-3528-5dd7-91ed-5639a7223218" UUID_SUB="d4b73e18-dfd3-bca8-4035-4ebd9356bbd4" LABEL="BA-001075369DC8:8" TYPE="linux_raid_member"
/dev/md0: UUID="2062860b-cbb2-44ea-9e14-cc865d3da5f6" TYPE="ext4"
/dev/md1: UUID="7f707ef3-5d38-4e68-8494-37e2cd7602a3" TYPE="ext4"
/dev/md2: UUID="a9b1b582-c0ab-45df-871a-de4328afd41a" TYPE="ext4"
/dev/md3: TYPE="swap"
/dev/md4: UUID="9f3cdc0c-15e1-4c35-ab4f-1af7717b5214" TYPE="ext4"
/dev/md5: UUID="5fb20cf6-ed3e-4674-a3c3-e1eccfd99142" TYPE="ext4"
/dev/md6: UUID="142e47f1-ac2b-44ca-bc24-93c42a1e0b02" TYPE="ext4"
/dev/md7: UUID="a84c6cc2-ec88-4cad-9251-6ce6d8c27f73" TYPE="ext4"
/dev/md8: UUID="Q1LSl9-cBfH-2bxx-moi9-0Sn7-Wd9L-n0L6YK" TYPE="LVM2_member"
/dev/mapper/vg8-lv8: UUID="9320e2fd-fe84-4b01-81b8-109cf297c798" TYPE="ext4"
root@bananapi /dev/mapper # mount -t ext4 -o ro ../dm-0 /mnt/point
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg8-lv8,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

32 root@bananapi /dev/mapper # mount -t ext4 -o ro /dev/mapper/vg8-lv8 /mnt/point                                                                                                                            :(
mount: wrong fs type, bad option, bad superblock on /dev/mapper/vg8-lv8,
       missing codepage or helper program, or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

32 root@bananapi /dev/mapper # ll                                                                                                                                                                            :(
insgesamt 0
crw------- 1 root root 10, 236 Jan  1  2010 control
lrwxrwxrwx 1 root root       7 Apr 20 21:49 vg8-lv8 -> ../dm-0
root@bananapi /dev/mapper #


 root@bananapi /dev/mapper # dmesg |tail                                                                                                                                                                 :(
[  788.071721] Dev Sunxi softw411 md8 magic does not match for MBR 3:
[  788.088260] Dev Sunxi softw411 md8 magic does not match for MBR 4:
[  788.106219] Dev Sunxi softw411 md8 header bad for all MBR copies, MBR corrupted or not present.
[  788.121242]  md8: unknown partition table
[ 1289.795251] EXT4-fs (dm-0): bad block size 65536
[ 1790.757096] EXT4-fs (dm-0): bad block size 65536
[ 2088.969645] EXT4-fs (dm-0): bad block size 65536
[ 2098.078737] EXT4-fs (dm-0): bad block size 65536
[ 2261.947192] EXT4-fs (dm-0): bad block size 65536
[ 2316.590175] EXT4-fs (dm-0): bad block size 65536
root@bananapi /dev/mapper #

Liebe Grüße,
Tobias
 
Das scheint ein ext4-Dateisystem mit 64k-Blöcken zu sein. Auf x64-Hardware kann der Kernel das nicht mounten weil die Pagesize dort 4k ist und

Linux requires blocksize <= PAGE_SIZE, so basically all filesystems
use blocksize <= 4096 unless they implement support internally for
reading/writing partial disk blocks from the page or buffer cache.
aus: http://marc.info/?l=linux-kernel&m=110184902714555&w=2

Zum Glück scheint es eine Lösung zu geben, in dem man ein FUSE-Modul verwendet (fuseext2)

Siehe:
http://unix.stackexchange.com/questions/73536/how-can-i-mount-filesystems-with-4kb-block-sizes
 
Vielen Dank für die vielen Hilfestellungen und auch für den letzten Hinweis!
Jedoch schaffe ich es einfach nicht die Platte einzuhängen.
Wäre jemand bereit sich für mich mal 30min Zeit zu nehmen, um sich das per Teamviewer mal anzusehen?

Liebe Grüße und schönes Wochenende,
Tobias
 
Mach dafür doch am besten einen Thread im Suche-Bereich auf, aus dem dann bestenfalls auch hervorgeht, ob du die Leistung bezahlen möchtest.
 
Da /dev/md0 UUID="2062860b-cbb2-44ea-9e14-cc865d3da5f6" TYPE="ext4" entspricht, könnten eventuell die beiden folgenden Befehle dir weiterhelfen:

Code:
mkdir /mnt/md0

mount -t ext4 UUID=2062860b-cbb2-44ea-9e14-cc865d3da5f6 /mnt/md0

Um Schreibfehler zu vermeiden, am besten rauskopieren.
 
Hallo Andreas,
danke für deine Antwort.
Jedoch scheint mir das nicht richtig.
Sieht so aus wie das komplette Filesystem also vermutlich die SD Karte.

@PHP-Friends
Leider hab ich als Azubi nicht die nötige Kohle um zu einer Firma zu gehen.
Deshalb die eigenen Versuche.

Der Typ den ich nun habe ist:
Code:
root@bananapi /mnt/md0 # blkid -o value -s TYPE /dev/md8
LVM2_member
127 root@bananapi /mnt/md0 # lvscan                                                                                                                                                                          :(
  ACTIVE            '/dev/vg8/lv8' [1,82 TiB] inherit

Liebe Grüße,
Tobias
 
Back
Top