Platte voll obwohl noch 900GB frei sind!?

Die Ausgabe ist doch völlig in Ordnung und normal für ein Linux-SW-Raid. Oder übersehe ich was?

Ansonsten - wenn ich mir die Ausgabe von du anschaue dürfte das Problem in /tmp liegen - das wird nicht angezeigt in du -x weil anderweitig gemountet. In Summe kommst Du ohne /tmp auf ca. 2GB Daten auf dem System, 19GB sind aber belegt von der Partition. Vermutung: die restlichen 17GB liegen (da übermounted aktuell unsichtbar) in /tmp. Die sollten sich finden lassen, nachdem das Overlay weggemountet ist (oder nach einem erfolgreichen reboot)

Ggf. auch einfach noch offene Files (hätte man mit lsof finden können) - das hätte sich durch den reboot auch automatisch erledigt.
 
Last edited by a moderator:
und das
Code:
Disk /dev/md127 doesn't contain a valid partition table
hat nichts zu sagen???

Denn ein mount /dev/sda4 /mnt bringt ein unknown filesystem type 'linux_raid_member'
 
und das
Code:
Disk /dev/md127 doesn't contain a valid partition table
hat nichts zu sagen???

Nein. Für Software-Raid völlig normal - und ja, ohne Partitionstype-Änderungen kann man eine Partition (bzw. ein Raid-Member) aus einem SW-Raid nicht einfach so per "auto-type" mounten.

Mounten willst Du entweder /dev/md* oder eben (solange Raid-1) eine Partition direkt, aber dann mit Part. Type-Angabe - klappt aber nicht immer.

... da wären wir wieder bei dem Grundlagenwissen :-)
 
Last edited by a moderator:
Nun gut.. Dann bin ich schonmal etwas beruhigt das das völlig normal ist..

Aber bitte.... verrate mir wie ich da ran komme bzw. was ich tun muss.
 
Das ist eine Str*t* Kiste. Also nur via Remote.
Zur Zeit gestartet mit Rescue 64bit 2.6-Kernel.

Das Mounten mit "mount /dev/md127 /mnt/var" hat geklappt. Ich bin damit schonmal zufrieden. D.h. ich sichere jetzt erst einmal alles auf den BackupServer.

Dennoch würde ich das "alte" System gerne wieder zum Start bewegen. Denn wenn ich das BS neu machen muss dauerts was. Das würde ich gerne vermeiden.

Ich schaue gleich nochmal unter / ob ich irgendwie etwas löschen kann. Vielleicht kann das System aufgrund des Speichermangels keine /tmp anlegen!? Und vielleicht sagt er mir nach einem Neustart dann was anderes.

Dennoch würde ich mich über weitere gute Tipps freuen.
 
Last edited by a moderator:
linux/mdadm hat die md-Nummern gewürfelt, ist ein bekanntes Problem, Google kennt tausende Lösungen.
 
...und genau diese 1000 Lösungen sind das Problem für mich.

Zum probieren fehlt was die Zeit (gut, der Tag ist jetzt eh rum).
Also scheinbar müssen die 126 & 127 wieder als MD0-2 erkannt werden.

In der mdadm.conf steht allerdings noch folgendes drin:
Code:
ARRAY /dev/md/0 metadata=1.0 UUID=646dedcd:bdc4c982:785f2da8:6fe22444 name=h2361234:0
ARRAY /dev/md/1 metadata=1.0 UUID=24dda4f6:2e34a6b7:900650c7:0feb1a70 name=h2361234:1
ARRAY /dev/md/2 metadata=1.0 UUID=25cecac6:5b41e22b:a8eb0042:fb704b0f name=h2361234:2
Diese conf wurde auch in letzter Zeit nicht geändert.
 
Deine mdadm.conf hat im Rescuesystem natürlich keine Auswirkungen. Warum brauchst du dort die "alten" md-Bezeichner? Oder missverstehe ich dich?
 
Wenn die Kiste per initrd/initramfs gestartet wird, muss natürlich auch die darin enthaltene mdadm.conf angepasst werden, da die im System vorhandene dann vom Kernel ignoriert wird.

Zudem empfiehlt es sich bei mdadm-Systemen mit /dev/disk/by-id/md-name-* in der fstab zu arbeiten.



Und bei der notwendigen Repartitionierung würde ich gleich auf das aktuelle metadata-Format setzen und die Partitionen passend "labeln". Aus dem Rescuesystem in etwa so (nur ein Beispiel aus einem Testsystem, bitte selbst an das eigene System anpassen und vorher die manpages lesen):
Fullbackup anlegen und dann:
Code:
dd if=/dev/zero of=/dev/sda bs=1M
dd if=/dev/zero of=/dev/sdb bs=1M

parted -s -a optimal /dev/sda
parted -s -a optimal /dev/sdb
parted -s /dev/sda mklabel gpt
parted -s /dev/sdb mklabel gpt
parted -s /dev/sda mkpart primary 4096s 8191s
parted -s /dev/sdb mkpart primary 4096s 8191s
parted -s /dev/sda mkpart primary 8192s 1056767s
parted -s /dev/sdb mkpart primary 8192s 1056767s
parted -s /dev/sda mkpart primary 1056768s 34611199s
parted -s /dev/sdb mkpart primary 1056768s 34611199s
parted -s /dev/sda mkpart primary 34611200s 51388415s
parted -s /dev/sdb mkpart primary 34611200s 51388415s
parted -s /dev/sda mkpart primary 51388416s 59777023s
parted -s /dev/sdb mkpart primary 51388416s 59777923s
parted -s /dev/sda name 1 grub
parted -s /dev/sdb name 1 grub
parted -s /dev/sda name 2 boot
parted -s /dev/sdb name 2 boot
parted -s /dev/sda name 3 rootfs
parted -s /dev/sdb name 3 rootfs
parted -s /dev/sda name 4 data
parted -s /dev/sdb name 4 data
parted -s /dev/sda name 5 swap
parted -s /dev/sdb name 5 swap
parted -s /dev/sda set 1 bios_grub on
parted -s /dev/sdb set 1 bios_grub on

mknod /dev/md2 b 9 2
mknod /dev/md3 b 9 3
mknod /dev/md4 b 9 4
mknod /dev/md5 b 9 5

cat > /etc/mdadm.conf << "EOF"
MAILADDR root@localhost
MAILFROM root@localhost
CREATE metadata=1.2
HOMEHOST <none>
DEVICE /dev/sd*[0-9]
EOF

mdadm --create /dev/md2 --name=boot --bitmap=internal --level=raid1 --raid-devices=2 --metadata=1.2 /dev/sd[ab]2
mdadm --create /dev/md3 --name=root --bitmap=internal --level=raid1 --raid-devices=2 --metadata=1.2 /dev/sd[ab]3
mdadm --create /dev/md4 --name=data --bitmap=internal --level=raid1 --raid-devices=2 --metadata=1.2 /dev/sd[ab]4
mdadm --create /dev/md5 --name=swap --bitmap=internal --level=raid1 --raid-devices=2 --metadata=1.2 /dev/sd[ab]5

mke2fs -c -b 4096 -t ext2 /dev/md2
tune2fs -c 0 -i 0 /dev/md2
tune2fs -e continue /dev/md2
tune2fs -O dir_index /dev/md2
tune2fs -o user_xattr,acl /dev/md2
e2fsck -D /dev/md2

mke2fs -c -b 4096 -t ext3 -j /dev/md3
tune2fs -c 0 -i 0 /dev/md3
tune2fs -e continue /dev/md3
tune2fs -O dir_index,large_file /dev/md3
tune2fs -o user_xattr,acl,journal_data /dev/md3
e2fsck -D /dev/md3

mke2fs -c -b 4096 -t ext3 -j /dev/md4
tune2fs -c 0 -i 0 /dev/md4
tune2fs -e continue /dev/md4
tune2fs -O dir_index,large_file /dev/md4
tune2fs -o user_xattr,acl,journal_data /dev/md4
e2fsck -D /dev/md4

mkswap -c /dev/md5
Das System manuell installieren und konfigurieren (noch nicht rebooten).

Die fstab für das System dazu:
Code:
/dev/disk/by-id/md-name-root   /          ext3    defaults,relatime,barrier=1    1 1
/dev/disk/by-id/md-name-boot   /boot      ext2    defaults,relatime              1 2
/dev/disk/by-id/md-name-data   /data      ext3    defaults,relatime,barrier=1    2 2
/dev/disk/by-id/md-name-swap   none       swap    sw                             0 0
Die mdadm.conf für das System reicht dann minimal völlig aus:
Code:
MAILADDR root@localhost
MAILFROM root@localhost
CREATE metadata=1.2
HOMEHOST <none>
DEVICE /dev/sd*[0-9]

Das müsste es grob gewesen sein. Nun rebooten und Daumen drücken.


Für Fehler und/oder Unvollständigkeit bitte beachten, dass ich das selbst zuletzt vor einigen Jahren gemacht habe und sich seitdem einiges geändert haben kann. Eigeninitiative setze ich voraus!

Bei FreeBSD ist es viel einfacher und deutlich weniger fehleranfällig...
 
Ich habe zwischenzeitlich, weil ich mir erst einmal, nicht anders zu helfen wusste, mir ein 14.04 hier Local bei mir hin gestellt und alle wichtigen Daten übertragen. Das Notfallsystem läuft jetzt erst einmal und ich habe keinen großen Zeitdruck mehr. Zumindet bis Sonntag Abend.

Also wie gesagt, das Mounten md126 und md127 hatte funktioniert.

Jetzt soll es ja 1000 Anleitungen geben wie ich die Arrays wieder richtig benennen könne. Und ja, das ist auch genau das Problem. Es gibt da wirklich viele Threads zu. Aber woher weiß ich denn ob ich das so übernehmen kann!?

Ich muss aus md126 und md127 wieder ein md0, md1 & md2 bekommen. Und da fehlt mir ein bisschen das Verständnis. Ich weis ehrlich gesagt auch gar nicht wie es dazu kommen konnte. Kann es vielleicht auch sein, das unter dem normalen System die Arrays noch den original Namen haben!? Wenn mir hier keiner auf die Sprünge helfen kann, dann werde ich wohl wirklich das System neu aufsetzen müssen. Und das nur wegen einer zugelaufenen Partition die ich nicht leeren konnte.
 
Die Partition wird Dir immer wieder volllaufen, daher kommst Du um das Neuaufsetzen ohnehin nicht vorbei.
Das lange Googlen/Fragen nach einer Anleitung und das anschliessende Rumfrickeln kannst Du Dir also sparen.


Mache es lieber einmal richtig, als x-mal falsch.



Und tue Dir selbst einen Gefallen und lies mal ein paar Dokumentationen und Bücher zu den Linux-Grundlagen und Administration.
 
Alles klar. Dann spar ich mir das.

Bei der neuinstall habe ich wohl bei Str*t* nicht viel Einstellmöglichkeiten. Also ich kann mich jedenfalls nicht dran errinnern da irgendwie die Partitionen selber eingestellt zu haben.
Allerdings glaube ich auch, das ich für die Paar Sachen die drauf kommen (LAMP und JRE) nicht besonders viel Platz benötige.

Ich glaube vielmehr, das durch meine ständigen Updates die Partition zugelaufen ist. Ich habe zwar wenn gewünscht immer autoremove drüber laufen lassen, aber das hat es scheinbar nicht gebracht.

Aber ich werde das das näxte mal was besser im Blick behalten.
 
Es hindert Dich Niemand, nichtmal Strato, daran, die Partitinierung und Installation per Rescuesystem selbst vorzunehmen.


Die angebotenen Images nahezu aller Serveranbieter sind in irgendeiner Form kaputt, weshalb man sie gar nicht erst verwenden sollte.
Jede brauchbare Linux-Distro lässt sich per Rescuesystem remote installieren und dabei auch gleich abspecken sowie tunen.
 
Back
Top