Problem beim entapcken von Backup.tgz

Sonic_cgn

mit wenig Erfahrung
Hallo, ich habe ein riesen Problem,

ich habe von meiner TomCat ein tägliches Backup was ich nun einspielen wollte.
Dieses Backup habe ich folgendermaßen angelegt:

tar czf backup.tgz /opt/apache-tomcat-5.5.27/webapps/xem

Dieses .tgz ist nun über 2 GB großund immer wenn ich es entpacken will schreibt er mir nix auf die Platte.

tar -zxvf backup.tgz

Es werden alle files aufgelistet, aber nichts geschrieben.

kann ich dahinter irgendwie ein zielverzeichnis angeben. Ich habe es schon versucht aber das hat bisher auch nicht geklappt.

Dankbar für jede Hilfe..

Cu Sven
 

LinuxAdmin

Moderator
Dieses .tgz ist nun über 2 GB großund immer wenn ich es entpacken will schreibt er mir nix auf die Platte.
Woran machst Du das fest? Fehlermeldungen?

kann ich dahinter irgendwie ein zielverzeichnis angeben. Ich habe es schon versucht aber das hat bisher auch nicht geklappt.
Tar packt immer im aktuellen Verzeichnis aus (und legt dabei relativ dazu die im Archiv angegebenen Verzeichnisse an, sofern man nicht durch die entsprechende Option absolute Pfade gewählt hat).
 

Sonic_cgn

mit wenig Erfahrung
Ich hatte nun 5 Stunden Spaß gehabt. Ich konnte/musste die Original Dateien wieder herstellen.

Jetzt weiss ich allerdings das meine Backups allesamt für die Tonne sind.
Ich habe es auch mal mit dem MC ausprobiert.

Dort klappte es dann auch teilweise, nach ein Minuten kamen dann nur noch Errors.
Daraufhin habe ich ein Backup von gestern ausprobiert, genau das selbe.
Ich kann mir aber eigentlich nicht vorstellen das die TGZ's kaputt sind. Denn ich habe mir die 2 GB runter gezogen und mir WinRAR entpackt. Dort gab es scheinbar keine Probleme.

Kann es vielleicht an der Archivgröße liegen.

Es waren genau 2,09 GB, entpackt waren es über 4 GB mit ca. 46.000 Files.
Mein Strat* Suse 10.3 hat 2GB Ram.. vielleicht liegt es daran ?
 

LinuxAdmin

Moderator
Hm, in den letzten 19 Jahren, in denen ich tar verwendet habe (zuerst nur mit compress, später mit gzip und auch bzip2) hatte ich nie Probleme damit (abgesehen von den Fällen in denen das verwendete Tape-Medium ein Lesen unmöglich gemacht hat).

Das einzige, was ich mir vorstellen kann ist, dass Du das Archiv beim Transfer mit FTP nicht im Binärmodus übertragen hast.

Du bringst hier nach wie vor keine Beweise in Form von konkreten Fehlermeldungen...
 

zeaq

New Member
Kernel !?

Hallo Sonic_cgn,

ich habe noch in Erinnerung, dass ein Bekannter mal ähnliche Probleme mit großen Dateien hatte. Das ist allerdings schon mindestens 3 Jahre her. Seine Lösung war damals meine ich ein Kernel Update, weil irgendeine Komponente mit Dateien ab einer bestimmten Größe Probleme hatte. Genauer habe ich es leider nicht mehr. Falls du einen uralten Kernel verwendest, könnte das vielleicht ein Ansatz sein.

Poste doch bitte mal deinen Output aus "uname -a".

-zeaq-
 

Armadillo

Registered User
Entpackt er es denn wirklich nicht? Weil dann müsste ja zumindest mal ne Fehlermeldung kommen, bzw. sollte. Beobachten kannste das bei 2GB ja ganz gut mit:
Code:
df -h
 

IP-Projects.de

verifizierter Anbieter
verifizierter Anbieter
Gib einmal df ein ob überhaupt noch genug Speicherplatz in der Partition zur Verfügung steht :)
 
Top