FTP Download Bash Script

PhiGi

New Member
Hi,

ich Google schon seit Stunden und suche eine Lösung damit ich meine gesamten Websiten auf meinem Linux-Rechner sichern kann.

Und zwar stelle ich mir vor via Cronjob ein Script starten zu lassen, was erst auf den FTP Server Connectet, danach den gesamten Inhalt Runterläd und in deine name_datum.tar.gz speichert. Danach das ganze von vorn auf einem anderen FTP ... also ein Script das nach und nach alle FTPs von mir Sichert. Ist das möglich? Wenn ja kann mir evtl jmd. solch ein Script schreiben? Ggl kann dann natürlich verhandelt werden. Habe es mit ncftpget versucht, aber irgendwie nicht hin bekommen.

Vielen dank für Eure Hilfe im Vorraus!
 
wget + tar ? ncftpget ist allerdings auch sehr gut ;)

Für die benötigten Parameter einfach einmal die Manpage durchlesen.
Falls du bei etwas bestimmtem nicht weiter kommst, stell doch eine konkrete Frage.


MfG Christian
 
Hi, ja ich bin immer noch dabei alles zu versuchen, denn dann kann ich mein Windows-Backup Server mit Cobian endlich vernichten!

Wenn ich z.B. ncftpget nutze um von meinem Windows-Xampp Server laden lasse, kommt einfach nen Timeout, auf dem Server wird sich aber Problemlos eingeloggt! Auf meinen Linux-Servern ist das kein Problem, nur kann er das ganze nicht Packen/Archivieren.

Kannst du mir evtl nen Script schreiben? Natürlich mit ner GGL!
Mit "wget" weiß ich nicht wie ich es "on the fly" Packe/Archiviere!

M.f.G.
PhiGi
 
Wie waere es mit sowas aehnlichem?

Code:
#!/bin/sh
Datei="test_"`date +%d_%m`".tar.gz"
Ftp="ftp://USER:PASS@HOST.tld/PFAD"
Directory=$(cd `dirname $0` && pwd)

rm -rf  $Directory/temp && mkdir $Directory/temp
wget -r $Ftp -P $Directory/temp
tar -czvf $Directory/$Datei.tar.gz $Directory/temp/*
 
Back
Top