PhiGi
New Member
Hi,
ich Google schon seit Stunden und suche eine Lösung damit ich meine gesamten Websiten auf meinem Linux-Rechner sichern kann.
Und zwar stelle ich mir vor via Cronjob ein Script starten zu lassen, was erst auf den FTP Server Connectet, danach den gesamten Inhalt Runterläd und in deine name_datum.tar.gz speichert. Danach das ganze von vorn auf einem anderen FTP ... also ein Script das nach und nach alle FTPs von mir Sichert. Ist das möglich? Wenn ja kann mir evtl jmd. solch ein Script schreiben? Ggl kann dann natürlich verhandelt werden. Habe es mit ncftpget versucht, aber irgendwie nicht hin bekommen.
Vielen dank für Eure Hilfe im Vorraus!
ich Google schon seit Stunden und suche eine Lösung damit ich meine gesamten Websiten auf meinem Linux-Rechner sichern kann.
Und zwar stelle ich mir vor via Cronjob ein Script starten zu lassen, was erst auf den FTP Server Connectet, danach den gesamten Inhalt Runterläd und in deine name_datum.tar.gz speichert. Danach das ganze von vorn auf einem anderen FTP ... also ein Script das nach und nach alle FTPs von mir Sichert. Ist das möglich? Wenn ja kann mir evtl jmd. solch ein Script schreiben? Ggl kann dann natürlich verhandelt werden. Habe es mit ncftpget versucht, aber irgendwie nicht hin bekommen.
Vielen dank für Eure Hilfe im Vorraus!