hallo,
ich stehe vor einem etwas delikatem problem.
ich muss files von einem alten server, der bald abgeschaltet wird, auf einen neuen server umziehen.
übertragen kann ich die dateien nur im rahmen der möglichkeiten, also mit ftp, http etc. - die möglichkeit, die dateien per wechseldatenträger o.ä. zu übertragen, besteht nicht, da beide server in einem entfernten rechenzentrum stehen.
das problem ist nun, dass der ordner, den ich übertragen will, mehr als 50.000 dateien beinhaltet.
eigentlich wollte ich wget für diese aufgabe verwenden.
mein problem ist nun, dass natürlich sämtliche timeouts überschritten werden, wenn ich alleine schon versuche mittels des ftp-befehls LIST den inhalt des verzeichnisses darzustellen.
hat jemand eine idee, wie ich diese enorme anzahl an dateien übertragen kann?
auf dem alten server in ein archiv verpacken wird wohl nicht funktionieren, da der speicherplatz des alten server bereits zu 95% ausgelastet ist (eben durch diese 50.000 dateien).
ich danke für eure mithilfe!
gruß,
qwerty85
ich stehe vor einem etwas delikatem problem.
ich muss files von einem alten server, der bald abgeschaltet wird, auf einen neuen server umziehen.
übertragen kann ich die dateien nur im rahmen der möglichkeiten, also mit ftp, http etc. - die möglichkeit, die dateien per wechseldatenträger o.ä. zu übertragen, besteht nicht, da beide server in einem entfernten rechenzentrum stehen.
das problem ist nun, dass der ordner, den ich übertragen will, mehr als 50.000 dateien beinhaltet.
eigentlich wollte ich wget für diese aufgabe verwenden.
mein problem ist nun, dass natürlich sämtliche timeouts überschritten werden, wenn ich alleine schon versuche mittels des ftp-befehls LIST den inhalt des verzeichnisses darzustellen.
hat jemand eine idee, wie ich diese enorme anzahl an dateien übertragen kann?
auf dem alten server in ein archiv verpacken wird wohl nicht funktionieren, da der speicherplatz des alten server bereits zu 95% ausgelastet ist (eben durch diese 50.000 dateien).
ich danke für eure mithilfe!
gruß,
qwerty85