C
counteam
Guest
Huhu.
Ich habe in Java einen kleinen Crawl-Service geschrieben gehabt.
Was mich nun verwundert, dass wenn der Crawler gestartet wurde, am nächsten Tag der Debian-Server nicht mehr erreichbar ist.
Kann es evtl sein, dass die Internetleitung bzw der Server absichtlich eine verbindung nach außen blockt, weil der Crawler zu schnell und zu viele Daten "holt"?
Dies ist mir mal auf Windows aufgefallen, als ich für ein Java-Chat von mir einen Flooder zum Testen geschrieben hatte, damit ich sehen kann, wie sicher die Chatsoftware leztendlich ist - Hier war auch nach kurzer Zeit keine Internet-Verbindung mehr möglich.
Liegt es ggf. an den Belegten Ports, sodass alle Ports belegt werden und dementsprechend nichts mehr rein oder raus kommt?
Ich habe in Java einen kleinen Crawl-Service geschrieben gehabt.
Was mich nun verwundert, dass wenn der Crawler gestartet wurde, am nächsten Tag der Debian-Server nicht mehr erreichbar ist.
Kann es evtl sein, dass die Internetleitung bzw der Server absichtlich eine verbindung nach außen blockt, weil der Crawler zu schnell und zu viele Daten "holt"?
Dies ist mir mal auf Windows aufgefallen, als ich für ein Java-Chat von mir einen Flooder zum Testen geschrieben hatte, damit ich sehen kann, wie sicher die Chatsoftware leztendlich ist - Hier war auch nach kurzer Zeit keine Internet-Verbindung mehr möglich.
Liegt es ggf. an den Belegten Ports, sodass alle Ports belegt werden und dementsprechend nichts mehr rein oder raus kommt?