Spam-Traffic reduzieren

Sensonaut

New Member
Hallo Ihr!

Bisher war ich auf meinem V-Server kaum von Spam betroffen. Inzwischen nimmt der dadurch verursachte Traffic aber immer mehr zu und so wollte ich mal was dagegen unternehmen. :rolleyes:

Im Netz bin auf mod_defensible für den Apache gestoßen. Was haltet ihr davon? Gibt's sonst noch was besseres?

Danke im Voraus,

Titus
 
Wie definiert man Spam bei Webservern? Crawler oder was? Die laden ja normal net mal die Bilder, sollte also vom Traffic her net so extrem viel ausmachen oder? :eek:

Und Blacklisten, ich weiß net... Die sind ja schon bei Mailservern teilweise mit Vorsicht zu genießen. :rolleyes:
 
Es ist so, dass ich massiv Zugriffe von bestimmten IPs habe. Dahinter stecken wahrscheinlich Roboter, die versuchen in Formulare ihren Spam-Schrott zu hinterlassen. Das habe ich immerhin mit "Intelligenztests" unterbunden.

Ich habe mit diesen Robots nun zwei Probleme: Zum einen verfälschen Sie die Statistik. Die Hits usw. von realen Besuchern meiner zugegeben nicht übermäßig stark frequentierten Site gehen da ziemlich unter. Und zum anderen macht sich die durch Spamer erzeugte Last auf meinem kleine V-Server und im Tomcat mittlerweile schon bemerkbar.

Eigentlich würde es mir ja schon reichen, wenn ich bestimmte IPs ausschließen kann. Nach einer solchen Möglichkeit hatte ich gegoogled und eben dieses mod_defensible gefunden. Bevor ich aber ein mir nicht näher bekanntes mod installiere, wollte ich hier mal die Fachleute fragen. ;)
 
Mein Server wird auch ständig nach Verzeichnissen und Dateien durchsucht. Das ist leider so, läßt sich aber mit einem Apache Module unterbinden. Hatte das schonmal getestet. Das Module heißt mod_evasive20.so

Code:
[COLOR="Red"]#[/COLOR]LoadModule evasive20_module modules/mod_evasive20.so

#Konfiguration von Evasive
<IfModule mod_evasive20.c>
    DOSHashTableSize    3097
    DOSPageCount        2
    DOSSiteCount        50
    DOSPageInterval     1
    DOSSiteInterval     1
    DOSBlockingPeriod   10
    DOSEmailNotify     webmaster@domain.de
</IfModule>

Das Module muß installiert und die Parameter in der Apache Konfiguration eingestellt werden. Wenn du es nicht mehr benötigst, einfach die Zeile LoadModule... mit # ausklammern.
 
Last edited by a moderator:
mod_evasive beschränkt die gleichzeitigen Verbindungen eines Users. Ob das dem Problem Abhilfe schafft, müsste man ausprobieren, könnte aber durchaus eine Lösung sein. ;)
 
Erstmal danke für eure Unterstützung. :) Weil ich ungeduldig war, habe ich mit mod_rewrite etwas gebastelt. In dem Guide dazu wird u.a. beschrieben, wie man bestimmte IPs mit einem Error 500 beglücken kann.

Das mit dem mod_evasive klingt interessant und ich werde es demnächst mal ausprobieren. Meine Lösung hat ja den Nachteil, dass sie eher starr ist.

Titus
 
RE Blocken von Spammern Server Sicherheit ???

Hallo,

habt Ihr nochmal Lust euch über das "Blocken von Spammern" auszulassen?:rolleyes:

Bin jetzt soweit mit meinen Seiten und dem Server soweit das ich Online gehen kann, jedoch möchte ich ( naja 100% wird nie gehen ) meinen Server soweit sicher gestallten, das Spamms etc. weitesgehend eingedämmt werdem.

Hat jemand gute oder schlechte Erfahrungen mit:

Blocken von Spammern mit mod_defensible auf Apache2 (wie geht´s)
mod_evasive20.so (wie geht´s)
Spider Trap
Bad Bod... in .htaccess in jedem Root-Verzeichniss
PHP5 mit Suhosin SuSE Servern sicherer machen
robots.txt


Ist vielleicht nervig, weil 1000de Beiträge gibt aber nie wirklich was gescheites - oder?

Was kann man noch machen um einen Server sicher zu gestellten???

DANKE
 
Last edited by a moderator:
Also ich benutze seit etwa einem Jahr das Page Restrictor Script von http://bot-trap.de und kann es nur vollstens empfehlen. Auf meiner privaten Site hatte ich ohne das Script bis zu 50 Registrierungen von Spambots am Tag, mit dem Script nur gelegentlich mal 1 oder 2 (und das nur weil ich 2 IP Ranges freigeben musste weil ich User auch aus "sehr verdächtigen" Ländern wie dem Libanon habe).
Auch "bad Bots" und andere zwielichtige Request werden geblockt, was nicht nur dem Traffic sondern auch der Serverload zugute kommt. False positives hatte ich nur 2 bis jetzt (Libanon, wie oben erwähnt), aber eine Anpassung ist problemlos möglich (manuell freigeben oder auch sperren).

;)
 
Ja habe ich auch schon gefunden und überlegt.

Was mir nur nicht gefällt ist, die Kontrolle weg zu geben bei Bot-Trap,


Habe jetzt auf meinen Projekten Spider-Trap eingerichtet und läuft, werde dies erst mal testen und sehen wie´s läuft.

Mit Spider-Trap kann ich auf dem Server entscheiden wer nicht darf.
Wie funzts genau bei BotTrap?

Danke für deinen Hinweis bad_brain, sonst noch andere Ideen.
 
Beim Page Restrictor kannst du auch entscheiden wer rein kommt und wer nicht. Beim Aufruf des Scripts im Header der zu schützenden Website kannst du manuell IPs/IP-Ranges die vom Page Restrictor geblockt werden frei geben und natürlich auch zusätzlich sperren. Aber wie gesagt, false positives sind wirklich die Ausnahme da genau geprüft wird wer auf die Liste kommt....nur 2 Vorfälle in einem Jahr auf meiner Site mit 2 Millionen Page Views aus aller Herren Länder sprechen für sich denke ich. Die User werden dann ja auch nicht komplett ausgesperrt sondern müssen dann eben eine kleine Rechenaufgabe lösen um auf die Site zugreifen zu können, daher können sie bei so einem Vorfall Bescheid geben und man kann sie innerhalb 1 Minute whitelisten...;)
 
Pisa-Studie? :D

Glücklicherweise wird ja auch ein Log angelegt das zeigt wer oder was in die "Falle" gegangen ist, und da habe ich bisher nix gefunden was ich wirklich auf meiner Site haben wollte.
Kleiner Einblick in die letzten Tage hier.
Man beachte den 9. und den 13., hier hatte eine Witzfigur jeweils einen kleinen DDoS gestartet, und einige der Bots waren schon gelistet was der Serverload (in Hinsicht auf SQL Queries) natürlich zuträglich war.
 
Last edited by a moderator:
Back
Top