Crawler / Spider aussperren?

JOat

Registered User
moin,

ich würde gerne die ganzen Suchrobotter aussperren, ich hab nämlich ne ganze Anzahl an Einträgen wie:

[Tue Jan 10 14:11:04 2006] [error] [client 66.235.201.150] File does not exist: /home/www/confixx/html/phpMyAdmin-2.2.6
[Wed Jan 11 08:41:53 2006] [error] [client 70.236.251.138] File does not exist: /home/www/confixx/html/mysqladmin

....

alles von IPs die da def. nix zu suchen haben.

kann man das per htaccess oder per robots.txt regeln?
 
mmmm was muss ich machen damit .htaccess Datein im confixx Verzeichnis akzeptiert werden?

<Directory "/home/www/confixx/html">
AllowOverride All
Options +FollowSymLinks +SymLinksIfOwnerMatch
</Directory>

hatte ich testhalber in dei mhosts.conf / vhost.conf geschrieben, leider ohne Erfolg
 
Back
Top