Jak zablokować niechciany ruch robotów na serwerze


Jak zablokować niechciany ruch robotów .htaccess?
W przypadku, gdy do Twojej witryny jest zbyt duży ruch pochodzący z różnych adresów IP z jednym i tym samym agentem użytkownika, najłatwiejszą opcją ich ograniczenia jest zablokowanie agenta użytkownika. W tym celu należy otworzyć plik .htaccess do edycji i dodać następujące reguły:

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} UserAgentName [NC]
RewriteRule .* - [F,L]

 

Gdzie należy zastąpić UserAgentName rzeczywistą nazwą agenta użytkownika. Na przykład, jeśli chcesz zablokować agenta użytkownika o nazwie Textbot , powinieneś dodać:

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} Textbot [NC]

RewriteRule .* - [F,L]


 

Zalecane jest umieszczenie ich na samym początku pliku .htaccess . Jeśli chcesz zablokować więcej niż jednego klienta użytkownika (np. O nazwie SCspider , Textbot i s2bot ), możesz to zrobić za pomocą poniższych reguł .htacces:


RewriteEngine On


RewriteCond %{HTTP_USER_AGENT} ^.*(SCspider|Textbot|s2bot).*$ [NC]


RewriteRule .* - [F,L]


 

Aby zablokować żądania z komputerów z brakującym agentem użytkownika, dodaj następujące reguły do pliku .htaccess :

RewriteCond %{HTTP_USER_AGENT} ^-?$


RewriteRule ^ - [F]

Dodaj komentarz