Если на ваш сайт поступает слишком много трафика с разных IP-адресов с одним и тем же User-Agent, самый простой способ ограничить его - заблокировать User-Agent. Для этого откройте для редактирования файл .htaccess и добавьте правила ниже.
Блокировка User-Agents в файле .htaccess
1 2 3 | RewriteEngine On RewriteCond %{HTTP_USER_AGENT} UserAgent [NC] RewriteRule .* - [F,L] |
Где вместо UserAgent следует вставить фактическое имя. Например, если вы хотите заблокировать User-Agent с именем Testbot, добавьте его как:
1 2 3 | RewriteEngine On RewriteCond %{HTTP_USER_AGENT} Testbot [NC] RewriteRule .* - [F,L] |
Рекомендуется добавлять их в самом начале файла .htaccess. Чтобы заблокировать более одного пользовательского агента (например, с именами SCspider, Testbot и s2bot), сделайте это с помощью правил .htacces, приведенных ниже:
1 2 3 | RewriteEngine On RewriteCond %{HTTP_USER_AGENT} ^.*(SCspider|Testbot|s2bot).*$ [NC] RewriteRule .* - [F,L] |
Чтобы блокировать запросы от с пустым User-Agent, добавьте следующие правила в файл .htaccess:
1 2 | RewriteCond %{HTTP_USER_AGENT} ^-?$ RewriteRule ^ - [F] |
Так же возможно использовать список
1 2 3 4 5 6 7 8 9 | SetEnvIfNoCase User-Agent "ahrefs.com" bad_user_agent SetEnvIfNoCase User-Agent "megaindex.ru" bad_user_agent SetEnvIfNoCase User-Agent "Java/1." bad_user_agent SetEnvIfNoCase User-Agent "linkpad.ru" bad_user_agent <Limit GET POST HEAD> Order Allow,Deny Allow from all Deny from env=bad_user_agent </Limit> |
Либо полный user-agent
1 2 3 4 5 6 | SetEnvIfNoCase User-Agent "Mozilla/5.0 (compatible; AhrefsBot/7.0; +http://ahrefs.com/robot/)" bad_user_agent <Limit GET POST HEAD> Order Allow,Deny Allow from all Deny from env=bad_user_agent </Limit> |
Блокировать плохих ботов
Некоторые боты хорошие, некоторые плохие. Плохие боты потребляют вашу пропускную способность и увеличивают нагрузку на ваш сервер, обеспечивая при этом небольшую ценность в виде трафика на ваш сайт. Пример ниже позволяет блокировать список известных плохих ботов.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 | //Block bad bots RewriteEngine On RewriteCond %{HTTP_USER_AGENT} ^BlackWidow [OR] RewriteCond %{HTTP_USER_AGENT} ^Bot\ mailto:craftbot@yahoo.com [OR] RewriteCond %{HTTP_USER_AGENT} ^ChinaClaw [OR] RewriteCond %{HTTP_USER_AGENT} ^Custo [OR] RewriteCond %{HTTP_USER_AGENT} ^DISCo [OR] RewriteCond %{HTTP_USER_AGENT} ^Download\ Demon [OR] RewriteCond %{HTTP_USER_AGENT} ^eCatch [OR] RewriteCond %{HTTP_USER_AGENT} ^EirGrabber [OR] RewriteCond %{HTTP_USER_AGENT} ^EmailSiphon [OR] RewriteCond %{HTTP_USER_AGENT} ^EmailWolf [OR] RewriteCond %{HTTP_USER_AGENT} ^Express\ WebPictures [OR] RewriteCond %{HTTP_USER_AGENT} ^ExtractorPro [OR] RewriteCond %{HTTP_USER_AGENT} ^EyeNetIE [OR] RewriteCond %{HTTP_USER_AGENT} ^FlashGet [OR] RewriteCond %{HTTP_USER_AGENT} ^GetRight [OR] RewriteCond %{HTTP_USER_AGENT} ^GetWeb! [OR] RewriteCond %{HTTP_USER_AGENT} ^Go!Zilla [OR] RewriteCond %{HTTP_USER_AGENT} ^Go-Ahead-Got-It [OR] RewriteCond %{HTTP_USER_AGENT} ^GrabNet [OR] RewriteCond %{HTTP_USER_AGENT} ^Grafula [OR] RewriteCond %{HTTP_USER_AGENT} ^HMView [OR] RewriteCond %{HTTP_USER_AGENT} HTTrack [NC,OR] RewriteCond %{HTTP_USER_AGENT} ^Image\ Stripper [OR] RewriteCond %{HTTP_USER_AGENT} ^Image\ Sucker [OR] RewriteCond %{HTTP_USER_AGENT} Indy\ Library [NC,OR] RewriteCond %{HTTP_USER_AGENT} ^InterGET [OR] RewriteCond %{HTTP_USER_AGENT} ^Internet\ Ninja [OR] RewriteCond %{HTTP_USER_AGENT} ^JetCar [OR] RewriteCond %{HTTP_USER_AGENT} ^JOC\ Web\ Spider [OR] RewriteCond %{HTTP_USER_AGENT} ^larbin [OR] RewriteCond %{HTTP_USER_AGENT} ^LeechFTP [OR] RewriteCond %{HTTP_USER_AGENT} ^Mass\ Downloader [OR] RewriteCond %{HTTP_USER_AGENT} ^MIDown\ tool [OR] RewriteCond %{HTTP_USER_AGENT} ^Mister\ PiX [OR] RewriteCond %{HTTP_USER_AGENT} ^Navroad [OR] RewriteCond %{HTTP_USER_AGENT} ^NearSite [OR] RewriteCond %{HTTP_USER_AGENT} ^NetAnts [OR] RewriteCond %{HTTP_USER_AGENT} ^NetSpider [OR] RewriteCond %{HTTP_USER_AGENT} ^Net\ Vampire [OR] RewriteCond %{HTTP_USER_AGENT} ^NetZIP [OR] RewriteCond %{HTTP_USER_AGENT} ^Octopus [OR] RewriteCond %{HTTP_USER_AGENT} ^Offline\ Explorer [OR] RewriteCond %{HTTP_USER_AGENT} ^Offline\ Navigator [OR] RewriteCond %{HTTP_USER_AGENT} ^PageGrabber [OR] RewriteCond %{HTTP_USER_AGENT} ^Papa\ Foto [OR] RewriteCond %{HTTP_USER_AGENT} ^pavuk [OR] RewriteCond %{HTTP_USER_AGENT} ^pcBrowser [OR] RewriteCond %{HTTP_USER_AGENT} ^RealDownload [OR] RewriteCond %{HTTP_USER_AGENT} ^ReGet [OR] RewriteCond %{HTTP_USER_AGENT} ^SiteSnagger [OR] RewriteCond %{HTTP_USER_AGENT} ^SmartDownload [OR] RewriteCond %{HTTP_USER_AGENT} ^SuperBot [OR] RewriteCond %{HTTP_USER_AGENT} ^SuperHTTP [OR] RewriteCond %{HTTP_USER_AGENT} ^Surfbot [OR] RewriteCond %{HTTP_USER_AGENT} ^tAkeOut [OR] RewriteCond %{HTTP_USER_AGENT} ^Teleport\ Pro [OR] RewriteCond %{HTTP_USER_AGENT} ^VoidEYE [OR] RewriteCond %{HTTP_USER_AGENT} ^Web\ Image\ Collector [OR] RewriteCond %{HTTP_USER_AGENT} ^Web\ Sucker [OR] RewriteCond %{HTTP_USER_AGENT} ^WebAuto [OR] RewriteCond %{HTTP_USER_AGENT} ^WebCopier [OR] RewriteCond %{HTTP_USER_AGENT} ^WebFetch [OR] RewriteCond %{HTTP_USER_AGENT} ^WebGo\ IS [OR] RewriteCond %{HTTP_USER_AGENT} ^WebLeacher [OR] RewriteCond %{HTTP_USER_AGENT} ^WebReaper [OR] RewriteCond %{HTTP_USER_AGENT} ^WebSauger [OR] RewriteCond %{HTTP_USER_AGENT} ^Website\ eXtractor [OR] RewriteCond %{HTTP_USER_AGENT} ^Website\ Quester [OR] RewriteCond %{HTTP_USER_AGENT} ^WebStripper [OR] RewriteCond %{HTTP_USER_AGENT} ^WebWhacker [OR] RewriteCond %{HTTP_USER_AGENT} ^WebZIP [OR] RewriteCond %{HTTP_USER_AGENT} ^Wget [OR] RewriteCond %{HTTP_USER_AGENT} ^Widow [OR] RewriteCond %{HTTP_USER_AGENT} ^WWWOFFLE [OR] RewriteCond %{HTTP_USER_AGENT} ^Xaldon\ WebSpider [OR] RewriteCond %{HTTP_USER_AGENT} ^Zeus RewriteRule ^.* - [F,L] |
Не работает
Еще бы знать что именно не работает)
настройки ниже - прекрасно блокируют FireFox
Подстрока:
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} Firefox [NC]
RewriteRule .* - [F,L]
Список:
SetEnvIfNoCase User-Agent "Firefox/109.0" bad_user_agent Order Allow,Deny
Allow from all
Deny from env=bad_user_agent
Ребят, я чайник в этом, на мой сайт идет много запросов со следующих Ботов:
Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/112.0.0.0 YaBrowser/23.5.1.721 Yowser/2.5 Safari/537.36
Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36
Как мне правильно прописать, что бы их заблочить?
Заранее благодарю
htacess требует экранировать пробелы, что довольно муторно.
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} Mozilla/5\.0\ \(X11;\ Ubuntu;\ Linux\ x86_64;\ rv\:62\.0\)\ Gecko/20100101\ Firefox/62\.0 [NC]
RewriteRule .* - [F,L]
К тому же блокировка по user-agent не эффективна.
Советую изучить возможность установки сайта за Cloudflare (это бесплатно)
https://g-soft.info/articles/328/ustanovka-sayta-za-cloudflare/
У них Cloudflare есть довольно полезный режим Bot Fight Mode
https://g-soft.info/articles/8562/cloudflare-bot-fight-mode/
Другие статьи по cloudflare: https://g-soft.info/tag/cloudflare/