Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.
Здравствуйте. Подскажите может у кого-то есть готовое решение как закрыть доступ всем роботам вроде Pr-cy, semrush и ихним аналогам. Список всех роботов которым закрыть доступ в robots.txt. Чтобы не повторяли ссылочный профиль по обратным ссылкам.
Поможем улучшить ваш сайт.
Нужно комплексно подходить - вычислять IP, контролировать User-Agent и ставить ловушки.
мне кажется если бы кто то создал такой список, это было бы очень полезно для общества).
Кстати а Pr-cy не закрыт ))
https://talk.pr-cy.ru/topic/28555-kak-blokirovat-botov-serpstat-ahrefs/
SetEnvIfNoCase User-Agent "^MegaIndex" bad_bot
SetEnvIfNoCase User-Agent "^LinkpadBot" bad_bot
SetEnvIfNoCase User-Agent "^AhrefsBot" bad_bot
SetEnvIfNoCase User-Agent "^MJ12bot" bad_bot
SetEnvIfNoCase User-Agent "^rogerBot" bad_bot
SetEnvIfNoCase User-Agent "^bingbot" bad_bot
SetEnvIfNoCase User-Agent "^bingbot/2.0" bad_bot
SetEnvIfNoCase User-Agent "^Baiduspider" bad_bot
SetEnvIfNoCase User-Agent "^Baiduspider/2.0" bad_bot
SetEnvIfNoCase User-Agent "^BLEXBot" bad_bot
SetEnvIfNoCase User-Agent "^proximic" bad_bot
SetEnvIfNoCase User-Agent "^GrapeshotCrawler/2.0" bad_bot
SetEnvIfNoCase User-Agent "^DotBot/1.1" bad_bot
SetEnvIfNoCase User-Agent "^coccocbot-web/1.0" bad_bot
SetEnvIfNoCase User-Agent "^Exabot/3.0" bad_bot
<Limit GET POST HEAD>Order Allow,DenyAllow from allDeny from env=bad_bot</Limit>