Как закрыть от индексации часть текста?

psyleads psyleads   25.09.2020 12:47   497  

Всем привет!

Кто знает как правильно закрыть от индексации часть текста. Например на каждой странице сайта используется одно и тоже предложение в виде текста без ссылок.


Ответы на вопрос (14) Написать ответ
vklimin vklimin   25.09.2020 13:04
Если речь только о Яндексе, то самый быстрый способ <!--noindex--><!--/noindex->.
0
psyleads psyleads   25.09.2020 13:07
К сожалению, я нацелен на посетителей с гугла.
0
wprazor wprazor   25.09.2020 17:05
не парьтесь. можно выводить через JS
0
psyleads psyleads   25.09.2020 18:53
как это сделать?
0
wprazor wprazor   25.09.2020 19:01
document.write("Привет Мир!");
0
vklimin vklimin   25.09.2020 21:13
Не сработает. Любой поисковик запустит VM с исполнением JS и проиндексирует вставленный жабой контент. Они так уже лет 5 делают, поэтому не вариант.
0
wprazor wprazor   26.09.2020 11:25
Можно проверять по useragent, но от хитроботов не спасет
<pre>
var useragent = (/Bot|bot/i.test(navigator.userAgent.toLowerCase()));
if (!useragent) {

// ваш код
document.write("Привет Мир!");


}
</pre>
0
vklimin vklimin   27.09.2020 08:46
VM запустится от имени стандартного Хрома, без указания принадлежности какому-либо боту.
Есть вариант проверять UA при формировании контента (на уровне PHP или прочего) и не отдавать определённым ботам часть контента совсем.
0
v3663 v3663   26.09.2020 11:45
2 варианта:
1 вариант - это нормальный текст, но вы опасаетесь по поводу продвижения. В этом случае, думаю, не стОит заморачиваться - нынче это не сильно влияет на продвижение, лучше думать о ПФ.
2 вариант - текст опасный и надо, чтобы он был на сайте, но точно не был в поисковой выдаче. В этом случае можно применить технологию AJAX и выводить на сайте информацию,  находящуюся в директории, защищённой от поисковиков записью в robots.txt. Так можно вставлять в страницу всякую рекламу. Проверено - точно не попадает в поисковую выдачу.
0
psyleads psyleads   26.09.2020 12:16
я к примеру использовал плагин affiliate links который маскирует внешние ссылки под внутренние. Так я для страховки эти внутренние ссылки закрыл в роботс. Из примерно 300 ссылок, гугл ысе таки 100 прлиндексировал. Часть самостоятельно на свое усмотрение, а часть с других сайтов, которые у меня украли контент вместе ссылками и поэтому боты гугла их прошли тоже.

Так что роботс это не панацея!
0
v3663 v3663   26.09.2020 18:07
тогда брать текст с другого домена, закрытого от индексации
0
vklimin vklimin   27.09.2020 08:48
Я делаю так:
- в php чекаю UA и IP, определяю принадлежность бота,
- на основании этих знаний принимаю решение, что выводить на странице, показывать ли рекламный код и т.п.

Немного похоже на клоакинг, но за 9 лет не было ни одной претензии у поисковиков.
0
psyleads psyleads   27.09.2020 08:55
Поделитесь подробно такой практикой. Было бы полезно выводить для ботов белый контент, а для юзеров с рекламой
0
vklimin vklimin   27.09.2020 10:08
Не уверен, что готов поделиться библиотекой, но основная технология такова: - на уровне NGINX определяю принадлежность IP к подсети той или иной поисковой системы, передаю в PHP, - в PHP смотрю какой в UA указан бот, если он из правильной подсети (а не маскируется под другого бота), то регистрирую его в переменной, - когда формирую код, смотрю, кто ко мне пришёл - бот, не бот и какой бот, и выдаю соответствующий посетителю контент.
0

Войдите, чтобы написать ответ
Вход Регистрация