SEO Сообщество: Спрашивайте и помогайте

Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.

Q&A SEO

Замечания яндекса к сайту по перенаправлениям. Насколько критично?

psyleads psyleads  
112
  13.09.2017 08:06       2 928    
При обращении к главной странице сайта www.obzoroff.info робот получает перенаправление на другой сайт, что делает невозможным её индексирование.

Это критично или нет, так как логично что сайт перенаправляет на без www  на https и это прописано в роботс, что яшке не так?

Ответы на пост (26) Написать ответ
xShift xShift
85
13.09.2017 08:16
Если перенесли недавно, то нужно бло сделать "переезд" сайта и ждать. А так вроде все правильно.
0
psyleads psyleads
112
13.09.2017 08:22
сделал в марте, иногда подобное сообщение появляется в вебмастере и на сайте без www и без https . Также появляются замечания об отсутствии файла robots.txt хотя он есть и сделан правильно 100%.
непонятка какая то выходит.
В вебмастере по сайтам без https загружено 0 страниц, в поиске ноль. с https все в порядке, все в поиске присутствуют
0
Sergexpert Sergexpert
450
13.09.2017 08:26
Так и должно быть. Можете не переживать. А сайт свой Вы тут не пропиарите.
0
xShift xShift
85
13.09.2017 10:00
Читайте внимательнее что они пишут. Редиректа на robots.txt быть не должно. Если это с www на без www - то пофиг. Если это с http на https, то robots.txt должен быть доступен на обоих вариантах без перенаправления. Там же host указан поэтому пойдет правильная индексация нужного варианте адреса.
0
sansan sansan
1680
13.09.2017 08:26
Яндекс часто "путается в показаниях" :) Я лично не обращаю внимания, привык к подобным "глюкам". На каждый чих Яндекс - не накланяешься. Раньше писал Платонам, надоело получать отписки "ни о чем", бросил.
0
Sergexpert Sergexpert
450
13.09.2017 08:46
Также появляются замечания об отсутствии файла robots.txt хотя он есть и сделан правильно 100%.

Вот правильный robots.txt

User-agent: *
Disallow: /wp-admin
Disallow: /wp-content/plugins

Host:
Sitemap:
0
psyleads psyleads
112
13.09.2017 08:49
еще заметил небольшой баг. При переходе на сайт появляется иногда "страница недоступна", как будто бы нет интернета, и через полсекунды загружается нужная страница
0
Sergexpert Sergexpert
450
13.09.2017 08:53
Да и у меня тоже самое на Вашем сайте. А вобще всем, кто работает с ворпрессом, рекомендую этот плагин поставить. Он полностью удовлетворит все Ваши пожелания и наведет порядок. Это не реклама. Сам ставлю на все свои сайты. Стоит он недорого, но зато эффективно и просто. Вот ссылка https://wpshop.ru/plugins/clearfy
0
psyleads psyleads
112
13.09.2017 08:56
так стоит уже давно clearfy действительно классный и нужный плагин.
0
psyleads psyleads
112
13.09.2017 10:03
xShift , не понимаю Вас! Можно подробнее? что должно быть в роботс
0
xShift xShift
85
13.09.2017 10:05
Должно быть как обычно. Я вам просто напоминаю про старинную рекомендацию Яндекс оставлять robots.txt доступным без перенаправления. Если robots.txt нет, то индексация вообще не пойдет. Как это может отразиться в вашем случае я не уверен, но тем не менее такая рекомендация существует уже давно.
0
psyleads psyleads
112
13.09.2017 10:10
ну как роботс он один физически на хостинге, это же в реальности не три сайта с www, без него и с https
Тогда что нужно сделать, чтоб яндекс успокоился
0
sansan sansan
1680
13.09.2017 10:16
Подождать. рассосется :)
0
xShift xShift
85
13.09.2017 14:46
Смотрите что происходит на самом деле: для Я http и https - это два совершенно разных сайта. Если у сайта не задан robots.txt то есть его тупо нет, то ни Я ни G такой сайт индексировать не будет вообще. Что может случиться? Провалится лиц накопленный одним из зеркал как вариант.
0
psyleads psyleads
112
13.09.2017 10:20
спасибо Сан Саныч, успокоил! Жаль что яндекс долго рассасывает, особенно купленные ссылки для сайта http. С марта по сентябрь гугл давно нашел и уже нормальный траф дает. А Яшка то 30 уников то 200 в день и так чередуется с каждым апом, а я сижу и думаю, чё просадка то резкий взлёт, а запросы по сути одни и те же
0
sansan sansan
1680
13.09.2017 10:27
Ну... "штормит" Яшу, никакой валерианкой он не лечится, только Яндекс.Директ. Ориентируйтесь на google, единственный рецепт, имхо, для "спокойного сна" вебмастера :) Россияне пока что продолжают юзать Яндекс, но, похоже, неадекватность выдачи уже многих... утомила. Минус аудитория - всего остального мира, минус Украина, минус - здравый смысл.
У меня есть аккаунтв на mail вебмастер, но на-фиг мне его просматривать? То же самое и с Яндекс Вебмастер. Аккаунт есть, но смотреть его - если только посмеяться.
0
panfilov_dm panfilov_dm
131
13.09.2017 12:04
вот такой вот роботс нашел в сети когда то. и мне он показался максимально адекватным. может пригодится кому-то:
User-agent: *
Disallow: /
Allow: /wp-content/uploads/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /template.html
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: */comment-page*
Disallow: */replytocom=
Disallow: /author*
Disallow: */?author=*
Disallow: */tag
Disallow: /?feed=
Disallow: /?s=
Disallow: /?se=

Host:
Sitemap:
0
sansan sansan
1680
13.09.2017 12:19
В чем же адекватность, если толпу директив, типа:

Disallow: */?author=*
Disallow: /?feed=
Disallow: /?s=
Disallow: /?se=

Заменит одна:

Disallow: /*?

Это, товарыш, фигня, а не "эталон".
0
panfilov_dm panfilov_dm
131
13.09.2017 13:00
странный Вы. А если у меня есть и другие параметры, которые мне закрывать ненужно?
это ведь wp стандартные директории закрыты. и никто не объявлял этот шаблон эталонным.
Просто он довольно полезный, особенно, когда человек совсем недавно занялся работой с wp
0
sansan sansan
1680
13.09.2017 13:32
У вас нет ни одного url содержащий "?" - который вам нужен в индексе.
Если есть - пример. ОДИН.
0
Sergexpert Sergexpert
450
13.09.2017 12:46
По большому счету, роботс это: как у человека аллергия и не все лекарства подходят. Каждому свое. Для любого сайта нужно прописывать роботс в индивидуальном порядке и постепенно. А конкретно, смотреть именно что из мусора на начальных стадиях развития появляется в поиске. Искать болячки и тому подобное. При этом, желательно устранять при помощи сео плагинов, а не дериктивы писать портяночные.
0
Sergexpert Sergexpert
450
13.09.2017 12:49
Если сразу настроить к примеру YOAST, проблем не будет и в ворпрессе достаточно иметь тот роботс, который там уже стоит (стандартный). Ну правда дописать ХОСТ И КАРТУ САЙТА.
0
Sergexpert Sergexpert
450
13.09.2017 12:52
У меня к примеру на сайтах даже сео плагинов нет. А дубли закрываю тем самым clearfy
0
psyleads psyleads
112
13.09.2017 12:52
Зачем закрывать это?
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /template.html
Disallow: /wp-content/cache Это может пригодиться, так как в вебмастере google раздел заблокированные ресурсы некоторые страницы сайта требуют кэш и не могут без него нормально отображаться
Disallow: */comments комментарии это же дополнительный поисковый траффик, зачем их закрывать


Поясните пожалуйста, думаю многим будет полезно
0
sansan sansan
1680
13.09.2017 13:36
Закрыли 90% картинок, css, js
Молодца! :)

Скучно. Есть же у всех доступ в Сеть, читайте, думайте. На-фиг банальщину тащить на полном серьезе.
"Эталон"... Нет их, никогда не было и не будет.
0
psyleads psyleads
112
13.09.2017 19:06
Сан Саныч, вот в продолжение темы, Яндекс вот так сегодня вечером выпендрился: копипаст ответа
На сайте www.obzoroff.info в директиве Host файла robots.txt указан домен, где аналогичные указания в файле robots.txt отсутствуют. Чтобы указания директивы Host были учтены, идентичные директивы должны присутствовать в файлах robots.txt всех зеркал сайта.

Что ему еще не так?
0