SEO Сообщество: Спрашивайте и помогайте

Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.

Q&A SEO

Немилость сайта в гугле

regpro regpro  
0
  27.07.2017 09:16       847    
Есть сайт http://prougri.ru/, не особо активно им занимаюсь. За год никак не может нормально, полностью войти в индекс гугла. Позиции вошедших в индекс страниц ближе к вылету и не растут. Никак не продвигал, статьи с составленного СЯ. Подскажите в чем может быть причина.

Ответы на пост (21) Написать ответ
termyt termyt
16
27.07.2017 09:35
Ответы уже в самом сообщении:
"не особо активно им занимаюсь"
"Никак не продвигал"

Хотите результат - работайте над сайтом.
0
regpro regpro
0
27.07.2017 09:54
Статьи написанные год назад не проиндексировались. Как я понимаю гугл не проиндексирует их, пока не начну плотно им заниматься? Странно, раз статьи есть на сайте, почему бы не проиндексировать...
Думал ошибки в самом построении сайта.
0
termyt termyt
16
27.07.2017 10:10
Забрасывайте вручную https://www.google.com/webmasters/tools/submit-url?hl=ru или с помощью соцсетей.
Влетает за 5 минут.
1
sansan sansan
1680
27.07.2017 10:45
Аппетитная темка :)
Судя по https://www.google.ru/search?q=site:prougri.ru и вашей Карте сайта - Google успешно "скушал" весь ваш неаппетитный продукт.
С чем вопрос-то? Все страницы в индекс.
//Глядючи на ваш robots.txt - я бы "забанил" ресурс со всей жесточью... Хорошо, что я не google (и даже не яндекс :))
0
Sergexpert Sergexpert
450
27.07.2017 10:58
Вот вам нормальный роботс. Этого вполне хватит

User-agent: *
Disallow: /wp-feed
Disallow: /wp-admin
Disallow: /wp-content/cache
Disallow: /feed/
Disallow: /?s=
Disallow: /?s
Disallow: /file
Disallow: */attachment/
Disallow: /wp-json/

Host: prougri.ru
Sitemap: http://prougri.ru/post-sitemap.xml
0
sansan sansan
1680
27.07.2017 11:08
Интересно, зачем:
Disallow: /?s=
Disallow: /?s

Если можно: Disallow: /*?
Поскольку все страницы с "?" - мусор. Как и с index А такие url - имеют место быть - пачками.

Впрочем... "допиливать" стоит "по месту", сверяясь с google.вебмастер и списком страниц. WP может "нагенерить" черти-чего. У каждого сайта свой "нормальный" роботс, универсальных - нет и быть не может.
0
regpro regpro
0
27.07.2017 11:24
Спасибо за советы. Понял что нужно разобраться в вопросе составления "robots.txt".
0
Sergexpert Sergexpert
450
27.07.2017 11:33
Короче сделай так для начала оставь только эти дериктивы
User-agent: *
Disallow: /wp-admin

Host: prougri.ru
Sitemap: http://prougri.ru/post-sitemap.xml

Остальное закрой плагином. Потом смотри на мусор в поиске и если плагин что то пропустит закрывай. То есть, походу подстраивайся.
0
Sergexpert Sergexpert
450
27.07.2017 11:34
Интересно, зачем: А вы хоть знаете, что обозначает звездочка и для чего она?
0
Sergexpert Sergexpert
450
27.07.2017 11:39
У Вас sansan всегда один ответ на разные вопросы это: robots.txt. Он даже тут и не причем. Сайт будет даже без него. Вполне хватает всего лишь одной дериктивы
User-agent: *
Disallow: /wp-admin

А у один диагноз, как всегда. Даже тогда, когда тут люди пишут, что позиции слетели. Там попахивает фильтром, а Вы им уши моете про роботс. Нук разве это разумно?
0
sansan sansan
1680
27.07.2017 11:53
Если на сайте будет по три дубля каждой страницы, то... robots.txt - точно не поможет?
Если cms нагенерит толпу мусора, то... robots.txt - точно не поможет?
Ну и те пе. Фигни не стоит "вещать".

Фильтра никакого нет (вот это "заява" - реальный бред).
У сайта есть недочеты в seo. Но: ничего глобально-наказуемого. Надо поправить ошибки и идти дальше.
0
Sergexpert Sergexpert
450
27.07.2017 11:41
И еще добавлю. Текстовые пост фильтры бывают разные и БАДЕН БАДЕН к ним не имеет ни какого отношения.
0
Sergexpert Sergexpert
450
27.07.2017 11:44
А Вы автор вопроса сами почитайте, что там у Вас написано Прыщи после бритья. Тут не БАДЕН БЕДЛАДЕН http://prougri.ru/pryshhi-posle-britja/ и сделайте выводы. А потом уже чешите репу, что да ка и почему.
1
sansan sansan
1680
27.07.2017 12:07
Сайт можно "оценить" по разному. Если бегло-навскидку, то (имхо):

- проверка склеек: www, index. Сайт должен быть только один (файл .htaccess)
- проверка robots.txt (сокрытие дубликатов, мусора, нужные директивы для ботов ПС и пр.)
- title и заголовки, релевантность оных.
- наличие/отсутствие мобильной версии проекта.
- скорость загрузки страниц.
- протокол https.
- уникальность контента, тошнота.
- валидность кода.
- sitemap, перелинковка.
- наличие внешних ссылок на страницах ресурса.
- интеграция с соц.сетями.
- дизайн и юзабельность.

Остальное - "от лукавого" :) Не стоит мудрить, всё - просто. Только работать, много и нудно.
(может что и забыл?.. Может.)

1
Sergexpert Sergexpert
450
27.07.2017 12:27

Добавлю!

Проверка robots.txt (сокрытие дубликатов, мусора, нужные директивы для ботов ПС и пр.) это-сразу отпадает. Современный поиск, отлично знает и выбрасывает хлам на свалку.

title и заголовки, релевантность оных. Тут достаточно пять слов в титле и разбивать их в заголовках. Тегов h хватает всего 4 штуки. Все зависит от запроса.

наличие/отсутствие мобильной версии проекта. вопрос как был спорный так и есть. Поиск выдачи от этого не изменился. Разве только у кого нет мобильной, тот теряет долю (свой кусок) потому что бабки уже ходят со смартфонами.

скорость загрузки страниц. это важно и пожалуй один из самых главных показателей.

протокол https. для магазина да. Спору нет. Визиткам и услугам он ненужен. Гугл, как всегда нагнал жуть.


уникальность контента, тошнота. первое обязательно, второе нежелательно. Если писать и соблюдать тошноту, текст будет не для людей. Это по прежнему многие не могут забыть пяти летнею давность.

валидность кода. обязательно.

sitemap, перелинковка. карта сайта это одно, а перелиновка дело тонкое и совсем уже другое.

наличие внешних ссылок на страницах ресурса. если только на авторитетный ресурс и ближе к своей темы.

интеграция с соц.сетями. необязательно. Достаточно грамотно разлиновать, и наполнить контентом. все это бред с 10-11-12-13 года.

дизайн и юзабельность. комфотабельность и красота всегда в цене.
0
Jullian Jullian
107
27.07.2017 14:48
Sergexpert, есть такой параметр, как мобайлфрендли. Он, кстати, очень влияет на выдачу. И дело не в доле рынка. Гугл пессимизирует сайты без мобильной версии или адаптивного дизайна!
0
regpro regpro
0
27.07.2017 12:33
Сайт первый, на нем и учусь :)
Да, с текстами нужно много работать, ключи вбиты очень часто и неуместно, заказывал.
Тайтлы обычно из самых частотных с СЯ
Кстати о мобильной версии, реализовано через плагин, многие тестеры видят его нормально, как и сам на своих гаджетах. Сегодня заметил что гугл видит его иначе.
Сейчас основное выделил:
1) Контент либо исправить, либо переписать. Переписывать буду в тех статьях, которые уже в топ 10 яндекса. Полностью переписывать.
2) Разобраться с роботс.тхт. Тут я пока совсем не разбираюсь.
3) Разобраться почему гугл не видит мобильную версию
0
Jullian Jullian
107
27.07.2017 14:50
А зачем переписывать контент статьях из топ 10? Их наоборот нельзя трогать, иначе уйдут из топа при очередном апдейте.
0
Jullian Jullian
107
27.07.2017 14:53
Робот и наказать может за подложный контент. Так черные оптимизаторы поступают. Продвигают страницу с контентом-А, а затем, попав в топ, меняют текст на контент-Б. А потом бабац - и бан. Но это уже частности.
0
regpro regpro
0
27.07.2017 15:04
Даже если грозит ББ не менять текст в топ 10?
0
regpro regpro
0
27.07.2017 12:37
так же подчищаю переспам из-за неадекватных альтов и тайтлов картинок, ужимаю тяжелые картинки, вот доработку css придется заказывать. А может и в целом редизайн и верстка. Шапку я в пеинте (rip) сделал на скорую руку)
0