Сайт m4k.ru - зеркало mchk.ru - попал в индекс. Как исправить???
Что делать с зеркалом Mchk.ru? (Основной сайт - m4k.ru)
Не знаю что случилось, но после переезда основного сайта на ssl. Скорее, после неудачного переезда зеркало попало в индекс, при чем у зеркала нет своего контента, просто пустая папка на хостинге. Сейчас более 8000 страниц ведут с mchk.ru, на основной сайт m4k.ru. Что лучше сделать в данной ситуации?!
У меня только один вараинт - полностью закрыть домен mchk.ru
Хост указан
Вебмастер тоже
Мне кажется надо просто вырубить домен mchk
Не вижу другого варианта
То есть и пользователи и ПС будут "плавно" попадать на основной сайт и ПС потом склеят зеркала. А Host - это только для Яндекса и пройдет месяц, пока он склеит. Редирект поможет сохранить трафик и Гугл быстро склеит.
<IfModule mod_rewrite.c>
RewriteEngine on
RewriteCond %{REQUEST_FILENAME} robots.txt$ [NC]
RewriteRule ^([^/]+) $1 [L]
RewriteCond %{HTTP_HOST} ^(www\.)?mchk\.ru$
RewriteRule ^(.*)$ https://m4k.ru/$1 [R=301,L]
</IfModule>
(правило с исключением для роботс-тхт)
в робтс-тх на сайте mchk.ru прописать:
User-agent: Yandex
Disallow: /cgi-bin/
Host: m4k.ru
<IfModule mod_rewrite.c>
RewriteEngine on
RewriteCond %{REQUEST_FILENAME} robots.txt$ [NC]
RewriteRule ^([^/]+) $1 [L]
RewriteCond %{HTTP_HOST} ^(www\.)?mchk\.ru$
RewriteRule ^(.*)$ http://www.m4k.ru/$1 [R=301,L]
</IfModule>
User-agent: Yandex
Disallow: /cgi-bin/
Host: www.m4k.ru
1) На mchk.ru в htaccess:
<IfModule mod_rewrite.c>
RewriteEngine on
RewriteCond %{REQUEST_FILENAME} robots.txt$ [NC]
RewriteRule ^([^/]+) $1 [L]
RewriteCond %{HTTP_HOST} ^(www\.)?mchk\.ru$
RewriteRule ^(.*)$ https://www.m4k.ru/$1 [R=301,L]
</IfModule>
2) На mchk.ru в robots.txt:
User-agent: Yandex
Disallow: /cgi-bin/
Host: https://www.m4k.ru
3) На www.m4k.ru в htaccess (редирект на протокол SSL):
RewriteEngine On
RewriteCond %{HTTPS} =off
RewriteCond %{REQUEST_URI} !^/robots.txt
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [QSA,L]
4) На www.m4k.ru в robots.txt:
User-agent: Yandex
Disallow: /new1/
Disallow: /temp/
Disallow: /captcha/*
Disallow: *?searchstring*
Disallow: *&*
Host: https://www.m4k.ru
User-agent: Googlebot
Disallow: /new1/
Disallow: /temp/
Disallow: /captcha/*
Disallow: *?searchstring*
Disallow: *&*
Allow: *.css
Allow: *.js
User-agent: *
Disallow: /new1/
Disallow: /temp/
Disallow: /captcha/*
Disallow: *?searchstring*
Disallow: *&*
User-agent: Googlebot-Image
Allow: /products_pictures/
User-agent: YandexImages
Allow: /products_pictures/
Sitemap: https://www.m4k.ru/sitemap.xml.gz
-------------------------------------------------------------------
Зачем в роботс директива Allow: /
Сначала вы пишите запрещающие правила, а потом Allow: / все разрешает.
В этом плане нужно подумать, чего вы хотели этим добиться.
User-agent: Googlebot-Image
Allow: /products_pictures/
User-agent: YandexImages
Allow: /products_pictures/