Такой совет вебмастерам и оптимизаторам появился в официальном блоге Корпорации добра. Сообщается, что отныне при индексировании контента на страницах тех или иных сайтов GoogleBot будет отдавать предпочтение HTTPS-версиям URL-ов. Представители поискового гиганта также напомнили, что чуть более года назад Google официально начал лучше ранжировать защищенные сайты: алгоритм поисковика стал учитывать наличие HTTPS-версии страниц в качестве положительного фактора.

В блоге Google отмечается, что при обнаружении GoogleBot двух URL-адресов одной и той же страницы, но с разными протоколами (незащищённый HTTP и защищённый HTTPS), робот, как правило, выбирает для индексации URL типа HTTPS, если тот:
- Не содержит небезопасных элементов.
- Не заблокирован для сканирования в файле robots.txt.
- Не перенаправляет пользователей на незащищенную страницу HTTP.
- Не содержит ссылку с атрибутом на страницу HTTP.
- Не содержит мета-тег noindex для поисковых роботов.
- Не имеет исходящих ссылок на URL-ы с протоколом HTTP.
- В файле sitemap перечислены URL-ы типа HTTPS или не перечислены URL-ы типа HTTP.
- Сервер имеет действительный сертификат TLS.
Комментируя нововведения через свой аккаунт в Twitter , представитель Корпорации добра Джон Мюллер отметил, что переход на HTTPS требует серьезных затрат времени (иногда и денег), но именно в этом направлении сейчас развивается интернет.
Если вы уже перевели свой сайт на HTTPS, рекомендуем проверить SSL сертификат сайта в нашем бесплатном инструменте.