Посредством Твиттера официальному спикеру «Корпорации добра» был задан следующий вопрос:
«Допустим, страница (URL-адрес) была заблокирована в файле robots.txt, а также никогда не сканировалась поисковым роботом прежде. Кроме того, на нее не указывают никакие бэклинки. В этой ситуации такая страница может попасть в поисковую выдачу Google?».
@collindaviss If there are no links, we won't find the URL, robotted or not.
— John ☆.o(≧▽≦)o.☆ (@JohnMu) 28 марта 2017 г.
Как видно по твиту, жизнерадостный Гуглмен ответил следующее:
«Если ссылок нет, то такой URL-адрес мы не найдем. Причем без разницы: запрещен он в robots.txt или нет».
Думается, что тут Джон все же немного лукавит. Американская поисковая система способна проиндексировать страницу без, казалось бы, таких необходимых ссылок. Единственное, ее нужно к этому подтолкнуть либо с помощью так называемой « аддурилки», либо в Панели веб-мастера Гугл (Google Search Console). Добавленный с помощью этих сервисов адрес страницы обычно появляется в индексе Google уже спустя несколько минут, если не раньше.
Остается неясным одно – какие именно ссылки имел в виду Джон: только внешние или внутренние тоже? Как вы считаете?