- Регистрация
- 04.11.2010
- Сообщения
- 2 382
- Благодарностей
- 916
- Баллы
- 113
В ходе очередного вебинара Google для владельцев сайтов обсуждали, как лучше всего закрыть контент от индексации поисковой системой.
В частности, один из веб-мастеров поинтересовался у Джона Мюллера, будет ли достаточно для этой цели использовать команду disallow в файле robots.txt?
Ответ официального представителя Google оказался довольно обширным:
В частности, один из веб-мастеров поинтересовался у Джона Мюллера, будет ли достаточно для этой цели использовать команду disallow в файле robots.txt?
Ответ официального представителя Google оказался довольно обширным:
Источник: pr-cy.ru«Необходимо понимать одну простую вещь. Блокировка страниц в robots.txt не дает полной гарантии. Может случиться так, что на заблокированные таким образом страницы с других сайтов кто-то будет ссылаться. В этом случае для нас факт внешней ссылки приоритетен. Следовательно, вполне возможен вариант, когда мы, перейдя по такой ссылке, проиндексируем страницу, которую вы якобы закрыли в файле robots.txt. И если эта страница, скажем, пустая (некачественная), то это не пойдет на пользу сайту.
Учитывая сказанное, я бы рекомендовал использовать мета-тег noindex вместо команды disallow. Перейдя по внешней ссылке и обнаружив указанный тег, Google не станет индексировать ее содержимое. Страница будет навсегда исключена из поискового индекса. Пока noindex не будет отменен».