При написании новой статьи или добавлении страницы на сайте, важно знать, появились ли они в индексе поисковой системы или нет. Для этого Вам нужна проверка индексации сайта в Яндексе и Гугле. Есть различные способы проверить индекс страницы. Эти способы бывают, как ручные, так и автоматические.

Когда покупаешь ссылки на ссылочных биржах, то важно смотреть, проиндексирована ли страница, на которой планируется приобрести ссылку. Если страницы нет в индексе, то купленная ссылка не учитывается этой поисковой системой.

Если Вы приобрели ссылку в уже существующей статье, то “работать” она будет только после того как Яндекс или Гугл заново проиндексирует эту страницу.

Способы ручной проверки индексации страниц сайта

Есть различные способы проверить индексацию страниц, вот краткий список:

  • Вбить урл станицы в поисковый запрос
  • Вбить часть текста в поисковый запрос
  • Использовать расширенный поиск
  • Смотреть через панель Вебмастера
  • Вбить ссылку в addurl Яндекса
  • Вбить в поисковый запрос оператор URL или SITE

 

 Как ускорить индексацию сайта

 

  1. Регулярное написание статей. Существует такое понятие как прикормка поискового робота. Чтобы “поселить” поискового паука на своем сайте, необходимо регулярно выкладывать свежие статьи. При частом обновлении сайта “паук” будет заходить постоянно.
  2. Анонсирование своих обновленных статей в социальных сетях. Рекомендуется на своем сайте установить кнопки социальных сетей, через которые можно рассказать о статье.
  3. Внутренняя перелинковка сайта. Внутренняя перелинковка поможет вам и в продвижении сайта. Роботу намного легче найти страницу по ссылке с вашего сайта. Проверить правильность и эффективность перелинковки на Вашем сайте помогут специалисты компании SiteF1 при аудите Вашего сайта
  4. Карта сайта. Для более качественной индексации сайта, необходимо наличие двух карт: xml и html (карта для человека). XML карта добавляется в панель вебмастера и робот пройдет по ней, ссылка на которую также важно добавить в robots.txt. Карта для человека – это карта вот такого вида.
  5. Пинг сервисы. Этот пункт наименее важный, но все же полезный. Пинг сервисы – отправляет сигнал поисковым системам, что ваш блог обновился.

 

Запрет индексации страниц.

Для чего нужно запретить индексацию, ведь чем больше страниц будет в индексе, тем больше посетителей.

Дело в том, что поисковые системы не любят дубли страниц и находя дубль (по сути мы заставляем поискового робота два раза зайти на одно и тоже, а это затрата ресурса) могут понизить сайт в выдаче.

 

Как бороться с дублями страниц.

 

1. Настройка страницы robots.txt

Для запрета индексации используется функция закрытия (Disallow) страницы в файле robots.txt. Соответственно, для разрешения индексации – Allow

2. Тег rel=”cononical”, каноническая страница.

Данный тег указывает поисковому роботу, что данная страница является уникальной, а все остальные страницы с таким же содержанием дубли. Тег указывает,  какая страница является уникальной  и должна присутствовать в выдаче. Для этого прописываем на дублях страниц такой тег:

< link rel=»canonical»  href=»http://www.examplesite.ru/osnovnaya-stranica.html» >

В некоторых случаях в  robots.txt  не получается закрыть дубли, в таком случае используем данный тег.