Как отправить страницу на индексацию в яндексе. Поисковый индекс. Можно ли ускорить индексацию

Привет, Друзья! Очень часто вы задаёте мне следующие вопросы: - «почему мой сайт долго индексируется», «как часто яндекс индексирует сайты», «могут ли мой контент украсть до индексации и обвинить меня в воровстве», как ускорить индексацию сайта яндексом» и так далее. Ответов на почту всем интересующимся я послал более 50 и решил упростить свой труд и ответить на вышеописанные вопросы в этой статье, так сказать убить двух зайцев с одного выстрела))) Итак, начинаем охоту!

Давайте сначала разберем два понятия, индексация и апдейт. Постараюсь кратко написать, что они из себя представляют и с чем их едят.

Индексация сайта - это обработка сайта , то есть программами, сканирующими сайт и заполняющими базы данных поисковиков результатами для поисковых запросов. Если индексация выполнена верно, то пользователь легко найдет нужные страницы сайта. В противном случае веб-ресурс не будет отображаться в поисковых системах, проще говоря, его не увидят пользователи и не приобретут товар, не воспользуются услугой и так далее.

Термин «апдейт » происходит от английского слова – update, что в переводе означает – обновление. Среди специалистов, занимающихся , он используется часто и дословно означает «обновление данных». Разновидностями такого обновления будет доработка интерфейсной части сайта или внесение изменений на конкретной странице. В среде специалистов используется также сокращенная форма слова – «ап».

Появление новых результатов поиска, после запроса по одной и той же ключевой фразе в поисковике, например, Google или Яндекс – вот что такое «апдейт» применительно к . У поисковых движков есть , в которых все страницы расположены по порядку. Апдейт приводит к изменению позиций уже существующих записей веб-ресурсов или добавлению новых в ответах на пользовательские запросы. Связанный с апдейтом процесс, приводит к обновлению кэша поисковой машины и индексации сайтов в ее базе данных.

Более подробно об этих двух понятиях можете прочитать на страницах моего сайта, вот ссылки на то - что такое и что такое .

Ну думаю с этим разобрались, теперь переходим к вашим вопросам.

Почему мой сайт долго индексируется

Здесь всё зависит, как раз от поискового робота. Именно он заходит на сайты по определённому графику, известному только в компании Яндекс и сканирует миллионы WEB проектов на наличие обновлений. К примеру, если контент (статьи, фотографии, видео, карточки товаров) на своем сайте вы добавляете или меняете раз в месяц, то робот рано или поздно это поймёт и будет заходить на ваш ресурс лишь раз в месяц. Отсюда и срок индексации сайта будет такой же.

Чем чаще вы добавляете контент, тем чаще робот будет к вам приходить на сайт. На новостных ресурсах, таких как Фонтанка.ру или RBK роботы просто «живут» и не выходят от туда. Новости на таких сайтах обновляются и добавляются в день десятками, а то и сотнями и поисковые боты их скандируют и индексируют практически мгновенно.

Могут ли украсть контент до индексации сайта

Да могут! И именно так это и делается. Пока сайт молодой и только начинает свой жизненный путь, он индексируется раз в месяц, а то и два. Весь контент, который публикуется на таком сайте, может быть украден, как в ручную, так и автоматически (что бывает чаще) , работающими в самонаполняющихся сайтах. Большинство моих учеников очень удивляется, когда я анализирую их сайт и выявляю не уникальный контент.

Последний мой ученик, опубликовал на своём молодом сайте сразу 15 статей и через месяц был очень удивлён, тому что Яндекс обвинил его в копипасте и наложил на сайт фильтр. Доказать Яндексу (Платону Щукину), что это не он вор, а наоборот у него статьи украли, не получилось. Сделать это теперь очень проблематично и к тому же, чтобы вытащить сайт из под фильтра, придётся все эти статьи удалять и писать новые. Результат от незнания и неправильных действий - потеря денег, потеря контента и попадание под фильтр.

Как обезопасить свой контент от воровства можете прочитать , либо посмотреть моё видео, если лень читать))) Подробно об этом писать здесь не буду.

Как защитить контент от воровства

Теперь поговорим о том, как ускорить процесс индексации.

Как ускорить процесс индексации

Для того чтобы индексация вашего сайта и вновь добавленного контента прошла быстрее, нужно «попросить» яндекс-бота посетить ваш сайт. Делаю я это просто и несколькими способами.

Первый способ ускорения индексации сайта

Я привлекаю на свой сайт робота, методом расшаривания постов опубликованных статей через социальные сети. Делаю я это с помощью блока кнопок социальных сетей. Как только пост опубликован его видят роботы, так как в социальных сетях они живут постоянно и не выходят от туда, как и с новостных лент.

Публикация статей в социальные сети передаёт на сайт соц-сигналы и помимо ускорения индексации пладотворно влияет на продвижение сайта в Google и Яндекс. Напомню, перед расшариванием текстов, обязательно дайте понять Яндексу, что они ваши (смотри видео выше).

Второй способ ускорения индексации сайта

Здесь мы информируем Яндекс-Бота о том, что на нашем сайте появился новый контент, через Яндекс Веб мастер, раздел которого в простонародии называется Адурилкой.

Заходим в Яндекс Вебмастер, регистрируемся, добавляем свой сайт и переходим на вкладку индексирование - переобход страниц. Затем копируем URL той страницы, которую хотите быстро проиндексировать и добавляете в графу, как на картинке ниже и нажимаете кнопку отправить.

После этого ждём обхода робота. Добавление новых URL адресов в адурилку существенно ускоряет процесс индексации, а когда вы работаете в связке с сервисом , то ещё и полностью исключаете воровство вашего контента. Все на самом деле очень просто, если всё это знать.

Также просто и продвигать сайты в Яндекс. Делать это можно самостоятельно и абсолютно бесплатно, но опять же нужны знания. Если хотите, могу научить и этому (информация ниже).

Обучение продвижению сайтов

На этом сегодня всё, всем удачи и до новых встреч!

Что такое индексирование? Это процесс получения роботом содержимого страниц вашего сайта и включение этого содержимого в результаты поиска. Если обратиться к цифрам, то в базе индексирующего робота содержится триллионы адресов страниц сайта. Ежедневно робот запрашивает миллиарды таких адресов.

Но этот весь большой процесс индексирования Интернета можно разделить на небольшие этапы:


Во-первых, индексирующий робот должен узнать о появлении страницы вашего сайта. Например, проиндексировав другие страницы в Интернете, найдя ссылки, либо загрузив файл set nemp. О страничке мы узнали, после чего планируем обход этой страницы, отправляем данные к вашему серверу на запрос этой страницы сайта, получаем контент и включаем его в результаты поиска.

Этот весь процесс – это процесс обмена индексирующим роботом с вашим сайтом. Если запросы, которые посылает индексирующий робот, практически не меняются, а меняется только адрес страницы, то ответ вашего сервера на запрос страницы роботом зависит от многих факторов:

  • от настроек вашей CMS;
  • от настроек хостинг провайдера;
  • от работы промежуточного провайдера.

Этот ответ как раз меняется. Прежде всего при запросе страницы робот от вашего сайта получает такой служебный ответ:


Это HTTP заголовки. В них содержится различная служебная информация, которая дает роботу понять передача какого контента сейчас будет происходить.

Мне хочется остановиться на первом заголовке – это HTTP-код ответа, который указывает индексирующему роботу на статус страницы, которую запросил робот.

Таких статусов HTTP-кодов несколько десятков:


Я расскажу о самых популярных. Наиболее распространенный код ответа – это HTTP-200. Страница доступна, ее можно индексировать, включать в результаты поиска, все отлично.

Противоположность этого статуса – это HTTP-404. Страница отсутствует на сайте, индексировать нечего, включать в поиск тоже нечего. При смене структуры сайтов и смене адресов внутренних страниц мы советуем настраивать 301 сервер на редирект. Как раз он укажет роботу на то, что старая страница переехала на новый адрес и необходимо включать в поисковую выдачу именно новый адрес.

Если контент страницы не менялся с последнего посещения страницы роботом, лучше всего возвращать код HTTP-304. Робот поймет, что обновлять в результатах поиска страницы не нужно и передача контента тоже не будет происходить.

При кратковременной доступности вашего сайта, например, при проведении каких-либо работ на сервере, лучше всего настраивать HTTP-503. Он укажет роботу на то, что сейчас сайт и сервер недоступны, нужно зайти немножко попозже. При кратковременной недоступности это позволит предотвратить исключение страниц из поисковой выдачи.

Помимо этих HTTP-кодов, статусов страниц, необходимо еще получить непосредственно контент самой страницы. Если для обычного посетителя страница выглядит следующим образом:


это картиночки, текст, навигация, все очень красиво, то для индексирующего робота любая страница – это просто набор исходного кода, HTML-кода:


Различные метатеги, текстовое содержимое, ссылки, скрипты, куча всякой информации. Робот собирает ее и включает в поисковую выдачу. Кажется, все просто, запросили страницу – получили статус, получили содержимое, включили в поиск.

Но недаром в службу поискового сервиса в Яндексе приходит более 500 писем от вебмастеров и владельцев сайтов о том, что возникли определенные проблемы как раз с ответом сервера.

Все эти проблемы можно разделить на две части:

Это проблемы с HTTP-кодом ответа и проблемы с HTML-кодом, с непосредственным содержимым страниц. Причин возникновения этих проблем может быть огромное множество. Самая распространенная – это блокировка индексирующего робота хостинг-провайдером.


Например, вы запустили сайт, добавили новый раздел. Робот начинает посещать ваш сайт чаще, увеличивает нагрузку на сервер. Хостинг-провайдер видит это на своих мониторингах, блокирует индексирующего робота, и поэтому робот не может получить доступ к вашему сайту. Вы заходите на ваш ресурс – все отлично, все работает, странички красивенькие, все открывается, все супер, робот при этом проиндексировать сайт не может. При временной недоступности сайта, например, если забыли оплатить доменное имя, сайт отключен на несколько дней. Робот приходит на сайт, он недоступен, при таких условиях он может пропасть из поисковой выдачи буквально через некоторое время.

Некорректные настройки CMS, например, при обновлении или переходе на другую CMS, при обновлении дизайна, так же могут послужить причиной того, что страницы вашего сайта могут пропасть из выдачи при некорректных настройках. Например, наличие запрещающего метатега в исходном коде страниц сайта, некорректная настройка атрибута canonical. Проверяйте, что после всех изменений, которые вы вносите на сайт, страницы доступны для робота.

В этом вам поможет инструмент в Яндекс. Вебмастере по проверке ответа сервера:


Можно посмотреть какие HTTP заголовки возвращает ваш сервер роботу, непосредственно содержимое страниц.


В разделе «индексирование» собрана статистика, где вы можете посмотреть какие страницы исключены, динамику изменения этих показателей, сделать различную сортировку и фильтрацию.


Так же, уже сегодня говорил об этом разделе, раздел «диагностика сайта». В случае, если ваш сайт стал недоступен для робота, вы получите соответствующее уведомление и рекомендации. Каким образом это можно исправить? Если таких проблем не возникло, сайт доступен, отвечает кодам-200, содержит корректный контент, то робот начинает в автоматическом режиме посещать все страницы, которые он узнает. Не всегда это приводит к нужным последствиям, поэтому деятельность робота можно определенным образом ограничить. Для этого существует файл robots.txt. О нем мы и поговорим в следующем разделе.

Robots.txt

Сам по себе файлик robots.txt – это небольшой текстовый документ, лежит он в корневой папке сайта и содержит строгие правила для индексирующего робота, которые нужно выполнять при обходе сайта. Преимущества файла robots.txt заключаются в том, что для его использования не нужно особых и специальных знаний.

Достаточно открыть Блокнот, ввести определенные правила по формату, а затем просто сохранить файл на сервере. В течении суток робот начинает использовать эти правила.

Если взять пример файла robots.txt простенького, вот он, как раз на следующем слайде:


Директива User-Agent:” показывает для каких роботов предназначается правило, разрешающие\запрещающие директивы и вспомогательные директивы Sitemap и Host. Немножко теории, хочется перейти к практике.

Несколько месяцев назад мне захотелось купить шагометр, поэтому я обратился к Яндекс. Маркету за помощью с выбором. Перешел с главной страницы Яндекс на Яндекс. Маркет и попал на главную страницу сервиса.


Внизу вы видите адрес страницы, на которую я перешел. К адресу самого сервиса еще добавился идентификатор меня, как пользователя на сайте.

Потом я перешел в раздел «каталог»


Выбрал нужный подраздел и настроил параметры сортировки, цену, фильтр, как сортировать, производителя.

Получил список товаров, и адрес страницы уже разросся.

Зашел на нужный товар, нажал на кнопочку «добавить в корзину» и продолжил оформление.

За время моего небольшого путешествия адреса страниц менялись определенным образом.


К ним добавлялись служебные параметры, которые идентифицировали меня, как пользователя, настраивали сортировку, указывали владельцу сайта откуда я перешел на ту или иную страницу сайта.

Такие страницы, служебные страницы, я думаю, что не очень будут интересны пользователям поисковой системы. Но если они будут доступны для индексирующего робота, в поиск они могут попасть, поскольку робот себя ведет, по сути, как пользователь.

Он переходит на одну страничку, видит ссылочку, на которую можно кликнуть, переходит на нее, загружает данные в базу робота свою и продолжает такой обход всего сайта. В эту же категорию таких адресов можно отнести и личные данные пользователей, например, такие, как информация о доставке, либо контактные данные пользователей.

Естественно, их лучше запрещать. Как раз для этого и поможет вам файл robots.txt. Вы можете сегодня вечером по окончанию Вебмастерской прийти на свой сайт, покликать, посмотреть какие страницы действительно доступны.

Для того, чтобы проверить robots.txt существует специальный инструмент в Вебмастере:


Можно загрузить, ввести адреса страниц, посмотреть доступны они для робота или нет.


Внести какие-то изменения, посмотреть, как отреагирует робот на эти изменения.

Ошибки при работе с robots.txt

Помимо такого положительного влияния – закрытие служебных страниц, robots.txt при неправильном обращении может сыграть злую шутку.

Во-первых, самая распространенная проблема при использовании robots.txt – это закрытие действительно нужных страниц сайта, те, которые должны находиться в поиске и показываться по запросам. Прежде чем вы вносите изменения в robots.txt, обязательно проверьте не участвует ли страница, которую вы хотите закрыть, не показывается ли по запросам в поиске. Возможно страница с каким-то параметрами находится в выдаче и к ней приходят посетители из поиска. Поэтому обязательно проверьте перед использованием и внесением изменений в robots.txt.

Во-вторых, если на вашем сайте используются кириллические адреса, в robots.txt их указать не получится в прямом виде, их обязательно нужно кодировать. Поскольку robots.txt является международным стандартным, им следуют все индексирующие роботы, их обязательно нужно будет закодировать. Кириллицу в явном виде указать не получится.

Третья по популярности проблема – это различные правила для разных роботов разных поисковых систем. Для одного индексирующего робота закрыли все индексирующие страницы, для второго не закрыли совсем ничего. В результате этого у вас в одной поисковой системе все хорошо, в поиске нужная страница, а в другой поисковой системе может быть трэш, различные мусорные страницы, еще что-то. Обязательно следите, если вы устанавливаете запрет, его нужно делать для всех индексирующих роботов.

Четвертая по популярности проблема – это использование директивы Crawl-delay, когда в этом нет необходимости. Данная директива позволяет повлиять на чистоту запросов со стороны индексирующего робота. Это практический пример, маленький сайт, разместили его на небольшом хостинге, все прекрасно. Добавили большой каталог, робот пришел, увидел кучу новых страниц, начинает чаще обращаться на сайт, увеличивает нагрузку, скачивает это и сайт становится недоступным. Устанавливаем директиву Crawl-delay, робот видит это, снижает нагрузку, все отлично, сайт работает, все прекрасно индексируется, находится в выдаче. Спустя какое-то время сайт разрастается еще больше, переносится на новый хостинг, который готов справляться с этими запросами, с большим количеством запросов, а директиву Crawl-delay забывают убрать. В результате чего робот понимает, что на вашем сайте появилось очень много страниц, но не может их проиндексировать просто из-за установленной директивы. Если вы когда-либо использовали директиву Crawl-delay, проверьте, что сейчас ее нет и что ваш сервис готов справиться с нагрузкой от индексирующего робота.


Помимо описанной функциональности файл robots.txt позволяет еще решить две очень важные задачи – избавиться от дублей на сайте и указать адрес главного зеркала. Об этом как раз мы и поговорим в следующем разделе.

Дубли


Под дублями мы понимаем несколько страниц одного и того же сайта, которые содержат абсолютно идентичный контент. Самый распространенный пример – это страницы со слешом и без слеша в конце адреса. Так же под дублем можно понимать один и тот же товар в различных категориях.

Например, роликовые коньки могут быть для девочек, для мальчиков, одна и та же модель может находиться в двух разделах одновременно. И, в-третьих, это страницы с незначащим параметром. Как в примере с Яндекс. Маркетом эта страничка «идентификатор сессии», такой параметр не меняет контент страницы в принципе.

Чтобы обнаружить дубли, посмотреть к каким страницам робот обращается, вы можете использовать Яндекс. Вебмастер.


Помимо статистики есть еще и адреса страниц, которые робот загрузил. Вы видите код и последнее обращение.

Неприятности, к которым приводят дубли

Чем же плохи дубли?

Во-первых, робот начинает обращаться к абсолютно идентичным страницам сайта, что создает дополнительную нагрузку не только на ваш сервер, но и влияет на обход сайта в целом. Робот начинает уделять внимание дублирующим страницам, а не тем страницам, которые нужно индексировать и включать в поисковую выдачу.


Вторая проблема – это то, что дублирующие страницы, если они доступны для робота, могут попасть в результаты поиска и конкурировать с основными страницами по запросам, что, естественно, может негативно повлиять на нахождение сайта по тем или иным запросам.

Как можно бороться с дублями?

Прежде всего я советую использовать “canonical” тег для того, чтобы указать роботу на главную, каноническую страницу, которая должна индексироваться и находиться в поиске по запросам.

Во втором случае можно использовать 301 серверный редирект, например, для ситуаций со слешом на конце адреса и без слеша. Установили перенаправление – дублей нет.


И в-третьем, как я уже говорил, это файл robots.txt. Можно использовать как запрещающие директивы, так и директиву Clean-param для того, чтобы избавиться от незначащих параметров.

Зеркала сайта

Вторая задача, которую позволяет решить robots.txt – это указать роботу на адрес главного зеркала.


Зеркала – это группа сайтов, которые абсолютно идентичны, как дубли, только различные два сайта. Вебмастера обычно с зеркалами сталкиваются в двух случаях – когда хотят переехать на новый домен, либо, когда для пользователя нужно сделать несколько адресов сайта доступными.

Например, вы знаете, что пользователи, когда набирают ваш адрес, адрес вашего сайта в адресной строке, часто делают одну и ту же ошибку – опечатываются, не тот символ ставят или еще что-то. Можно приобрести дополнительный домен для того, чтобы пользователям показывать не заглушку от хостинг-провайдера, а показывать тот сайт, на который они действительно хотели перейти.

Остановимся на первом пункте, потому что именно с ним чаще всего и возникают проблемы в работе с зеркалами.

Весь процесс переезда я советую осуществлять по следующей инструкции. Небольшая инструкция, которая позволит вам избежать различных проблем при переезде на новое доменное имя:

Во-первых, вам необходимо сделать сайты доступными для индексирующего робота и разместить на них абсолютно идентичный контент. Так же убедитесь, что о существовании сайтов роботу известно. Проще всего добавить их в Яндекс. Вебмастер и подтвердить на них права.

Во-вторых, с помощью директивы Host указывайте роботу на адрес главного зеркала – тот, который должен индексироваться и находиться в результатах поиска.

Ждем склейки и переноса всех показателей со старого сайта на новый.


После чего уже можно установить перенаправление со старого адреса на новый. Простенькая инструкция, если вы переезжаете, обязательно используйте ее. Надеюсь, проблем не возникнет с
переездом.

Но, естественно, при работе с зеркалами возникают ошибки.

Прежде всего самая главная проблема – это отсутствие явных указаний для индексирующего робота на адрес главного зеркала, тот адрес, который должен находиться в поиске. Проверьте на ваших сайтах, что в robots.txt у них указана директива хоста, и она ведет именно на тот адрес, который вы хотите видеть в поиске.

Вторая по популярности проблема – это использование перенаправления для того, чтобы сменить главного зеркала в уже имеющейся группе зеркал. Что происходит? Старый адрес, поскольку осуществляет перенаправление, роботом не индексируется, исключается из поисковой выдачи. При этом новый сайт в поиск не попадает, поскольку является неглавным зеркалом. Вы теряете трафик, теряете посетителей, я думаю, что это никому не нужно.


И третья проблема – это недоступность одного из зеркал при переезде. Самый распространенный пример в этой ситуации, когда скопировали контент сайта на новый адрес, а старый адрес просто отключили, не оплатили доменное имя и он стал недоступен. Естественно такие сайты склеены не будут, они обязательно должны быть доступны для индексирующего робота.

Полезные ссылки в работе:

  • Больше полезной информации вы найдете в сервисе Яндекс.Помощь .
  • Все инструменты, о которых я говорил и даже больше – есть бета-версия Яндекс.Вебмастера .

Ответы на вопросы

«Спасибо за доклад. Нужно ли в robots.txt закрывать индексацию CSS-файлов для робота или нет?».

На текущий момент мы не рекомендуем закрывать их. Да, CSS, JavaScript лучше оставить, потому что сейчас, мы работаем над тем, чтобы индексирующий робот начал распознавать и скрипты на вашем сайте, и стили, видеть, как посетитель из обычного браузера.

«Подскажите, а если url’ы адресов сайта будут одинаковые, у старого и у нового – это нормально?».

Да, ничего страшного. По сути, у вас просто обновление дизайна, добавление какого-то контента.

«На сайте есть категория и она состоит из нескольких страниц: слеш, page1, page2, до 10-ти, допустим. На всех страницах один текст категории, и он, получается, дублирующий. Будет ли этот текст являться дубликатом или нужно его как-то закрывать, новый индекс на вторых и далее страницах?».

Прежде всего, поскольку на первой странице пагинации, а на второй странице контент, в целом-то, отличаются, они дублями не будут. Но нужно рассчитывать, что вторая, третья и дальше страницы пагинации могут попасть в поиск и показывать по какому-либо релевантному запросу. Лучше в страницах пагинации я бы рекомендовал использовать атрибут canonical, в самом лучшем случае – на странице, на которой собраны все товары для того, чтобы робот не включал страницы пагинации в поиске. Люди очень часто используют canonical на первую страницу пагинации. Робот приходит на вторую страницу, видит товар, видит текст, страницы в поиск не включает и понимает за счет атрибута, что надо включать в поисковую выдачу именно первую страницу пагинации. Используйте canonical, а сам текст закрывать, думаю, что не нужно.

Источник (видео): Как настроить индексирование сайта - Александр Смирнов

Магомед Чербижев

? Если вы попали на эту страницу, то наверняка вас не радует то, что поисковые системы, так медленно и неохотно индексируют ваш сайт и вам бы хотелось, чтобы ваши статьи влетали в индекс с такой скоростью, чтобы сразу видеть результат свой кропотливой работы. Все же не очень на душе приятно, когда пишешь километровую статью, а потом неделями ждешь, когда там Яндекс приползет и занесет ее в свою поисковую базу, чтобы ее потом можно было найти в поисковике.

Итак, в этой статье вы узнаете 24 способа, как загнать вашу сайт, статью, страницу в индекс, да так чтобы на утро она уже была, как в Яндексе так и в Google. Хотя, что я тут мелочусь: если вы используете все 24 способа, то ваш сайт со всеми страницами уже через час будет в индексе.

1 ) Первое, что нужно сделать, так это зарегистрироваться в обеих панелях для вебмастеров Яндекса и Google , и добавить туда ваш сайт.

2 ) Ок, перед тем, как пытаться скормить наш сайт поисковикам нам надо сделать для них специальную карту для поисковых ботов под названием . Как сделайте карту сразу же ее на свои хостинг в корень сайта, и установите на нее права 777. Потом вам нужно этот же файл занести в обе панели для вебмастеров Яндекса и Google. Вы сейчас думайте, наверное, а что это вообще за карта такая и зачем она вообще нужна? Ну, вообще-то это простой блокнот, в котором прописано, какие страницы вашего сайта можно индексировать, а какие нельзя. Без этого файлика Яндекс возможно вообще никогда не узнает о существовании вашего сайта, так что без него никуда.

3 ) Нужно сделать карту сайта Sitemap.xml и также закачать ее на свои , и в панели для вебмастеров. Карта сайта в отличие, от карты для поисковиков ботов — это просто список всех ваших страниц и статьей на сайте, блоге. Данную карту вы можете сделать на этом или использовать плагин для движка WordPress под названием .

4 ) Чтобы ускорить индексацию сайта нужно, чтобы его структура была правильной. Что это вообще значит? Да все просто: у каждой страницы есть свой уровень вложения. Смотрите сколько вам нужно раз кликнуть на моем сайте, чтобы добраться до этой статьи. Первый клик будет на «все статьи», второй клик на название статьи. То есть, как мы видим мы сделали 2 клика, а это значит, что моя статья имеет 2 уровень вложения. Так вот неправильная структура сайта — это, когда до вашей статьи или страницы нужно кликнуть больше 3 раз. Запомните, что статьи не должны быть четвертого, там пятого уровня вложенности, надеюсь, с этим все понятно.

5 ) Добавляем новый сайт или статью в адулировку. Это делается в той же панели вебмастеров, для Яндекс . Просто вставляем адрес нашей статьи, заполняем капчу (буквы, цифры от спама) и нажимаем «добавить». Таким способом вы сообщите Яндексу, что у вас появилось новый контент (статьи), и через некоторое время поисковые роботы придут на ваш сайт в порядке очереди.

6 ) Всегда делаем . Перелинковка - это просто поставленная ссылка с вашей статьи, которую вы написали на другую. Правильная перелинковка выглядит так: 1 ссылка на главную страницу сайта и от 3 ссылок на внутренние статьи сайта. В итоге в каждой нашей статье должно быть не меньше 4 ссылок на другие статьи, но этим способом можно и не пользоваться на начальном этапе, когда у вас появился только новый сайт, и на нем еще нет куча статей.

7 ) Добавляйте новые статьи на сайт как можно чаще! Хочу, подметит, что это очень важный пункт для тормознутого Яндекса, так как если вы будете писать одну статью раз в месяц, то вам все из приведенного списка мало что поможет ускорить индексацию сайта. Рекомендую писать и публиковать новые статьи не реже чем через 2-3 дня, но в идеале 1 день. Также желательно публиковать новый материал не только в одни день, но и в одно и то же время. Это дает просто мега результат, статья влетает в индексе меньше чем за час.

Кстати, если вы перестанете регулярно обновлять ваш сайт, то вскоре поисковики станут вам редко заглядывать, помните это! Чтобы ускорить индексацию сайта рекомендую писать статьи не меньше 2000 символов, так как есть слух, что Яндекс как-то не очень относится к таким сайтам, где статья меньше 2000 символов. Если вы напишите меньше, например 500, то она тоже проиндексируется, но продвигать такую статью будет очень проблематично.

8 ) Пишите только уникальные статьи с уникальностью не меньше 90%. Это я к тому, что не надо копировать чужие уже проиндексированные статьи себе на сайт. Такими делами вы не то, что поможете своему сайту, а наоборот грохните его да так, что потом придется новый создавать. Когда будете новый материал всегда проверяйте его на уникальность . Очень часто пользуюсь этим сервисом, на мой взгляд, самый лучший из всех, которые есть по проверки уникальности.

9 ) Убирайте мусорные страницы. Это такие страницы, на которых ничего нету по сути, ну или есть картинка там, например и все. Помните мы говорили с вами про файл robots.txt. Так вот чтобы все мусорные страницы убрать такие, как галерея картинок, адрес вход на сайт, другие файлы, которые не являются страницами сайта нужно в robots.txt запретить их индексировать.

Как ускорить индексацию сайта в Яндексе с помощью сторонних сервисов?

10 ) Делайте постинг (короткий обзор статьи) анонсов новых статей в социальные закладки. Это способ один из самых лучших в плане Google, но, увы, не в плане Яндекса. Все просто вам нужно сделать постинг (короткий обзор статьи), как можно больше число социальных закладок таких как: ВКонтакте, Одноклассники, Твиттер, Фейсбук. Для этого я пользуюсь платной программой «Жукладочник», но вы можете использовать этот сервис который так, же вам бесплатно прогонит статью по нескольким закладкам.

11 ) Сделать RSS-трансляцию с сайта. RSS — это современная технология, позволяющая публиковать и транслировать практически любой материал с любого сайта. Данный способ, так же хорошо помогает ускорить индексацию сайта, как и социальные закладки.

12 ) Делайте постинг в блоги на платформах таких как: Livejournal.com, blogspot.com и другие. Также заметьте, что не обязательно мучиться, вставляя ссылку каждый раз самому с сайта в блоги, все это может за вас сделать плагин для WordPress LiveJournal Crossposter. При публикациях статьей они сразу же будут транслироваться в несколько социальных блогов.

13 ) Пользуйтесь сервисами вопрос-ответ Mail и Google. Просто заходим на mail и ищем человека, который ищет ответ на свой вопрос или информацию, о которой вы написали в вашей новой статье. Затем надо просто кратко написать ему в комментариях со ссылкой, то что вы уже все это подробно написал в своей статье.

14 ) Комментируйте сайты вашей тематики. Тут я хочу подметить, что необязательно комментировать 101 сайт. Все просто — ищем сайт, на котором есть быстрая обновляемость статьями. Если сайт, например, публикует одну статью в день, то это, то, что нужно. Теперь надо зайти на любую статью, прочитать ее и оставить осмысленный комментарий, а не типа что-то этого: спасибо за статью все мега-пупер, классная статья спасибо, большое спасибо за статью. Такие комментарии большинство удаляют чем оставляют.

15 ) Регистрируемся на my.ya.ru и заводим дневник. А вот эта вещь очень даже неплохо действует на Яндекс в ускорении индексации. Если оставить запись в своем дневнике на статью, то Яшка намного быстрее придет, замечено не только мной, но и многими другими вебмастерами (увы сайт больше не работает).

16 ) Регистрируемся в популярных рейтингах, такихкак: Рамблер ТОП100 , Рейтинг@Майл , LiveInternet . На этих сайтах просто живут поисковые роботы особенно рамблера и майла.

18 ) Купите с главной страницы популярного сайта вашей тематики, который постоянно обновляется! Если вы купите такую ссылку, то поисковой бот будет вам чаще заходить даже через не хочу. Внимание прокатывает с Google, с Яндексом слабовато.

19 ) Купите несколько . Это очень дешево, одна ссылка вам с хорошего сайта будет стоить всего 3 рублей за целых 30 дней. Когда купите, потом прогоните купленные ссылки по социальным закладкам. Этот метод применяют в крайних случаях, когда не знают, что делать.

20 ) Размещайте анонсы и пресс-релизы. Тут все просто — ищем сайты, на которых можно бесплатно оставить пресс-релиз (статью со ссылкой). Тут только один минус — статья должна быть уникальной, но большой плюс в том, что можно проставить до 3 ссылок в статье.

21 ) Зарегистрируйтесь на Subscribe.ru и ведите свою рассылку. В настройках рассылки можно вставить свою ссылку на сайт. Когда вы будете высылать новое письмо, поисковые роботы заметят это, что в свою очередь поможет ускорить индексацию сайта.

22 ) Проверяйте ответ от сервиса Яндекса. Бывают случай, что статья ну никак не хочет залезать в индекс Яшки, тогда идем в панель вебмастера Яндекс, переходим проверить ответ сервиса . Добавляем адрес страницы, статьи и жмем «проверить». Яндекс выдаст нам техническую информацию по данной странице. Данную операцию проделываем 7 раз, каждый раз меняя робота Яндекса на другого. Например, с основного робота на робота картинок.

23 ) Накапливайте ссылочную массу сайта. Когда у вас будет 1000 ссылок ведущих на ваш сайт можно больше не задумываться, как ускорить индексацию сайта — она всегда будет быстрой.

24 ) Используйте . Он поможет вам прогнать сотни ваших ссылок по многим RSS-лентам. Это очень удобно, например, когда вы ведете сразу несколько сайтов и вам некогда ждать, когда они проиндексируются. Кстати, этот же сервис можно использовать и для прогона своих доноров, на которых была куплена ссылка, чтобы она быстрее попала в индекс. (увы сайт переехал, так что ждем обновления).

Вот, по сути, и все способы, хотя я пользуюсь не всеми ими, а только 1-10,15,17,22,24 способами. А теперь давайте потолкуем, зачем собственно это ускоренная индексация нужна вообще?


Зачем нужно ускорять индексацию сайта?

Ну, первый и самый главный и важный пункт это за тем, чтобы не украли ваши статьи. Представьте, написали вы статью огромную, убили на нее весь день как я на эту, а какой-то не совсем добрый и вменяемый человек взял да и опубликовал вашу статью у себя. Так вот в чем беда, если у него ваша статья проиндексируется быстрее это будет значить, что Яндекс и Google будут считать его первоисточником и автором данной статьи, и вы ничего тут уже не докажете, в службу поддержки бесполезно писать, до вас и так там тысяча тысяч людей обращались.

Но это также может случиться совершенно случайно без всякого злого умысла со стороны. Мало кто знаете, что такое: поисковое продвижение, SEO, копипаст (не уникальный текст) и т. д. И вот представьте, что просто пришел человек из поиска, и ему очень понравилась ваша статья, поэтому он взял да и опубликовал ее в своем блоге ЖЖ. Смешно конечно, но он-то откуда знали, что так делать нельзя?

У меня даже был случай забавный. Как-то заказывал статью на фрилансе, потом через время проверил ее на уникальность, нашел копию, написал владельцу сайта с горячими и нежными словами, в ответ тоже получил кучу нежных слов только еще нежнее, в итоге выяснилось, что тот фрилансер продал ему статью, которую писал для меня. Потом владелец сайта убрал статью, так как видел, что она у меня раньше опубликована, хотя дату вообще можно любую ставить. Вот такая короче история.

Вторая причина это если вы продаете ссылки с сайта. Это очень важно, если у вас слабая индексация у вас никто не будет покупать ссылки, если даже у вас ИКС 200 и вы продаете ссылку по 100 руб, что очень дешево. Согласитесь, кто захочет выбрасывать деньги на ветер, когда можно купить с такими же параметрами только с 100% индексацией ссылку на свой сайт. Вот поэтому индексация так важна.

На этом, пожалуй, я закончу свой мануал. Надеюсь, после этой статьи у вас больше никогда не возникнет вопроса,

Наполняя свой сайт полезной информацией, я постоянно думал над тем, как мне сделать, чтобы была быстрая индексация сайта , особенно в Яндексе. И я эту проблему решил. Теперь мои новые страницы сайта индексируются Яндексом за 10 минут. И это не шутка, а чистая правда. И поэтому в данной статье я решил вам дать информацию к действию, которая помогла мне ускорить индексацию сайта .

На самом деле ничего сложного и сверх естественного я вам не расскажу, так как я сам этого не сильно люблю. Я стремлюсь к простоте и легкости, но в то же время стремлюсь подвести свои действия к логичному завершению и результату.

Да, возможно эти результаты не всегда были положительными, но они были, а значит, в дальнейшем я стану умней, и работа моя станет, более, качественней.

Вы спросите, что я такое несу?

Я рассказую вам это неспроста, так как за счет таких экспериментов я добился быстрой индексации сайта в Яндексе за 10 минут. Возможно, это кажется не реально, но это факт. Я толком не успеваю понажимать по своим кнопкам социальных сетей, как моя новая страница сайта уже проиндексирована Яндексом.

В Google к сожалению такого результата нет, как бы я не старался. И раньше, чем за 6 часов мои новые страницы сайта в Google не индексируются. Но буду продолжать штудировать и работать дальше над поисковой системой Google.

Но в данной статье я хочу рассказать именно о Яндексе, а именно как на моем сайте происходит за 10 минут.

Возможно, многие те способы, которые я сейчас дам для быстрой индексации сайта, очень хорошо знают (это больше относится к более опытным блоггерам и веб-мастерам), но новичкам эта информация будет как раз кстати.

Я сейчас вам по пунктам распишу все действия, которые я делал для ускорения индексации своего сайта и которые в моем случае отлично работают. И так начнем.

Как сделать быструю индексацию сайта в Яндексе.

1 . Первым делом после того как я публикую свою статью в интернет, я добавляю ее в веб-мастер Яндекса в раздел "Сообщить о новом сайте ". Это первое, что каждый должен сделать для ускорения индексации своей станицы сайта. Обязательно зарегистрируйтесь там и на каждую новую свою статью ставьте там ссылку. Конечно, это не дает 100% гарантии быстрой индексации сайта в Яндексе, но и лишним не будет напомнить Яндексу о новой статье на вашем сайте.

2 . На моем сайте в конце каждой статьи есть кнопки социальных сетей , которыми я пользуюсь. Но пользуюсь я не всеми социальными сетями, которые там есть, а лишь несколько из них. Я добавляю свою новую страницу в такие социальные сети как: Twitter, Facebook, Я.ру и Google Plus. Вот все основные социалки, которыми я пользуюсь. Но перед этим вы должны, соответственно, зарегистрироваться в данных социальных сетях. Больше сервисов я не использую, так как считаю, что этого достаточно. Если у вас есть свои аккаунты еще где-то, то лишним это не будет.

4 . Добавляю свою новую страницу сайта в программу Pingxpertfree, которая раскидывает мою ссылку по своей базе сайтов в интернет. Их еще называют rss ленты.

5 . Пишу постоянно новые и уникальные статьи для своего сайта. Причем пишу их с постоянной периодичностью 1 статья в 3-4 дня, но не реже чем 2 статьи в неделю. Соответственно робот Яндекса приходит на мой сайт в данный промежуток времени и ждет новые посты, а как только они появляются, то Яндекс их тут же заносит себе в базу и в следствии происходит быстрая индексация сайта в Яндексе.

Старайтесь придерживаться графика появления новой статьи на вашем сайте. Приучите поискового робота заходить на ваш сайт постоянно в день появления новой статьи на сайте. Этот пункт является одним из главных. Самое главное постоянно наполнять свой сайт свежей информацией, и робот будет постоянно посещать ваш сайт.

6 . Сделайте грамотную и правильную внутреннюю перелинковку сайта . Суть ее заключается в том, чтобы все ваши статьи были связаны между собой ссылками. Это нужно для того, чтобы поисковый робот не уходил с той страницы, на которую он пришел, а перешел далее по внутренним ссылкам. Это особенно хорошо для молодого сайта, который только появился в интернете.

7 . Старайтесь наращивать ссылочную массу вашего сайта. Причем нужно, чтобы ссылки шли не только на главную страницу, а на все страницы сайта. Так будет быстрей и качественней индексация вашего сайта в Яндексе. Но не нужно в самом начале создания сайта или блога пользоваться сервисами для прокачки ссылочной массы, особенно, в большом количестве измеряемые в тысячном эквиваленте. Вместо «прогона» лучше использовать сервис типа SeoPult , в котором ссылки закупаются естественным образом, постепенно, и отбираются только качественные доноры, отвечающие жестким требованиям.

8 . Нужно постоянно вести контроль за индексацией своих страниц в интернете, в частности таких поисковых систем Яндекс и Гугл. Контроль за индексацией важен тем, что чем быстрее ваша статья попадет в поисковую выдачу, тем быстрее вы получите свою выгоду, которую вы преследовали в своей статье. Так же быстрая индексация статьи нужна, чтобы мошенники не смогли украсть ваш контент и проиндексировать быстрее у себя на сайте или блоге. Иногда, ваши страницы, которые уже проиндексировались в поисковых ситемах, через некотое время могут вылететь из поиска - это может быть глюк поисковых систем и вскоре ваши статьи вернуться обратно в поисковую выдачу либо какие-то проблемы обнаружились с вашими страницами сайта или блога и тогда вам нужно будет искать причину(ы) почему это произошло (причин может быть множество).

Чтобы ускорить процесс контроля за индексацией ваших страниц, существует бесплатный сервис https://serphunt.ru/indexing , который позволит быстро и бесплатно проверить индексацию вашей новой или старой страницы в поисковых системах Яндекс и Гугл. Данный сервис позволяет одновременно проверить до 50-ти страниц сайта или блога. Вот как выглядит сам сайт:

Вот и все способы, которые я применяю для моих новых написанных статей, чтобы была быстрая индексация сайта в Яндексе за 10 минут.

Но 100% гарантии я вам не даю, что будет именно такой результат, который есть у меня так, как неизвестно, как это будет работать на вашем сайте. Индексация штука тонкая и она зависит от многих факторов, которые нужно искать и заставить работать на себя.

P.S. Не огорчайтесь, если Яндекс не хочет долго индексировать ваш сайт. Возможно, у него нет пока доверия к вашему сайту. Главное не останавливаться и постоянно писать новые статьи и возможно в дальнейшем вы уже будете учить всех, как получить быструю индексацию сайта в Яндексе. Яндекс - поисковая система с характером и ей нужно угадить.

По большому счету, если Ваш ресурс хороший, качественно сделанный, то проблем с его индексированием быть не должно. Если сайт, пусть и не на 100%, но отвечает требованиям поисковиков — «для людей», то они с радостью будут заглядывать к Вам на огонек и индексировать все новое, что будет добавлено.

Но как бы там ни было, первым шагом в продвижении сайта является добавление его в индекс ПС. До тех пор, пока ресурс не проиндексируется, по большому счету и продвигать то нечего, ведь поисковики вообще о нем не будут знать. Поэтому, в этой статье я рассмотрю, что такое индексация сайта в Яндексе и как отправить ресурс на индексацию. А также расскажу о том, как проверить попал ли сайт или отдельная страница в индекс Yandex и, что делать для ускорения индексации Яндексом.

Индексирование сайта в Яндексе – это обход роботами поисковой системы yandex Вашего сайта, и внесения всех открытых страниц в базу. Паук русского поисковика добавляет в базу данные о сайте: его страницах, картинках, видео, документах, которые доступны для поиска. Также, поисковой бот занимается индексированием ссылок и других элементов, что не закрыты специальными тегами и файлами.

Основные способы индексации ресурса:

    Принудительная - следует отправить сайт на индексацию в Яндекс через специальную форму.

    Естественная - поисковому пауку удается самостоятельно найти Ваш сайт, переходя с внешних ресурсов, что ссылаются на вебсайт.

Время индексации сайта в Яндексе для всех разное и может колебаться от пары часов до нескольких недель.

Это зависит от множества факторов: какие значения стоят в Sitemap.xml, как часто наполняется ресурс, как часто упоминание о сайте появляется на других ресурсах. Процесс индексации цикличен, поэтому робот будет приходить к Вам через (практически) равные промежутки времени. А вот с какой периодичностью — зависит от упомянутых выше факторов и конкретного робота.

Паук может проиндексировать веб-сайт полностью (если он маленький) или отдельный раздел (это относиться к интернет-магазинам или СМИ). На часто обновляемых ресурсах, типа СМИ и информационных порталах живут, так называемые, быстро-роботы для быстрой индексации сайта в Яндексе.

Порой на проекте могу возникнуть технические неполадки (или проблемы с сервером), в таком случае yandex индексация сайта не состоится, из-за чего поисковая система может прибегнуть к следующему сценарию:

  • сразу выкинуть непроиндексированные страницы с базы;
  • провести переиндексацию ресурса через определенное время;
  • поставить страницы, что не были проиндексированы, на исключение из базы, и если не обнаружит их при повторной индексации, то выбросит из индекса.

Как ускорить индексацию сайта в Яндексе

Как ускорить индексирование в Яндекс – частый вопрос на различных форумах вебмастеров. Фактически жизнь всего сайта зависит от индексации: позиции ресурса в ПС, количество клиентов с них, популярность проекта, прибыль, в конце концов.

Я подготовил 10 способов, которые, надеюсь, пригодятся Вам. Первые пять – это стандартные для постоянной индексации ресурса, а следующая пятерка поможет Вам ускорить индексацию сайта в Яндексе:

    сервисы закладок;

    RSS-лента – обеспечит трансляцию новых материалов с Вашего ресурса на почту подписчикам и в RSS-каталоги;

    биржи ссылок – обеспечат стабильный прирост dofollow ссылок с качественных доноров, при правильном их отборе (как правильно отбирать );

    – если вы еще не регистрировали сайт в каталогах, то советую сделать это. Многие говорят, что каталоги давно умерли или регистрация в них убьет сайт – это не правда. Точнее не полная правда, если регистрироваться во всех подряд каталогах, то действительно Ваш ресурс только пострадает от этого. Но при правильном отборе трастовых и хороших каталогов эффект будет несомненно.

Проверка индексации сайта в Яндексе

  • Операторы site и url. Если Вы желаете проверить индексацию сайта в Яндексе, то можете воспользоваться стандартными операторами поисковой системы..biz. (Естественно, вместо моего домена свой)

  • RDS bar. Считаю самым лучшим и быстрым способом проверки индексации страницы в Яндексе. Данный плагин можно установить на все популярные браузеры, сразу предоставит подробную информацию о количестве страниц сайта в индексе и о наличии конкретного материала в нем. С помощью этого расширения Вы не будете терять время на ручной ввод урлов в сервисах или поиске. В общем, рекомендую, RDS bar крайне удобен:
  • Сервис Серпхант. Многофункциональный ресурс, с помощью которого можно проводить анализ сайта: оценки эффективности и мониторинга сайтов, анализ страниц конкурентов, проверка позиций и индексации сайта. Бесплатно проверить индексацию страниц можно по этой ссылке: https://serphunt.ru/indexing/ . Благодаря пакетной проверке (до 50 адресов) и высокой достоверности результатов, данный сервис входит в тройку лучших по моему мнению.

  • Сервис XSEO. Набор инструментов для вебмастеров, в XSEO.in Вы можете посмотреть в Яндексе индексацию сайта. Также получить множество дополнительной полезной информации о своем ресурсе:

  • Сервисы PR-CY и CY-PR. Еще пара сервисов, которые предоставят Вам информацию об общем количестве проиндексированных страниц:

  • Сервис Sitereport. Отличный сервис, который укажет на все Ваши ошибки в работе над сайтом. Также имеет раздел «Индексация», где будет представлена информация для каждой страницы сайта с указанием проиндексирована она или нет в поисковых системах Yandex и Google. Поэтому, рекомендую использовать данный ресурс для обнаружения проблем на сайте и проверки массовой индексации Яндекса: