Эффективное продвижение в Google: методы, которые работают

Основным фактором для раскрутки стал поведенческий фактор. Теперь актуально , но не только из-за Яндекса.Гугл так же ранжирует сайты, обращая внимание в первую очередь на поведение пользователей, а потом на ссылочную массу. Поэтому качественные ссылки могут передавать не только вес, но и качественный трафик, который способен поднять сайт в топ выдачи как в Яндексе, так и в Гугл.

Что такое поведенческие факторы?


Поведенческие факторы
– это выполняемые действия пользователем на сайте. Под действиями я имею ввиду, показатель отказов, время проведённое на сайте, глубина просмотра, а так же возвращался ли пользователь на сайт. Нынешние поисковые машины отслеживают все эти данные для того, что бы выдвигать в топ лишь те сайты, которые понравятся большинству, а не другие сайты, которые собрали больше всего обратных ссылок.

Какие поведенческие факторы самые важные для ранжирования?

Статистика показала, что поисковые запросы легко продвигаются с помощью поведенческих факторов. Самыми важными факторами ранжирования оказались показатель отказов и время, проведённое на сайте. Именно на эти два поведенческих фактора стоит обратить внимание в первую очередь. Если показатель отказов более 50% и время, проведённое на странице менее минуты, то страница не будет в топ 10 как в Яндекс, так и в Гугл.

Продвижение сайта поведенческими факторами при помощи сервисов

Хочу сразу сообщить, что любые накрутки поведенческих факторов являются обманом поисковых систем, то есть чёрным SEO. За что могут поставить сайт под фильтр, либо убрать часть страниц из индекса.

Существуют различные сервисы предоставляющие раскрутку сайта с помощью поведенческих факторов. , я считаю одной из самых удобных среди бесплатных систем по автоматической накрутки.

Среди ручной накрутки поведенческих факторов, лучше всего использовать один из следующих сервисов: либо Movebo. Однако не стоит забывать, что Яндекс старается отслеживать всех тех, кто накручивает поведенческие факторы с помощью сервисов.

Вот что пишет сама команда поиска Яндекса о .

Как улучшить поведенческие факторы самостоятельно?

Прежде всего, дайте пользователю то, что он желает увидеть. Возможно, придётся провести много различных анализов, что бы уменьшить показатель отказов, однако это имеет 30-50% успеха в продвижение. Вот несколько полезных советов по . Так же стоит отметить, что пользователем важно удобство ресурса, когда всё можно найти интуитивно.

Надеюсь, статья про продвижение сайта поведенческими факторами окажется полезной и поможет продвинуться в топ поисковой выдачи.

Главный враг поисковых систем - черный поисковый оптимизатор. Закупка ссылок стала индустрией. Ссылочное продвижение работает стабильно. Будет интересно, взгляните на сервис закупки ссылок MegaIndex. Регистрируйтесь . Но, роль ссылочной массы в поисковом продвижении начали размывать новые поисковые алгоритмы, которые обращают внимание на поведенческие факторы.

Продвижение поведенческими факторами

Рекомендую к прочтению.
В материале рассматривается работа с микроформатами (улучшение поведенческих факторов).

Накрутка поведенческих факторов

Поведенческие факторы ранжирования - это комплекс пользовательских метрик, используя которые поисковая система определяет уровень интереса к определенной ссылке в результатах выдачи.

Бороться с накруткой поведенческих факторов в поисковой системе сложно по той причине, что если поисковики начнут банить за накрутку поведенческих, то черные оптимизаторы начнут таким способом избавляться от конкурентов.

Поведенческие факторы Яндекс накручиваются точно также, как поведенческие факторы Google и Bing.

Сервис поведенческих факторов

Принцип работы. Оптимизатор ставит задание работникам системы. Пользователи заходят и исполняют. Сервис по накрутке тривиален. Что же важно здесь. Главное располагать множеством работников. Проверять работу. Очень важно дать оптимизатору возможность настроить работу по накрутке в соответствии с бюджетом на компанию и продвигаемыми запросами.

Рассмотрим подобный популярный сервис. Называется SERP Click .

SERP Click продвигает сайты в поисковых системах за счет поведенческих факторов. Регистрация .

Стоимость перехода реального пользователя составляет 5 рублей.

Работники SERP Click используют разные браузеры с естественным распределением их по популярности.

Ниже вебинар по накрутке поведенческих факторов

Используйте SERP Click для удержания сайтов в топе Yandex, Google.

Заработок на поведенческих факторах

Зарабатывать (от 30 до 500 рублей в день) выполняя задания по накрутке поведенческих факторов можно

Дата публикации: 19.02.2015

комментариев 25

  1. NMitra написал:
    19 Фев 2015 в 21:18

    Да, я выключила аналитикс — позиции не упали

  2. Алексей написал:
    19 Фев 2015 в 22:18

    Есть три маленьких проекта, на одном из них есть как аналитикс так и метрика, на двух других только метрика, на последних двух (хотя они очень молодые) некоторые нч выскочили в гугле буквально после месяца запуска просто вот сами, а в яше ниже 100-й строки эти же нч. Не уверен, конечно, что это именно по этой причине, но случайность интересная, которая требует подтверждения.
    Игорь, не хотите провести эксперимент? 🙂

  3. Bakalov Igor написал:
    20 Фев 2015 в 10:19

    Алексей, сомнительный будет эксперимент 🙂

  4. Семён написал:
    20 Фев 2015 в 10:20

    Не понятен ответ:
    Мы решили вместо поведенческих факторов и социальных сигналов использовать рост и вес вебмастера.
    Что в данном случае подразумевали под ростом и весом вебмастера?
    Догадываюсь что рост — это увеличение числа страниц сайта, а вес — это количество ссылок? Моя догадка верна?
    Ответ больше похож на шутку:)

  5. Сергей Нижегородцев написал:
    20 Фев 2015 в 12:11

    Привет, Игорь! Спасибо за хорошую подборку ответов команды Гугл на тему ПФ.

    Я уверен, что Яндекс скоро сделает то же самое. Этим и накрутчиков добьют, и больше случайные сайты не попадут под раздачу, которых пытаются выбить из ТОПа конкуренты.

    Опять будет много недовольных, но всем не угодишь. Накрутчики сейчас, как перед агонией, обкакавшись несколько раз подряд (последний раз 31.12.14) и загубив тысячи коммерческих проектов, все активнее зазывают лохов в свои сервисы — http://i.imgur.com/cI89QLw.png 🙂

    К тебе вопрос. Многие любители ссылок и накруток (особенно кто на них наживается) стонут, что выдача рухнет. Что думаешь по этому поводу.

    Спасибо заранее за ответ 🙂

  6. Максим написал:
    20 Фев 2015 в 12:54

    По поводу веса и роста. Эта метрика может учитываться для контентных проектов, где автор — может считаться новичком, любителем, экспертом — и благодаря некому «Автор-ранку» материалы будут ранжироваться выше или ниже.

    Но давайте поговорим про интернет-магазин, как понять его рост и вес? Число страниц? Трафик? Входящие ссылки? Что-то еще?

  7. Bakalov Igor написал:
    20 Фев 2015 в 18:09

    На счет «веса и роста», ребят у вас совсем с чувством юмора туго? 🙂

  8. Marian написал:
    21 Фев 2015 в 15:31

    Про рост и вес комментари убили)))
    Ребята, иногда нужно понимать всё буквально 🙂

  9. ВВО написал:
    22 Фев 2015 в 21:09

    Вам про BrowseRank все ясно на форуме ответили, жаль, что вы так и не поняли.
    Что тут нового и полезного в этой статье?

  10. Bakalov Igor написал:
    22 Фев 2015 в 22:38

    ВВО, на форуме Google я ясно дал понять, что меня не интересует мнения так называемых «ведущих участников», т.к. они пишут откровенную чушь.

  11. ВВО написал:
    23 Фев 2015 в 17:30

    Ведущие участники наверняка знают поболее вас, так как на прямую контактируют с Гуглерами и зачастую ответ ВУ — это трансляция ответа сотрудника Гугл.
    Что касается разного рода поведенческих факторов, то есть интервью Мэтта, Липатцева, о том, что именно для целей ранжирования они не учитываются.
    Всякие адепты поведенческих факторов, которые бебожно впаривают лохам всякого рода накрутки, не могут смериться с тем, что для Гугл этот лохотрон не работает.

  12. Bakalov Igor написал:
    23 Фев 2015 в 17:48

    ВВО, а вы случайно сами не из этих «ведущих участников»? А то по манере общения больно смахиваете.

  13. Дмитрий Севальнев написал:
    24 Фев 2015 в 20:35

    Общение с сотрудниками Google, даже больше чем с сотрудниками Яндекса, напоминает общение со стенкой.

    Им доводы - они в ответ шаблоны.

    Это, конечно, круто, отрицать сам факт учёта ПФ, высший пилотаж, покер-фейс на 100% -) Но тут, кажется, всем очевидно, что это абсурд.

    Даже Mail учитывает и выводит два интегральных ПФ-фактора в своём Вебмастере, а вот Google не учитывает. Ага, да, точно.

  14. Bakalov Igor написал:
    25 Фев 2015 в 14:00

    Дим, а почему покерфейс Яндекса, касательно отмены ссылок в Московской коммерческой выдаче тебя не смущает? 🙂

  15. Дмитрий Севальнев написал:
    26 Фев 2015 в 1:04

    Игорь, мне кажется они просто разные цели преследуют -)

    Яндекс - хочет типа сломать систему и нарушить карго-культ оптимизаторов, и, надо сказать, для многих данные заявления работают. Хотя сам Яндекс и не раскрывает карты о наблюдаемом объеме коммерческих ссылок в Рунете.

    Что же касается Google - я не знаю за что они борются, ты думаешь за то чтобы народ отказался от накруток? Если да, то хочется каких-то более мощных действий, скажем, фильтр Пеликан для ПФ. Мало же кто смотрит эти видеовстречи с вебмастерами, а практика работы с ПФ в Google - говорит явно об обратном =)

  16. Сергей Анисимов написал:
    09 Мар 2015 в 14:41
  17. Анатолий написал:
    10 Мар 2015 в 19:06

    Спасибо, Игорь, спасибо за подборку информации, как всегда интересно.
    Собственные наблюдения за последние годы:
    Накрутка ПФ для Яндекса — эффект стримится к 0!
    Накрутка ПФ для Google — эффект явно есть, причём достаточны быстрый

    Чистота выводов конечно под большим вопросом т.к. невозможно отследить значение ПФ в отрыве других факторов, даже если с сайтами борльше нечего не делать, поскольку на длительном отрезке времени даже с этими сайтами происходят колебании (иногда очень значительные)…

  18. Артем написал:
    16 Апр 2015 в 20:13

    А только мне кажется здесь противоречие «Речь шла только о том, что если вы выпихните сайт в топ плохими ссылками, то очень скоро он оттуда улетит под плинтус. А то, что не кликают по топовому результату – это только сигнал, что с выдачей не совсем все правильно и нужно обратить внимание. Такой сайт либо заслуживает ручных мер, либо алгоритм ранжирования нуждается в корректировке.

  19. Bakalov Igor написал:
    17 Апр 2015 в 10:21

    Артем, да странного много тут, например увиливания про граф переходов. У них на сайте есть публикации, где вскользь упоминается, что для ряда исследований использовали данные тулбаров, но в ранже видите-ли не используют. Стоит понимать, что это лишь официальная позиция Google и не стоит верить им на слово 😉

  20. Николай написал:
    07 мая 2015 в 21:27

    Они говорят, что поведенческие внутри сайта не является сигналом ранжирования. Джон Мюллер тоже сто раз отвечал на этот вопрос.
    Он привел простой пример, сказав, что когда он вбивает запрос в гугле, то очень часто открывает сразу несколько вкладок, допустим читает одну, остальные 4 открыты в других вкладках. После чего он может вообще про какие-то забыть и закрыть их позже, или перебить запрос на более уточняющий. Таким образом время на сайте очень шумный сигнал. Также он сказал, что если находит ответ на свой вопрос то тут же закрывает вкладку.
    А накрутки ПФ работают потому, что накручивается CTR в выдаче. А Рэнд Фишкин уже делал эксперимент, предлагая своим фэнам вбивать запрос в гугле, идти на 3 страницу и кликать по ссылке. И конечно эксперимент подтвердился, что CTR влияет на выдачу. Гугловцы об этом и говорят, что они учитывают поведенческие факторы только внутри самой выдачи. Смотрят кто куда жмет, как часто и т.д. Только вот непонятно CTR влияет только на данную страницу, или хороший ctr на некоторых страницах положительно влияет и на другие страницы. Ведь хороший ctr может быть не только из за привлекательного заголовка, но и за доверие к бренду(известному домену).

  21. Bakalov Igor написал:
    08 мая 2015 в 10:49

    Николай, в том то и фишка, что Гугловцы говорят, что CTR и прочие «кликовые» фишки — не влияют.
    Что до времени на сайте, не проблема учитывать время только на активной вкладке, это все реализуемо средствами JS.

  22. Николай написал:
    08 мая 2015 в 11:34

    Об этом говорили на каком-то вебмастерском гугловском видео. Кстати тебя там видел тоже вроде, среди задающих вопросы через скайп, если не ошибаюсь конечно.
    В очках там есть такой гугловец:), вот он и говорил, что они оценивают поведение пользователей на выдаче, а не на сайтах. Что там еще можно оценивать кроме CTR? Ну например очередность кликов, скажем вбил запрос, выдало результаты, кликаешь сначала по третьему месту, потом по второму. Вроде ctr обеспечил этим двум ссылками одинаковый, но заинтересовался сначала третьим местом, посчитав его заголовок более привлекательным к примеру.
    Ну и Джон Мюллер об этом говорил несколько раз, отвечая на вопросы про то что якобы гугланалитикс подглядывает за нами 🙂

  23. Bakalov Igor написал:
    08 мая 2015 в 13:01

    Николай, немного не правильно вы поняли. Допустим возьмем Яндекс. Есть ваш сайт на 3 месте по [запросу], если на него кликают чаще (читай выше CTR), то Яндекс считает, что этот сайт лучше и его по этому запросу надо поставить выше. У Google же официальная (!) позиция принципиально другая. Они в целом смотрят на поведение и клики пользователей в SERP и затем в целом «улучшают» алгоритмы, чтобы сайты на которые кликают чаще были выше. По факту конкретная связка запрос-документ не важна, т.к. это для них «шум». Поскольку поиск всегда старается найти грань между точностью и полнотой, на выходе может оказаться так, что ваш сайт не будет ранжироваться лучше, даже при высоком CTR. Немного сумбурно, но надеюсь вы поняли о чем я.

  24. Николай написал:
    08 мая 2015 в 20:35

    Возможно, но эксперимент Рэнда Фишкина это подтвердил, когда он сказал своим подписчикам в твиттере сделать определенные действия в серпе, то есть вбить запрос и кликнуть куда нужно.

    Может быть они еще смотрят на соотношение брендовых запросов и переходов по ним. Соответственно чем больше брендовых запросов делается, тем выше сайт должен ранжироваться и по другим небрендовым но релевантным запросам.

    Хотя возможно конечно и показатель отказов из поиска считают. Хотя тот же Джон Мюллер говорил, что он сам ищет довольно быстро, если быстро ответ нашел, то закрывает страницу. Но тут наверное от запроса зависит, ведь очевидно что в ecommerce запросах пользователю понравился сайт в том случае если он остался на странице и начал делать действия какие-то, добавлять в корзину и т.д. А если открыл и сразу закрыл, то вероятно что-то не так, допустим товара нет временно в продаже, о чем висит уведомительная надпись, значит будут уходить со страницы, а следовательно зачем ее высоко показывать.

  25. Bakalov Igor написал:
    09 мая 2015 в 0:04

    Николай, ну я же не зря сделал акцент, что это официальная (!) позиция Google 😉 А сеошники знают, что далеко не все заявления представителей поиска являются истиной 🙂

В этот раз я спросила мнение известных SEO-экспертов Рунета на очень актуальную тему«Google vs. Яндекс: нюансы SEO под каждую из поисковых систем».

От себя хочу сказать еще такой важный момент — проверяя позиции, не забывайте смотреть релевантные страницы. Это одна из самых частых ошибок — когда в Гугле и Яндексе разная релевантная страница . То есть, вы уверены у себя в голове, что продвигаете главную, а в поисковой выдаче стоит вообще какая-нибудь карточка товара.

В разных ПС также может быть и разный ТОП — страницы немного разного типа. Хотя по опыту, чаще всего ТОП идет более-менее одинаковый. Опять же низкие позиции в поисковых системах часто бывают потому, что под запрос затачивается не подходящая по типу под ТОП страница (главная вместо раздела каталога или статья вместо карточки интернет-магазина).

Если сайт не имеет серьезных технических ошибок, имеет качественный полезный контент, аккуратную, но осознанную оптимизацию и плавно растущую естественную ссылочную массу, обычно он хорошо стоит одновременно в обеих ПС.

И только когда начинается перегиб в попытке повлиять на какой-то фактор — например, массовая закупка ссылок, то сайт может отлично стоять в Гугле, и иметь санкции в Яндексе.

А может плохо стоять в Гугле, если наоборот, мало ссылок, но при этом иметь топовые позиции в Яндексе.

А может вести себя как-нибудь не очень предсказуемо — вроде все хорошо, а в одной ПС стоит хорошо, в другой плохо.

Этим я обычно и занимаюсь во время своих больших аудитов — тщательно проверяю, в чем может быть проблема.

10 известных SEO-экспертов Рунета дали очень много интересных практических деталей, поэтому читайте внимательно, там много полезного!


Сергей Кокшаров ,
SEO-аналитик, автор блога devaka.ru

В Гугле большой упор нужно делать на качество контента и всего сайта в целом. Например, если вы наделали сотню региональных и, практически, одинаковых поддоменов для Яндекса, то не ждите трафика в Google, для него это будет шаблонный контент и авторитет сайта резко снизится.

Также, Гугл меньше приоритета дает скрытому (любым способом) тексту. Этот текст может давать плюсы в Яндексе, но в Google он не будет работать, или даже за него могут наложить фильтр, при наличии в скрытом тексте избытка ключевых слов.

При изменении рейтинга документа, Google использует функцию перехода, которая зависит от ряда внутренних и внешних параметров. Иногда позиции могут резко понизиться, но через неделю выровняться и начать расти. В алгоритмах Яндекса такого нет, и функция перехода всегда скачкообразная. Часто поэтому, оптимизаторы видят разную реакцию поисковиков на изменение одного и того же фактора.

На продвижение сайта влияют присутствие бизнеса в сервисах поисковой системы и в тех сервисах, откуда поисковик берет дополнительные данные (каждый берет из своих мест). Например, Яндекс активно использует данные из Я.Маркета, Я.Справочника, Я.Каталога, бизнес-справочнкика 2GIS и пр.

Что касается ссылок, не забываем, что у Гугла есть Disavow Tool, и вы не знаете, какие свои ссылки отклонил конкурент.

Дмитрий Севальнев ,
евангелист сервиса «Пиксель Тулс»

Основное, что крайне важно осознать, что Яндекс и Google - две разные поисковые машины у каждой из которых:

Своя классификация поисковых запросов.
Свой набор факторов ранжирования.
Свои формулы (для групп запросов).

1. Производить анализ ТОП в заданной поисковой системе. Изначально лучше ориентироваться на ту, которая приведёт больше целевой аудитории в тематике и регионе, а в дальнейшем, опираясь на сайты из выдачи - корректировать факторы под проблемных поисковик.

2. Посмотреть, как классифицирует и расширяет каждая поисковая система запрос? Бывает так, что запрос в Яндексе носит ярко выраженный коммерческий характер (высокая коммерциализация по https://tools.pixelplus.ru/news/kommertsializatsiya) а в Google - показатель низкий.

В этом случае, не исключено, что и целевые URL могут отличаться. Случай экзотический, но реальный.

Особое внимание на переколдовку (расширение) запроса.

3. Для Google - больше точных вхождений, больше сами объемы текстов.
При этом, не забываем про Баден-Баден и прочие текстовые пост-фильтры Яндекса - https://pixelplus.ru/samostoyatelno/stati/tekstovaya-optimizatsiya/tekstovie-filtry-v-yandex.html

4. Для Google - больше ссылок и большее влияние ссылочных факторов на текущее ранжирование.

5. В Яндексе - больший акцент на коммерческие факторы ранжирования: ассортимент, цены, способы связи, информация о компании, корзина.

6. Продвижение в регионах - фундаментальные различия в региональном ранжировании двух поисковых систем отражены на слайде.

7. Важный технический аспект . Google воспроизводит JavaScript на странице и существенно понижает значимость текста, который можно скрыть с его использованием.

В случае, если используются подобные техники для вёрстки текста - важно учесть.

8. Работа с кликовыми ПФ. В Google meta-тег Description активно используются для сниппета, необходимо использовать это.

9. Отличается индекс и его полнота. Если документ проиндексирован в Яндексе, это не значит, что он в базе Google и наоборот. Надо проверять. Аналогично и со ссылочными донорами.

10. Важно установить Google Analytics для корректного учёта внутрисайтовых ПФ.

Общий вывод . Различия в позициях одного и того же сайта в двух поисковых системах, как правило, носят индивидуальных характер. Тем не менее, наиболее частые причины (в порядке убывания вероятности):

Региональность выдачи Google
наличие санкций в одной из поисковых систем
ссылочные факторы
поведенческие факторы (GA и Метрика)
текстовые (морфология)

,
руководитель рекламного агентства SEO Интеллект

А так выглядит посещаемость сайта попавшего под бан за накрутки ПФ:

4. Коммерческие факторы.

В коммерческих тематиках на ранжирование в Яндексе сильное влияет ассортимент. Привилегии в ранжировании сайтов с широким ассортиментом позволяют агрегаторам забивать топы, не пуская туда релевантные документы компаний с узкой специализацией. При этом в Гугл сайты неплохо ранжируются сайты с небольшим ассортиментом. Например, посмотрите на выдачи обоих поисковиков по запросу «сервисные центры».

Красным в таблицах отмечены агрегаторы предоставляющий большой выбор сервисных центров различных брендов. Гугл отдает предпочтение трастовым сайтам отдельных брендов, в то время как Яндексу дает пользователю сайты с широким ассортиментом брендов.

5. Гео факторы.

Ещё одно отличие, которое хотелось бы отметить, это работа с геозависимыми (ГЗ) запросами. Трюк с поддоменами, который можно провернуть в Яндексе, клонировав основной сайт и немного поработав с вхождениями топонимов, позволяет получать локационный трафик в другом регионе, а в Гугл этот прием не работает. Вот так выглядит трафик на региональных поддоменах:

Мы проверяли на очень приличных выборках из тысяч сайтов – в Яндексе Топы, в Гугл Ж*пы.

● Может по-разному оцениваться преобладающий интент запроса, ТОПы зачастую сильно отличаются не только по набору доменов, но и по типам контента. Например, в Яндексе — статьи, в Google — продающие коммерческие страницы. Впрочем, это не общее правило, зависит от тематики.

● Google хуже справляется с русской морфологией. Яндексоиды даже немного подкололи конкурента в одном из своих семинаров. Анализ русскоязычных текстов у Google менее продвинут.

● По Рунету у Яндекса гораздо четче геотаргетинг; при продвижении коммерческих сайтов с геозависимыми запросами необходимо с самого начала обеспечить правильную привязку к региону через Вебмастер, Каталог или Справочник.

● Как минимум до недавнего времени Google гораздо спокойнее относился к обилию прямых вхождений ключа. Но буквально месяц назад ситуация начала меняться, в сентябре был мощный апдейт алгоритма , множество переспамленных страниц ощутимо потеряли в трафике.

Хватает и других мелких различий (отношение к тегу alt изображений, длине title, nofollow-ссылкам, скрытому тексту, rel canonical). Они достаточно легко проверяются по выдаче.

Для практики я не советую заучивать эти или любые другие списки отличий. Факторов много, для разных запросов актуальны разные подходы к продвижению. Составить огромный чек-лист, чтобы последовательно его прорабатывать — плохая идея.

Ага, в гугле проблемы — докупим ссылок. Ой, не сработало. Значит понатыкаем побольше вхождений. Упс, у нас в гостях Минусинск, Баден-Баден и Fred.

Куда разумнее работать с конкретным проектом, его реальной статистикой и конкурентами. Смотрим запросы, которые удалось продвинуть в одном поисковике и не удалось в другом. Изучаем ТОП по ним, ищем отличия наших посадочных страниц от лидеров. Сравниваем динамику посещаемости и позиций у разных url проекта, выявляем удачные документы и закрепляем успех на них. Меняем шаблон вывода контента на паре десятков url, отслеживаем результат. Определяем причины у резких просадок и всплесков трафика. Оцениваем разницу в ранжировании по срезам запросов (например, с вхождением “купить” или “в Москве”). И так далее и тому подобное.

Пара часов ковыряния с панелями вебмастеров и системами статистики даст бездну идей по изменениям на сайте, подскажет компромиссную стратегию для получения максимума трафика из обоих поисковиков. И на деле это проще, чем кажется.

,
основатель агентства REMARKA

,
drmax.su . Автор учебников SEO-Монстр , SEO-Гуру .
В SEO 13 лет, Опыт работы с буржуями – 7 лет. Крупнейший буржуйский клиент – с годовым оборотом интернет портала в $800.000.000 в год. Работа в 98% под Гугл.

Есть Google, а есть все прочие поисковые системы.

И эти прочие заглядывают в рот Google и перенимают все его технологические достижения. В противном случае они медленно, но верно умирают (Рамблер, Спутник, Yahoo и пр – список мертвых поисковых систем очень велик). Отсюда, если мы сможем продвинуться в Google, с большей долей вероятности, автоматически, мы поднимемся в иных поисковых системах. И даже если у альтернатив есть какие то дыры, давно закрытые у Гугла, и позволяющие манипулировать выдачей, то это не надолго.

Гугл сегодня опирается на 3 базовые вещи: контент, ссылки и алгоритм RankBrain.

Каждая из этих составляющих заключает в себе множество разнообразных факторов ранжирования, в классическом понимании. Более того, есть множество факторов ранжирования, не входящих в эти три группы.

Например, есть корреляция между длинной урла и местом в выдаче – чем короче урл, тем больше шансов проникнуть в ТОП. Что здесь первопричина – а что следствие — не суть важно, возможно, что тут сказывается отношение владельца сайта к серьезности работы над оптимизацией контента, когда он руками прописывает ЧПУ, а не доверяет всяким там плагинам или автоматическим финтифлюшкам генерировать ЧПУ из названия страницы автоматом. Такой товарищ и к подготовке контента и к линкбилдингу будет относиться гораздо серьезней, чем простой блогер.

Итак, контент . Единственное требование к нему – он должен быть полезен. Этого достаточно для признания контента качественным.

Если вы будете писать с ошибками, но при этом 100 000 человек скажут – «фига себе, как же я жил без этого контента до этого», то для продвижения и попадания в ТОП этого будет более чем достаточно. Ибо эти люди сами, без всякой на то просьбы, понаставят ссылок на него, расшарят в соц сети и поделятся со своими знакомыми этим чудо–контентом.
Чтобы контент стал полезен, он должен быть, как минимум, интересен целевой аудитории. При этом, контент не должен быть рерайтом – рерайта, должен давать что-то новое для пользователей. И тут мы автоматом переходим к понятию уникальности. Если вы описываете что-то новое (старыми словами, шутка), то контент и будет уникальным.

Спускаемся ниже в разборе структуры полезного контента. Чем более человек знаком в теме, тем богаче у него профессиональный лексикон. Он на автомате будет вставлять в текст как стандартизированные обороты, так и жаргонизмы, разбавляя и насыщая текст словами – подтверждениями, релевантными терминами (http://drmax.su/klyuchevye-slova-lsi-algoritm.html/). Все это окунает нас в сферу LSI копирайтинга и машинного обучения.

Кроме того, если товарищ ответственно подойдет к работе, создавая полезный контент, он обязательно сопряжет теорию и практику, приведет кучу ярких примеров. Это, непосредственно, скажется на длине контента. Он будет гораздо больше, чем простой текст.

Итак, из простого определения, что КОНТЕНТ ДОЛЖЕН БЫТЬ ПОЛЕЗНЫМ, автоматически вылезли его признаки: он должен быть интересен, уникален, насыщен профессиональными терминами, содержать теорию, практику и примеры, быть большим по объему.

При этом, в обратную сторону – это не работает. Если я напишу 40 000 слов про мутации генов, не обладая при этом профильным образованием и какими — то наработками в этой тематике, даже если я насыщу контент всякими терминами и прочими словоблудиями – ни один товарищ из целевой аудитории не воспримет его как полезный. Никакого профта от такого контента я не получу.

1. Трафик на доноре.
2. Ссылка хорошо вписана в контент статьи — донора, раскрывая, дополняя и поясняя её.
3. Релевантность типа «документ-документ», а не обязательно «сайт-документ». Учитесь писать отличные статьи – прокладки, для размещения своих ссылок.
4. Донор не в ссылочных/статейных биржах. Здесь велик риск получить автоматом падение качества донора и ссылка может стать «ядовитой».
5. Статья снабжена мультимедиа
6. Анкор не спамный (в разрезе всего ссылочного профиля).

Никакие сторонние метрики для определения «качества» донора не нужны. Все эти метрики выдуманы и служат только для набивания карманов, выдумавших эти метрики и продающие подписки на чекалки сайтов на эти метрики. Тут яркий пример такого зомбирования – это MOZ с их показателем DA, без которого большинство западных сеошников не могут судить о качестве сайтов. А стоимость подписки на чекалку этого и иного «синтетического» показателя – посмотрите у них сами.

Аналогично, есть и русские изобретения, не столь дорогие и претенциозные, тот же CheckTrust. Это всего – навсего способ заработка, не самый худший, признаюсь. Ребята – молодцы. Ну а Гуглу – абсолютно наплевать на этот показатель. Он о нем ничего не знает и знать не хочет и на ранжирование этот показатель влиять не может. Есть ли корреляция с показателями качества Гугла, нет ли – никто не знает. А самое главное, это никому не интересно.

Единственная реальная метрика – это количество ключей в ТОПе у донора и отсюда – размер органического трафика. Это «оценку» выставляет сама поисковая система и мы не будем спорить с ней.

Кстати, этот подход сразу выявляет товарищей, не разбирающихся в оптимизации. Если при вас заговорят о всяких там трастах, DA, трастфлов и прочих ТИЦах с мертвыми пейджранками, применительно к оценке качества сайта – не обращайте внимания на таких товарищей и критически отнеситесь ко всем их россказням.

Теперь о RankBrain и сотне прочих работающих факторах ранжирования . Хотелось бы сразу отметить одну важную штуку. Сайт должен быть не только полезен пользователю, но и удобен для работы. Что сразу переводит нас в плоскость обсуждения UI/UX дизайна и вынуждает соблюдать массу требований, начиная с классических «трех кликов до нужного контента», расположении блоков на странице, адаптацией под мобильные, скорость отображения сайта и пр…
Каждое из этих требований будет обусловлено десятком взаимопереплетающихся факторами ранжирования.

Ну возьмем, например, CTR в органике. Чем он выше, тем больше товарищей придет на ваш сайт. Более того, повышая CTR на 3-4%, Гугл поднимет в выдаче на 1 позицию, что автоматом опять позволит нарастить трафик.

В свою очередь CTR зависит от яркости сниппета, который порождается как тайтлом и дескрипшеном, так и контентом, в зависимости от запроса в органике.

Есть десятки стандартных приемов, повышающих заметность сниппета, основанных как на психологии, так и на манипуляции техникой.

К примеру, стандартные сниппеты в Гугле – 2 строки, а я могу заставить Гугл для моих страниц формировать 4-х строчные сниппеты. Под этими 4 строками текста могу прикрутить «хлебные крошки» и оценку страницы (звездочки). Такой снипет будет очень «выпуклым» и заметным в выдаче. Это и есть технические манипуляции.

А есть психологические приемы. Все эти списки (100 приемов… 25 способов), крючки и завлекалки. Это тоже позволяет повысить CTR.

Однако, если пользователь, перейдя на страницу, не найдет того, что ему обещали в сниппете, то никакой конвертации посетителя не будет. И тут мы опять возвращаемся к полезности контента.

Для себя я пользуюсь такой техникой составления Титла – в нем должно быть 2 части. В первой говориться о чем эта страница, во второй – как она может помочь посетителю. Аналогично с дескрипшеном.

Можно привести сотни приемов и способов того, что сегодня хорошо и очень хорошо работает в Гугле. Как раз сейчас я заканчиваю книжку «SEO Монстр 2018» , там в одном из разделов будут описаны эти нехитрые, но полезные и неочевидные приемы.

Возвращаясь к тому же CTR и психологическому приему списков, вы, например, знали, что целые числа в тайтле работают на 10-15% лучше, чем некруглые и что «100 приемов продвижения» в тайтле для посетителя будут привлекательней чем «112 приемов продвижения». Странно, да? Но это психология. И это работает.

В SEO все взаимосвязано. И любая манипуляция, которая будет полезна для конечного пользователя, будет положительно влиять как на позиции в органике, так и на трафик, конвертации и в конечном счете, прибыль.

В этом и заключается хитрость всего SEO. А все остальное – это всего-навсего техника и хитрые и не очень хитрые приемы оптимизации.

С чем согласны, с чем не согласны? Какой у вас опыт продвижения под Гугл и Яндекс? Пишите в комментариях ниже!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

Было достаточно простым занятием. Стоило лишь закупить ссылок в специализированных сервисах и Ваш сайт за короткий промежуток времени перемещался в топ. Но время не стоит на месте - алгоритмы поисковых систем постоянно улучшаются и пересматриваются. То, что работало несколько лет назад может принести вред сегодня.

Чтобы не получить санкций от поисковых систем нужно следовать последним тенденциям, которые говорят о том, что сайт, в первую очередь, должен быть удобен и полезен для людей. Одним из важнейших критериев оценки удобства ресурса для пользователей являются поведенческие факторы. Именно о них мы более подробно поговорим в данной статье.

Что такое поведенческие факторы?

Под данным понятием понимаются любые действия, которые совершил посетитель на Вашем сайте после перехода из поисковой системы. Страница захода, количество времени проведенного на сайте, глубина просмотра страниц, возвраты, заполнение форм, клики по ссылкам – все эти манипуляции можно отнести к поведенческим факторам. Они одинаково применимы как для Google так и для Яндекс.

До недавнего времени поведенческие факторы были своеобразным мифом. Некоторые оптимизаторы верили, что они влияют на ранжирование сайтов, а другие нет. Но сейчас на 100% доказано, что они действительно оказывают влияние на поисковую выдачу.

Поведенческие факторы работают комплексно и неразрывно друг от друга, т.е. при ранжировании учитывается не какой-то определенный фактор, а их совокупность. На них очень сложно повлиять искусственно, так как, во-первых, их точный список неизвестен никому (кроме инженеров Яндекса), а во-вторых, все показатели имеют определенный стандарт и любое отклонение или необычное поведение станут поводом для пристального внимания поисковых систем.

Список поведенческих факторов Яндекс и Google

Стандартные инструменты аналитики от Яндекс и Google дают возможность проанализировать некоторые поведенческие факторы. Опытным путем мы составили список факторов, которые имеют наибольшее влияние на поведенческое продвижение.

    Процент отказов.

    Один из самых важных показателей, которому нужно уделить основное внимание. Под отказами понимается процент случаев, когда человек просмотрел одну страницу и покинул сайт, или при нахождении на странице менее 15 секунд (в том случае, если Вы активировали пункт «точный показатель отказов» в Яндекс.Метрике).

    Количество времени, которое провел пользователь на ресурсе.

    Очередной важный показатель, так как руководствуясь банальной логикой понятно, что если сайт интересен посетителю, то он пробудет на нем длительное время и просмотрит множество страниц.

    Глубина просмотра.

    Под данным поведенческим фактором подразумевается усредненное количество страниц, на которых побывал пользователь в рамках одной сессии. Опять-таки, логично предположить, что если сайт интересен, то глубина просмотра будет высокой, а следовательно, сайт должен хорошо ранжироваться.

    Показатель возвратов.

    Если посетитель зашел к Вам на сайт, а через некоторое время вернулся (например через закладки или ввел адрес сайта в поиск), то это служит хорошим знаком для поисковика, так как, скорей всего, сайт оказался полезен пользователю.

    Привлекательность сниппета.

    Если пользователи кликают именно на Ваш сайт в результатах поиска (даже если он находится не в топ-3), а после этого проводят длительное время на ресурсе и просматривают множество страниц, то сниппет подобран хорошо и соответствует запросу.

Как осуществляется поведенческое продвижение

Оно зависит от множества факторов, которые зависят от тематики ресурса и некоторых других вещей. К сожалению, идеальной схемы продвижения не существует, однако есть основополагающие принципы, которые способны положительно повлиять на поведенческое продвижение. Ниже мы приведем основные из них:

    Использование аналитики.

    Яндекс и Google предоставляют мощнейшие инструменты, которые позволяют наблюдать за поведением и деятельностью Ваших посетителей. Необходимо отслеживать страницы, которые имеют большой процент отказов. Затем оптимизировать их, сделать текст более интересным, а если это невозможно, то стоит задуматься над их удалением.

    Качественный контент.