Поисковая оптимизация

Понравилась статья? Поделитесь!

Что надо знать заказчику про поисковую оптимизацию сайта?

Здесь на этой странице я написал самое значимое из того, что известно про поисковую оптимизацию. В остальных статьях клиенты услуг продвижения сайтов могут почитать про сравнение поисковой оптимизации с другими способами продвижения. Текст статьи был актуализирован в 2015 году и соответствует современным реалиям.

Технические тонкости оставим специалистам, а здесь рассмотрим самые важные моменты, которые должен понимать каждый владелец сайта. Без этих базовых знаний невозможно будет создать сайт, который принесет пользу его владельцу и посетителям сайта.

Итак, определение:

Поисковая оптимизация (англ. search engine optimization, SEO) — работа по увеличению целевого трафика с поисковых систем за счет улучшения позиций сайта в поисковой выдаче.

Обращаю внимание на детали в этом определении:

Речь идет о целевых посетителях. Т.е. о тех посетителях, которые нужны на сайте с точки зрения целей сайта.

Речь идет о трафике с поисковых систем, а не о самих позициях сайта в выдаче. Обычно считают, что достаточно улучшить позиции в выдаче, но это часто не приводит к увеличению числа посетителей. Как получается, что позиции хорошие, а трафика нет, я поясню ниже.

Речь идет именно о поисковом трафике, а не о трафике с поисковых систем за счет контекстной и другой рекламы, размещаемой на поисковых системах.

Ну и обратите внимание на слово работа. Надо уточнить, что речь идет о долгом и кропотливом труде. Современные поисковые машины — сложные, капризные, медлительные, инерционные и очень глупые. Требуется много времени и сил, пока удается им втолковать, какой сайт надо показывать на первой странице 😉

Поисковая оптимизация является одним из самых распространенных способов продвижения сайта.  Те, кто выполняют эту работу, называются оптимизаторами, специалистами по продвижению или SEO специалистами.

Как работает поисковая машина

Поисковая машина, точнее ее поисковый робот приходит на сайт по найденной им ранее ссылке и скачивает в базу данных всю страницу целиком. Найденные на ней ссылки поисковый робот посетит в свой следующий визит на сайт. Робот ходит не часто. Например, робот Яндекса появляется на сайтах по три-четыре раза в месяц, если это только не новостной сайт.

Затем (обычно, в течении нескольких дней) специальная программа делает анализ загруженной страницы. Скачанная страница подвергается довольно подробному анализу. Алгоритм анализа поисковой системы держится в секрете. Но точно известно, что алгоритм очень сложный, учитывает тысячи факторов, имеет элементы обучаемости (с помощью операторов) и, похоже, до конца не понятен уже даже самим создателям. Результат анализа загруженных страниц называется поисковым индексом и представляет собой базу данных, по которой и происходит поиск.

Итак, еще через несколько дней происходит обновление поискового индекса, в котором и ищутся ответы на поисковые запросы пользователей. В Яндексе это обновление называется апдейтом, и происходит это примерно раз в семь дней. Гугл обновляет поисковый индекс ежедневно.

Алгоритмы поиска часто уже не подконтрольны даже самим разработчикам

Алгоритмы поиска часто уже не подконтрольны даже самим разработчикам

Пользователь заходит на страницу поиска и набирает нужное ему словосочетание — поисковый запрос. Поисковая машина ищет в индексе сайты, на которых встречается данное сочетание. Страница с результатами поиска называется поисковой выдачей. Все найденные сайты сортируются по соответствию запросу — ранжируются по релевантности. В этой сортировке и состоит сама суть работы поисковой системы.

Многим оптимизаторам хотелось бы знать алгоритм сортировки поисковой выдачи, но, вообще-то, знать его не обязательно, и уж точно это знание не дало бы им в руки никаких серебряных пуль. Судите сами — алгоритм меняется раз в пару месяцев. Перед его сменой десятки, а то и сотни операторов занимаются обучением этой программы на бета версии и продолжают его обучать на рабочих серверах. Позиция каждого сайта в выдаче зависит не только от самого сайта, но и от позиций остальных сайтов. Даже зная алгоритм, никто точно не сможет воспроизвести его работу, для этого пришлось бы построить вторую поисковую систему, загрузить в нее ровно все загруженные сайты и обучить ее точно так же. Те, кто смог смоделировать работу Гугла теперь называют себя Яндексом. :-) Шучу, но в каждой шутке, есть только доля шутки. 😉

Про алгоритм ранжирования поисковой выдачи (алгоритм определения релевантности) точно известно, что он состоит из трех частей.

1. Анализ самого сайта. Так называемое, внутреннее ранжирование. Анализируются только текстовые материалы сайта (поисковые системы пока не распознают графику и, тем более, видео). Анализируются сотни параметров: как часто различные слова упоминаются в обычных абзацах, в заголовках, в подписях к рисункам, в тексте ссылок, какие слова выделяются курсивом или жирным текстом, насколько слова близко расположены к началу страницы и т.д.

В основном, логика понятна. Если над текстом стоит заголовок «правила перевозки грузов», то в этом тексте что-то написано о перевозке грузов и о правилах.

В общем, основные факторы внутреннего ранжирования известны. О них очень важно помнить при создании сайта.

2. Анализ входящих ссылок или ссылочное ранжирование — анализ внешних ссылок на сайт, т.е. ссылок с других сайтов. Ссылочное ранжирование стало признанием разработчиками того факта, что поисковые машины у них получаются слишком глупыми, чтобы самим понять, насколько хорош текст на сайте. Поэтому они полагаются на мнение, высказанное на других сайтах. Высказыванием мнения они считают размещение ссылок, ведущих на сайт. Чем больше ссылок, тем авторитетнее сайт. Ссылки с авторитетных сайтов еще авторитетнее.

Здесь соображения такие. Текст ссылки и текст вокруг нее дают понять поисковой машине, о чем та страница, на которую ведет ссылка. Например, если на сайт ведет ссылка со слов «Читайте там про правила перевозок грузов«, то там что-то говорится о правилах и о грузах.

3. Учет поведенческих факторов. Это еще одно свидетельство неспособности поисковых машин оценить качество страниц сайта. Вместо того, чтобы делать оценку релевантности страницы, поисковые машины наблюдают за поведением пользователей на этой странице. Источником информации о поведении является подглядывание за пользователями через брендированные браузеры (например, Яндекс-Браузер или Гугл-Хром), через плагины для браузеров (Напр., Элеменыт от Яндекса или дополнительная панель от Mail.ru), через счетчики на сайте (например, Яндекс Метрика), а также анализ поведения пользователя на странице поисковой выдачи.

Логика ранжирования по поведенческим факторам следующая. Если пользователь сделал запрос на поисковой машине, перешел по ссылке на сайт и остался там надолго, то, видимо, сайт его заинтересовал. Если пользователь сразу закрыл найденную страницу и снова вернулся на поисковую машину, то предложенный сайт не является релевантным запросу.

При всей очевидной простоте этой оценки, ее полезность, тем не менее, сомнительна, т.к. в разные моменты поведение пользователей разительно отличается. Например, при ценовом сравнении человек находит на сайте цену и тут же уходит с него. Если же он сразу цену не нашел, то ему приходится задержаться на сайте, чтобы разобраться, где там цены. Т.е. при такой оценке получит преимущество сайт с запутанной навигацией и бестолковой подачей информации. К сожалению, мы часто такое видим в поисковой выдаче. 

Как работают специалисты по продвижению

На самом деле, у алгоритмов поисковых машин есть еще одна значимая составляющая — оптимизаторы. Не надо делать вид, что по сочетанию, например, «сувенир» или «окна» хотя бы один сайт смог попасть на первую страницу Яндекса без участия оптимизаторов.

В выдаче Яндекса по слову «сувенир» уже несколько лет нет словарей, объясняющих значение слова (кроме Википедии), нет Демиса Русоса с его хитом, нет ничего про память, нет даже про то, как делают сувениры — только о том, где купить.

В выдаче по запросу «пластиковые окна» нет ссылок про устройства пластиковых окон, нет стандартов, нет руководств по монтажу и изготовлению — только, где купить. Большая область человеческих знаний свелась только к торговле.

Результат поиска по запросу "пластиковые окна" - анонимный рейтинг оптимизаторов

Результат поиска по запросу «пластиковые окна» — анонимный рейтинг оптимизаторов

Такие страницы — это как будто рейтинг оптимизаторов. Жаль, что анонимный. Как бы не «улучшались» алгоритмы поисковой машины, на первых страницах всегда будут те сайты, у которых лучше работают оптимизаторы. Поэтому в среде SEO есть поговорка, что «поисковая выдача становится релевантной только благодаря оптимизаторам«. Это опять шутка, немного грустная.

Особенно грустно, если поисковая машина занимает доминирующее положение, как сейчас Яндекс в России. Из-за своей популярности он становится объектом манипуляций поисковой выдачей. Все меньше остается слов, по которым можно найти в Яндексе что-нибудь, кроме рекламы. Именно поэтому Яндекс — плохая поисковая машина, плохая с точки зрения пользователя. Русский Гугл значительно лучше (примерно в два раза), а Mail.ru в 10 раз лучше, чем Яндекс, т.к. в 10 раз менее привлекателен для коммерческого продвижения. Это потому, что Яндекс обслуживает 59% поисковых запросов, Гугл 34%, а Mail.ru только 6%.

Но Яндекс зато очень хорошая площадка для размещения рекламы. И его, Яндекс, похоже, устраивает реклама в результатах поиска.

Так как же работают оптимизаторы, не зная алгоритмов поисковых машин? Попытаюсь объяснить простыми словами, т.к. пишу не для специалистов, а для заказчиков поискового продвижения.

Поисковая машина для внешнего наблюдателя выглядит, как черный ящик. «Черный ящик» — это такой термин в теории обработки сигналов. У черного ящика есть сигнал на входах и на выходах. На входе интернет — на выходе поисковая выдача. Давно известно, что, чтобы описать работу черного ящика, не надо знать его устройство. Надо знать, как меняется его выход, если на вход подавать разные сигналы.

Поисковая система как "черный ящик"

Поисковая система как «черный ящик»

Оптимизаторы постоянно экспериментируют. Они воздействуют на входы поисковой системы и следят за результатом. Один вход — наполнение сайта, второй вход — внешние ссылки на сайт, третий — поведение пользователей сайта (да, его тоже можно менять), и еще один  вход поисковой системы — ее служба поддержки. Довольно трудно воздействовать на поисковую систему через эту «службу», медленную, некомпетентную и очень чванливую (особенно у Яндекса), но если пробить их сопротивление, то внутри поисковой машины что-то переключается, и позиция сайта меняется скачком.

Пример эксперимента

Оптимизаторы увеличивают частоту ключевого слова на сайте и следят, как меняется его позиция в поисковой выдаче. В художественной литературе двукратное повторение выражения в одном произведении — тавтология, 1-2% от общего числа слов — это наша обычная речь, 4% — это занудный учебник, 6% — это преподаватель читает лекцию. Увеличиваем частоту ключевого слова — позиция в поисковой выдаче растет. 10-12% — позиция еще растет, но придумать такой текст уже сложно — это уже гипноз, а не рассказ. 12-15% — сайт исчезает из выдачи, т.к. включилась защита от поискового спама.

Эти эксперименты довольно медленные и трудоемкие. Для некоторых экспериментов создаются тысячи сайтов, да и в повседневной работе хороший оптимизатор постоянно экспериментирует на свой страх и риск.

Раньше оптимизаторы прятали результаты экспериментов от авторов алгоритмов поисковых машин, т.к. поисковые машины боролись с оптимизаторами. Авторам алгоритмов хотелось, чтобы поисковая машина сама формировала «честную» выдачу, а оптимизаторы эту выдачу пытались изменить к своей выгоде.

Теперь ситуация меняется в сторону большей открытости. Оптимизаторы публикуют результаты своих экспериментов на доступных форумах, а последнее время еще и в своих блогах. Обсуждают эти результаты с авторами поисковых машин. А те, в свою очередь, начали признавать допустимость продвижения сайтов. Специалисты Яндекса рассуждают в публичных высказываниях в таком духе, что, раз кто-то тратит средства на продвижение сайта, то значит сайт полезен его пользователям, если по покупным ссылкам тоже могут переходить люди, то значит покупные ссылки тоже можно использовать.

Руководитель отдела веб-поиска компании Яндекс А.Садовский: «ситуация с платными ссылками нам подконтрольна и на сегодняшний день — не мешает пользователю».

Поисковые машины начали обрастать службами и сервисами для оптимизаторов, участвуют (конечно, не напрямую, а финансово) в работе ссылочных бирж, участвуют в конференциях по оптимизации.

Появилось много вспомогательных услуг для продвижения. Не только счетчиков и анализаторов, но и биржи продажи ссылок, продажи статей, биржи продажи сообщений в блогах. Часть из этих сервисов финансируется теми же, кто финансирует поисковые машины. В результате, создана целая индустрия по продвижению сайтов, в которой поисковые машины тоже участвуют в получении доходов.

Естественно, что доступность информации по поисковому продвижению сильно облегчает подготовку SEO специалистов. Пока в вузах эту специальность еще не преподают, но это вопрос нескольких лет. Книги на эту тему уже печатаются.

Анализ эффективности поискового продвижения

Как можно оценить эффективность продвижения, выполняемого и планируемого? Ну, раз продвижение — это увеличение трафика, то надо поделить затраты (деньги и время) на результат (поисковый трафик). Получится показатель стоимости целевого посетителя через поисковое продвижение.

Не смотря на очевидное удобство такого подхода, он не очень распространен.

Обычно исходят из того, что, «разумеется, хорошо бы оказаться в первых строках на странице поиска». Думают, что посетитель в поисковой машине введет, например, «грузовые перевозки», увидит в первых строках сайт, клик — он на сайте, клик — он на странице контактов, и уже звонит в отдел продаж. Поэтому обычный договор на продвижение включает в себя перечень ключевых слов, по которым сайт должен быть на первых позициях.

На самом деле, полезность от такого договора довольно сомнительна и чем дальше, тем она становится меньше.

Во-первых, ключевые слова обязательно надо оценить с точки зрения их востребованности. В момент составления договора оптимизатор заинтересован в том, чтобы включить в него наименее конкурентные слова. У этих слов, как правило, низкая частота запросов. В результате ваш сайт окажется на первых позициях по запросу, который очень редко ищут. Следовательно, трафик от такого продвижения будет небольшой.

Например, я видел договор, в котором сайт транспортной компании продвигался по запросу «таможенное оформление грузов на россию» с частотой ажно 7 раз в месяц! Ни одной продажи этот запрос, разумеется, не принес.

Поэтому обязательно надо прилагать к договору не только список слов, но и частоты запросов этих слов. Благо, поисковые машины публикуют эти частоты. Т.е. весь договор надо оценивать по суммарному количеству запросов в месяц.

Во-вторых, если ссылка оказывается в первых строчках поисковой выдачи, то совсем не факт, что по ней будут кликать. Это парадоксально, но вероятность клика ссылки в поисковой выдаче с каждым годом падает все ниже. Люди ищут ссылки, но все меньше кликают на них! Сейчас вероятность клика на первой странице колеблется от сотых долей процента, до несколько процентов.

Последите за собой, сколько вы ссылок нажимаете? Часто ни одной, а просто перефразируете запрос.

Даже при поиске по названию компании, когда сайт искомой компании находится в первой строчке выдачи, вероятность клика по моим наблюдениям составляет всего 16%! Т.е. кликает один из шести человек. Вот очень интересно, что такое искали и не нашли остальные пять из шести? Чего они ждали? 😉

Для тех клиентов, которые это понимают, подошли бы договора на продвижение с оплатой за поисковый трафик. Такие договора предлагают уже довольно многие фирмы по продвижению. Но цены в этих договорах, обычно, не привлекательные. Я бы назвал их заградительными.

Так что придется в договор (или в план работ оптимизатора) записать позиции, но при этом полезно оценить и спланировать трафик.

Доля переходов с поисковых машин по данным статистики LiveInternet. Красный - Яндекс, черный - Google, голубой - Mail.ru

Доля переходов с поисковых машин по данным статистики LiveInternet. Красный — Яндекс, черный — Google, голубой — Mail.ru

Измерить поисковый трафик довольно просто любым популярным счетчиком. Требуйте от вебмастера установки счетчика на сайт и он-лайн доступа к отчетам. Например, очень удобен счетчик Яндекс Метрика. Он умеет выделять поисковый трафик.

Планировать поисковый трафик сложнее. Приблизительно можно считать, что это будет суммарная частота запросов, умноженная на вероятность клика в пару процентов.

При планировании поискового трафика надо учесть, что результаты продвижения появятся через пять-шесть месяцев. Слишком медленно поисковые машины индексируют тексты и  ссылки в интернете.

Реальный пример

В одном из заключенных мною договоров на продвижение был записан десяток словосочетаний с суммарной частотой запросов примерно двадцать тысяч. Стоимость такого договора составила около двадцати тыс. рублей в месяц. Через полгода работы, в результате успешного исполнения договора, наконец появился поисковый трафик в количестве пятьсот посетителей в месяц. А суммарное количество посетителей с поисковых машин за эти пол года составило не более полутора тысяч. Т.е. каждый посетитель обошелся в 80 рублей.

Прогнозируя такую работу, надо учитывать, что вероятность исполнения договора по продвижению примерно 50-70%. Т.е. сайт, скорее всего, попадет в топ не по всем словам. И при подготовке упомянутого договора была возможность, что каждый посетитель обойдется примерно в 115-160 рублей. Т.е. эту цену нужно было принять за вероятный прогноз.

Цена посетителя при поисковом продвижении оказывается сравнимой или даже выше, чем при баннерной рекламе, при всей ее неэффективности и дороговизне. И тем более, поисковый трафик оказывается в несколько раз дороже, чем при контекстной рекламе. Прибавьте к этому еще то, что поискового трафика приходится ждать по несколько месяцев, а время — тоже деньги!

В следующие пол года после вывода сайта в топ поисковый трафик обойдется дешевле. Договор выполнен успешно, поэтому его надо продлить, т.к. надо удерживать сайт на первой странице выдачи. Устоявшаяся позиция в выдаче обеспечит стабильные пятьсот посетителей в месяц, что будет обходиться в 40 рублей за посетителя.

Трафик, может быть, даже еще увеличится за счет того, что подрастут позиции сочетаний из семантического окружения — низкочастотных сочетаний, близких к списку продвижения, но по которым продвижение не заказывалось. Но и в этом случае средний посетитель обойдется не дешевле 20-30 рублей.

Хозяйке на заметку!

Одновременно с упомянутым договором по продвижению выполнялась контекстная реклама сайта в Яндекс Директ. По тем же ключевым словам стоимость одного клика на объявлении оказалась 13 рублей, т.е. в два-три раза дешевле, чем при поисковом продвижении!

Часто заказчики себя утешают тем, что эффект от поискового продвижения должен бы сохраниться на длительное время, что можно делать поисковое продвижение пол года, а потом прекратить усилия по продвижению.

Это было верно несколько лет назад, но совсем не верно сегодня. Теперь сайт уходит с первой страницы выдачи через один-два месяца. Ну а чего еще можно ожидать, если у конкурентов работают оптимизаторы, и им заказаны именно те места, которые занимает ваш сайт?! К тому же покупные ссылки существуют, только пока за них платят. Так что после окончания цикла работ по улучшению поисковых позиций приходится платить за «поддержание» достигнутых результатов.

Прочитайте также статью о формировании цен на поисковое продвижение, чтобы узнать подробнее, какие могут быть варианты оплаты по договорам на SEO.

Понравилась статья? Поделитесь!

4 комментария

  1. […] Несколько лет назад Яндекс сообщал об экспериментах по поведенческому ранжированию результатов поиска. Напомню, что широко известны два вида ранжирования поисковой выдачи – внутреннее (оценивающее релевантность сайта) и ссылочное (в зависимости от ссылок на сайт) […]

  2. Алексей:

    Если честно, немного прифигел от таких цен за оптимизацию, 80 рублей за посетителя это непозволительно дорого.
    Статья интересная, но под конец все опять свелось к серым и черным методам оптимизации.
    По мне так оптимизация сайта должна быть такой, что:
    1) Пользователю самому удобно и понятно становится работать с сайтом. Чтобы сайт удовлетворял цели, которую преследует пользователь. Это самое главное.
    2) Сайт предоставлял поисковику правдивую информацию о том, каким содержимым он обладает. Без клоакинга, без перенасыщения ключевыми словами, без всей этой мишуры.
    При этом title, description, h1 и ЧПУ заполнены так, чтобы
    а) В выдаче поисковики их использовали для сниппета
    б) Пользователь, видя сниппет, быстро понимал, что это именно та страница, которая ему нужна
    3) Эффект от этих действий был долгосрочным и в последствии только улучшал позиции сайта

    Остальное все — это трата времени, денег и порча своей кармы обманом клиента, поисковика и пользователя.

    Возможно таким подходом много бабла не срубишь. Возможно в топ по высокочастотным словам никогда не попадешь.
    Но на своем небольшом опыте скажу, что сайты, которые я оптимизировал такими методами твердо держат верхние позиции без моего дальнейшего участия. Иногда, конечно, бывает, что какая-нибудь контора перебивает первые позиции, но обычно это ненадолго, видимо 80 рублей за клик для них многовато =D

    • Алексей:

      Еще замечу, Рунет сплошь наполнен статьями о том, как поднаебать поисковики всеми возможными способами, а англоязычные ресурсы уже давно ушли от этого и дают советы, как сделать свой сайт лучше для пользователя в первую очередь.

Написать отзыв