Привет, друзья. Пишу вам прямо из поезда, специально выпросил у проводников удлинитель, чтобы подключиться к сети и написать пост на злобу дня. О чем пойдет речь, вы уже поняли – о поведенческих факторах и их метриках. Вообще я очень не хотел писать на эту тему никаких постов, ведь уже не только все seoшники, но даже люди отдаленные от seo об этом начали писать. Одним словом – попса какая-то получается!
Так – закономерный вопрос – что же сподвигло меня написать данный пост. Так как в поезде делать особо нечего более чем 2 суток, то я читал посты с блогов, которые давно сохранял на телефоне в замечательную программу Pocket (бывший ReadItLater, так что если у вас Android, обязательно обзаведитесь этой программой). Так случилось, что очень много постов было про поведенческие факторы, и не от кого-то, а от достаточно успешных блоггеров. А еще подлил газолина в огонь не так давно появившийся на публике новый сервис по накрутке ПФ – movebo.ru – создатель которого пригласил на тест за отзыв блоггеров, зачислив какие-то деньги на баланс (кажись, 1000р, этого должно хватить на пару недель). Сразу оговорюсь, я сам этот сервис не юзал, но по отзывам, которые стали появляться как грибы, типа работает. Да ладно, опять не о том речь.
Прочитал я все сохраненные посты от разных блоггеров и…мягко говоря, я не согласен с ними. Ребят, вы под копирку друг у друга пишите что ли? А эксперименты проводили по влиянию метрик? Как будто, однажды, услышав или увидев список метрик, все приняли их за достоверные факты, а подумать забыли…
В общем так, я не собираюсь спорить или кого-то лажать (как говорил Форест Гамп – кто дурак, то сам знает), я собираюсь здраво поразмыслить, обсудить эти самые метрики и высказать свое мнение, почему они должны работать или не работать.
Поведенческие факторы и их метрики
Итак, предлагаю составить список тех самых показателей (метрик), которые подразумеваются под Поведенческими Факторами, и, может быть, как-то на них влияют:
- Глубина просмотра (или количество просмотров страниц за сессию)
- Время пребывания посетителя на сайте
- Показатель отказов
- CTR сайта в выдаче
- Возврат к выдаче
- Разнообразие источников трафика на сайт
- Социальная составляющая
- Возвраты на сайт или повторные визиты
- Что-то еще?
Этот список — первое, что приходит в голову, а потому вроде логично, что все эти показатели должны влиять на отношение поисковых систем к вашему сайту. То есть, улучшая показатели по этим факторам, мы будем расти в выдаче. По крайней мере, все так и пишут, приводя при этом почти такой же список.
Я в посте не собираюсь рассказывать, как улучшить тот или иной показатель. Я собираюсь взглянуть на эти самые поведенческие факторы глазами поисковых систем, их алгоритмов и математики вообще. Поехали!
Глубина просмотров
Проще говоря – это количество страниц, которые просмотрел посетитель, зайдя на сайт. Количество просмотров на посетителя нам может сказать любой счетчик. Давайте под счетчиками будем подразумевать самые распространенные – LiveInternet, Яндекс.Метрику, Google Analytics. Бытует мнение, что поисковики собирают, анализируют и применяют в своих алгоритмах показатели счетчиков (например, Яндекс использует Метрику). Но это не совсем так, а чаще совсем даже не так. Как на счет того, что на сайте нет никаких счетчиков, что делать в таком случае? Применять к такому сайту какое-то значение, так называемое среднее по больнице, составленное на основании данных окружающих в выдаче сайтов-конкурентов? Да ну нафиг, не просто и не логично. Или как на счет того, что количество просмотров страниц вашего сайта больше, чем у конкурентов, не значит ли это, что пользователь просто не может найти нужную информацию? Или опять смотреть среднее значение и принимать на его базе решение о «награждении» сайта или наоборот «наказании»? Все это очень сомнительно. Поехали дальше.
Время проведенное на сайте
Длительность просмотра сайта пользователем — почти такой же показатель как и глубина просмотров, то есть никакой. Что реально дает поисковику эта метрика – пользователь читает информацию или просто открыл вкладку и ушел на обед? Тут так же для снятия данных необходим счетчик, следовательно, поисковик не имеет прямого доступа к данными и не может определить их достоверность. Сложные и ненужные расчёты, которые в итоге слабо коррелируют с понятием релевантности и полезности сайта.
Показатель отказов
Вот про эту метрику упомянул каждый, кто писал про поведенческие факторы. Ребята, я удивлен и обескуражен – вы пишите полную ерунду. Даже сам Google официально писал, что никак не учитывает данный показатель при ранжировании. Мало того, Google вообще писал, что никоим образом не используют данные счетчиков GA для своих алгоритмов. Ладно, проехали, возможно, это прозвучало неубедительно и нужны еще факты.
Когда вы смотрите на статистику сайта в Метрике, вы очень расстраиваетесь, что показатель отказов у вас на уровне, скажем, 80%? А код счетчика обновляли? Там уже очень давно появилась галочка «Считать реальный показатель отказов». Классическим отказом является просмотр посетителем только одной страницы сайта, вне зависимости от времени проведенном на странице (к слову, в Google Analytics до сих пор именно так и считает отказы). Но установив в Метрике пункт реальных отказов, все меняется в корне – теперь отказ это просмотр страницы не дольше 15 секунд. На всех моих сайтах после обновления кодов счетчиков отказы упали с 70-80% до 20-30%. И что, теперь мой сайт стал лучше в три раза вот так на ровном месте, а Яндекс должен меня поощрить? Ну да, ну да, надейтесь…
Случай с отсутствием счетчиков на сайте даже рассматривать не будем, все повторяется, как и в предыдущем пункте про глубину просмотров.
CTR сайта в выдаче
Вот тут уже начинается интересно! Если на рассмотренные выше показатели мы можем более или менее активно влиять, то на CTR сайта в выдаче мы повлиять не можем, разве что косвенно (например, привлекательный сниппет). Решение нажать или не нажать на заголовок в выдаче все равно принимает только пользователь. Самый что ни наесть человеческий поведенческий фактор!
И заметьте, никакие счетчики тут не нужны, метрика одинаково справедливо собирается поисковиками для всех сайтов, участвующих в ранжировании. Что еще важнее с точки зрения поисковых алгоритмов – точных данных по CTR у вас нет, ни один счетчик их не предоставляет, зато у поисковых систем есть стопроцентно верные данные для этой метрики. Сбор статистики по CTR идет для первых трех страниц выдачи (т.е. ТОП 30), во-первых, это сильно экономит требуемые вычислительные мощности, во-вторых, дальше третей страницы почти не бывает кликов. Все гениальное просто…но не для нас, seoшников :(
И как это работает? Очень просто – всем нам давно известен алгоритм Матрикснет, который сам себя обучает. Таким образом, для каждого запроса (возможно, группы запросов или даже тематики) существует некоторая матрица показателей нормы CTR в зависимости от позиции. Например, по какому-то запросу кликабельность первого места 30%, второго 20%, пятого 10%, а девятого 8%. Эти показатели не взяты случайно, они собраны алгоритмом и постоянно корректируются, но держатся в каких-то рамках. Исходя из этого, можно сделать вывод, что если сайт на седьмом месте имеет CTR равный 17%, то ему будет постепенное «повышение» со стороны ПС, до тех пор, пока он не займет место в соответствии с матрицей. Разумеется, мной приведен идеальный случай в вакууме, чтобы было понятно, что к чему и почему.
Возврат к выдаче
Следующая очень важная и интересная метрика – возвращение пользователя к выдаче и дальнейший поиск ответа на свой вопрос. Если в предыдущем пункте про CTR поисковик какбы «выбирает» какой сайт более релевантный, а какой чуть менее, то в случае с возвратами к выдаче можно сделать вывод о том, что какой-то сайт оказался совсем нерелевантным, раз пользователь продолжил свои поиски.
Тут важно не путать понятия: процент отказов – это одно, а возврат к выдаче – совершенно другое! Подмена понятий, это страшная вещь, которая плодит непонимание и связанные с этим дальнейшие ошибки. Будьте внимательны!
Продолжим. Возврат к выдаче я считаю самым важным и мощным среди поведенческих факторов. Давно известный факт – продвигать страницу по запросам, на которые она ответить не сможет – это фатальная ошибка. Мало того, что не добьетесь результата, так еще и подпортите свою репутацию в глазах поисковых систем. Как и в случае с CTR, поисковики имеют полный расклад по данным возвратов, а мы с вами можем лишь догадываться и строить гипотезы.
Технически просчитать эту метрику на стороне сервера поисковика несложно – достаточно отслеживать активность пользователя в течение сессии. И да, на этот показатель мы тоже никак не можем повлиять (речь конкретно о нерелевантной странице запросу пользователя).
Источники трафика и социальные факторы
Факт, что разнообразие трафика на сайт это всегда хорошо. Переходы из закладок, а так же повторные визиты на сайт говорят о качестве и полезности сайта в целом. Наличие групп в соцсетях со ссылкой на сайт, активность в этих группах, лайки, твиты и т.д., это тоже замечательно и полезно. Только вот это все не имеет никакого отношения к поведенческим факторам. Да, посетители не из поиска обычно более лояльны и ведут себя внутри сайта более правильно с точки зрения обозначенных выше поведенческих метрик, но не более того. Это должно положительно сказываться на доверии к сайту в целом, за счет чего возможен рост позиций, но это уже не поведенческий фактор.
Пора делать выводы
Пришло время резюмировать вышесказанное. Сразу предупреждаю – то, что написано выше, это только мое мнение, и вы можете с ним не согласиться. Но все выводы основаны на простой логике, здравом смысле и моих экспериментах.
Основной вывод – поисковые системы отдают максимум внимания только тем показателям, которые им достоверно известны, которые можно одинаково посчитать для всех сайтов и на которые сложнее всего повлиять. То есть действия пользователей на выдаче (читай, на стороне поисковика) можно считать самыми важными поведенческими факторами – это CTR заголовка и возврат на страницу результатов.
Эксперимент в студию
Я несколько раз упоминал слово эксперимент, пришло время его озвучить. Эксперимент не был запланированным, но тем не менее его можно считать показательным. Однажды у меня возникла потребность в общении с тех поддержкой Яндекса по поводу ранжирования одного из моих контентных сайтов. Дабы не вызывать лишних подозрений и не навлечь на себя беду я решил подготовиться – удалил всю рекламу, тизеры и прочие вещи, которые могут неоднозначно восприниматься ребятами из Яндекса.
После «чистки» все внутрисайтовые поведенческие метрики резко улучшились – глубина просмотров и время на сайте увеличились в два раза, показатель отказов сильно снизился. Что еще для счастья надо! Это счастье продлилось целых две недели, а в итоге я получил ровным счетом ничего! Так называемые поведенческие апдейты в Яндексе бывают в среднем каждые 3 недели, а в Google вообще апдейт динамический. В общем, двухнедельные изменения на сайте должны были хоть как-то сказаться на ранжировании. Но увы, этого не случилось – а мои выводы подтвердились.
Есть и второй эксперимент. Даже не эксперимент, а шаг на пути улучшения сайта. Для Google это расширенный сниппет, для Яндекса – вызывающий favicon.
Изменения сниппетов в Google сказалось почти моментально! Во-первых, кликабельность резко выросла даже при неизменных позициях в выдаче, за счет чего я получил приток трафика. А во-вторых, впоследствии я стал наблюдать и рост позиций даже по тем запросам, которых никогда не было, и по которым я не продвигался.
Что касается Яндекса, то тут как всегда пришлось долго ждать. Смена фавикона для сайта в результатах поиска заняла целый месяц. И мне кажется, это дало свои результаты – раньше, чтобы я ни делал, Яндекс не любил мой сайт, ну не хотел делиться трафиком и все тут. Но через какое то время после обновления иконки я стал наблюдать небольшой, но стабильный рост. Рост посещаемости за счет более высокой кликабельности, т.е. CTR. Не берусь утвержать, что это именно favicon так повлиял, но и без него, мне кажется, тут не обошлось.
Вот такие вот исследования, друзья, которые отлично иллюстрируют мою теорию относительно поведенческих факторов и степени их влияния.
Теперь я жду ваших отзывов, комментариев, ваших наблюдений и результатов собственных экспериментов. Тема очень актуальная и интересная, поэтому в наших обсуждениях может родиться что-то новое полезное!
Чисто моё мнение, что по максимуму влияют только те факторы, которые сеошнику сложно отследить — процент возврата в выдачу (ещё спорно) и CTR (для меня беспорно). Из чего это я высосал — была у меня одна полулевая страница из разряда и выкинуть жалко и смотреть больно, так вот она мне портила всю статистику — отказы (по глубокой) более 40, глубина 1,1, время 0,15. Однако за счёт частотности запроса и хорошего сниппета она находилась в топ 10 и никак не хотела вниз, привлекая пользователей, но реально не отвечая их требованиям, пока сам не удалил, что и помогло исправить стату.
А чем же все-таки эта страница насолила то? Ну и пусть подпортится немного статистика в целом, за счет других страниц этого будет не заметно. Да и лучшим решением было бы сделать ее более подходящей под запросы, по которым на нее попадают, хотя это только в случае если эти запросы вписываются в концепцию сайта.
И да, после удаления этой страницы что-нибудь изменилось вообще? Я как-то сомневаюсь...
В том-то и дело, что малеко запрос выпадал из стратегии развития сайта
Александр, мы можем отследить CTR в выдаче нашего сайта при помощи Яндекс вебмастера. Еще в голову пришел такой показатель как время между кликом на твой сайт в выдаче и следующим кликом на другой сайт в выдаче. По-моему это косвенно, но показывает заинтересованность пользователя сайтом (сколько времени пользователь изучал сайт).
А еще последний клик в выдаче. Указывает на то, что пользователь нашел что искал.
А насчет влияния CTR в выдаче у меня есть неоспоримые данные и я на днях собираюсь написать об этом пост.
Я предвидел такой вопрос, про данные CTR в панели вебмастера. Только вот толку от этих данных ноль! Во-первых, там задержка 2 недели, а за это время все может поменяться. Во-вторых, там ограниченное количество запросов показывается, всего 40 шт., что при большом сайте совсем несерьезно. В-третьих, инструмент неудобный, недоработанный, как мне кажется.
Последний клик в выдаче — это как раз и определяется метрикой возврата в выдачу. Если пользователь не вернулся, то есть не кликал никуда в выдаче, значит он нашел ответ, а если вернулся к результатам, значит ответ его не устроил.
PS Скинь потом ссылку на пост про CTR.
Это всё относительно. Я, например, когда что-то ищу в выдаче, сразу открываю несколько сайтов, и закрываю выдачу. Если я открою 10 сайтов, и буду просматривать все постепенно, то до последнего могу добраться и через час. А потом сразу его закрыть, потому что он окажется для меня бесполезным. Как такое можно учесть? :)
В том то и дело, что все данные относительные, но некую логику в них можно найти. Мы ж не будем делать один утвердительный вывод по тому, что вы открыли 10 сайтов таким способом.
Ну открыли 10 сайтов, значит каждый из них получил +1 клик, то есть вы никак на ранжирование внутри этой десятки не повлияли. Если выдачу сразу закрыли, значит не будет ни одного возврата в нее, опять же никакого влияния это не оказало.
Все объяснимо с точки зрения технологий, и ничего сложного :)
А то, как ведут себя пользователи в выдаче, знает только Матрикснет. Все ведут себя по разному, но есть какой-то общий паттерн, на основании которого можно делать выводы.
Т.е. мои действия ни на что не повлияли и поисковики их не учли? Вот вам и учет поведенческих факторов. :)
Совершенно очевидно, что всё учесть невозможно. А значит, это всё равно, что измерять среднюю температуру по больнице. Конечно, и на таких данных можно делать какие-то выводы, но делать из этого правило я бы не стал. А ПСы делают и заставляют всех подчиняться этим правилам. Где же эта хвалёная свобода интернета? :)
Читайте внимательно, я написал "вы никак на ранжирование внутри этой десятки не повлияли". Другими словами, вы оказали одинаковое влияние на каждый из этих сайтов.
думаю не многие поступают как вы )
Точно! И, думается мне, все поисковики ориентируются на "б0льшую часть" пользователей, которые ищут так, что без слёз не взглянешь. Честно говоря, для меня это вообще больной вопрос: на мой взгляд, современное развитие поисковых систем выглядит так уродливо в глазах технически грамотных людей только потому, что все поисковики стараются удовлетворить большинство (которое думать не хочет, а хочет всё и всё сразу). Поэтому и SEO-шникам сейчас так тяжело: они разбираются со статистикой и алгоритмикой, а корень зла — нацеленность "на большинство".
Поддерживаю Makar ибо ищу точно также, сразу открываю по 5-10 сайтов.
Да все так делают! И при этом учитывается поведенческий фактор "время на сайте"?
Отличный пост! У меня примерно такие же мысли по поводу ПФ. Кейсы познавательные, в любом случае стоит их помнить, что бы в нужное время применить.
Но хотелось бы добавить чуть своих идей по поводу ПФ:
А именно, что касается "Возврата в выдачу"
Я думаю, что есть метрика "возвращение на сайт" после поиска. Причем возвращение что не наесть весомый фактор в поведении пользователя.
Например я искал "золотые слоны" посетил 7 сайтов.
Через некоторое время (Просто другая поисковая сессия) я ввел запрос "золотые слоны" и сразу перешел на определенный сайт. Т.е. этим самым я указал, что это качественный сайт имеющий полный ответ на запрос — полезный сайт. Только на нем я нашел ответ и для себя запомнил его, что там удобно.
Так же интересно можно подумать над метрикой: Посетил первые 5 сайтов, а потом ввел уточняющий запрос. Что это значит?)
Интересно, а если, скажем, попросить друзей забивать в поиске интересующие меня поисковые запросы и в выдаче кликать на мой сайт, независимо от того, на каком месте в выдаче он находится. Таким образом можно поднять сайт в выдаче? :)
Я говорил в посте, что поведенческие факторы учитываются только для первых трех страниц выдачи. Это раз.
Во-вторых, опять же я говорил, что существуют некоторые поведенческие паттерны (шаблоны), которые составлены на поведении множества реальных пользователей. А поэтому, если постоянно заходить из выдачи только на свой сайт и не на какие другие, то это вряд ли покажется естественным поведением.
Почему для первых трех страниц, не соглашусь.
Если на сайте стоит счетчик яндекса, то он отследит и с 10 страницы и добавит веса сайту, если ПС поймет что сайт понравиться для пользователя.
Не соглашайтесь, ваше дело :)
Причем тут Метрика, если мы говорим о страницах выдачи? Предлагаю вникнуть в тему чуть подробнее, а потом спорить.
насчет "Возврата в выдачу" не ясно как отслеживать что это снова именно я кликнул на этот сайт?
Не могу сказать ничего про метрику "возвращение на сайт после поиска". Но в данном рассматриваемом случае первый раз вы оказали влияние на 7 каких-то сайтов, Яндекс это учел. Что вы делали на этих сайтах, это ваше дело :) В следующей поисковой сессии вы, введя тот же самый запрос, перешли только на один сайт, следователь положительное влияние оказали только на него.
Все укладывается в изложенную мной теорию, без лишних метрик, типа "повторное возвращение на сайт после поиска".
А если допустим пользователь решил купить ноутбук. Ввел соответствующий запрос. Зашел на первый сайт, посмотрел, вернулся в выдачу, зашел на второй сайт, посмотрел, вернулся в выдачу, на третий и т.д. Т.е. он просто сравнивает цены, это же ведь ни как не говорит о том что эти сайты плохие, пользователь просто сравнивает. Какой то из сайтов он может добавить в закладки и допустим через день купить на нем ноутбук. Т.е. по сути сайт оказался ему полезным но для поисковой системы ПФ подпорчены, так как пользователь с него возвращался в выдачу? Или допустим пользователь перебрал таким образом 5 сайтов, сравнил цены, на пятом он не стал возвращаться в выдачу, а просто закрыл его, потом перешел на тот сайт что открывал вторым, допустим из закладок, т.е. получаем что пятый сайт, тот с которого пользователь в выдачу не вернулся для ПС будет лучшим, он как бы ответил на запрос пользователя, но для пользователя на самом деле второй оказался лучшим, он там купил ноутбук. Думаю идея понятна ))) Я к тому что кроме CTR сниппета, остальные метрики кажутся какими то спорными. Возможно их поисковые системы и учитывают, но непонятно как.
Никто и не сказал, что такое, описанное вами, поведение поисковик считает "плохим". Есть статистика поведения, которую собирает и в дальнейшем использует Матрикснет. И если все ведут себя примерно так же, как вы описали, то это считается нормальным поведением, и в этом случае отличное от этого поведение будет не нормальным.
Не надо забывать, что для каждого запроса или тематики свои критерии и свои значения один и тех же метрик.
Спасибо за отличный пост — один из немногих стоящих на тему.
Небольшое дополнение, теоретически поисковикам достаточно учитывать лишь небольшую, статистически значимую группу пользователей, чьи предыдущие действия на выдаче сочтены опрадаными по какому то признаку (например процент возврата на выдачу в прошлом должен попадать в какой то диапазон) . Это было бы разумно для борьбы с накрутчиками и ботами.
И небольшое дополнение — патент гугла по поведенческой оценке качества поиска, подан в 2004 утвержден в ноябре прошлого года, на случай если кому то интересно. http://www.google.com/patents?id=aYj9AQAAEBAJ&pg=PA6&lpg=PA6&dq=8065296&source=bl&ots=K79559DdQc&sig=jvGlxqvPaGpIJeazTgqVITpgm9A&hl=en&sa=X&ei=-R4IUMjeE9DP4QTI2tm1BA&ved=0CDMQ6AEwAA#v=onepage&q=8065296&f=false В общем смысле подтерждает описаное в статье.
В целом статья не плохая, но в общем то повторяет всё то, что есть в сети, и что, в общем то, подсказывает здравый смысл.
У меня пара вопросов.
Так называемые поведенческие апдейты в Яндексе бывают в среднем каждые 3 недели, как вы определяете поведенческий апдейт?
Это счастье продлилось целых две недели, а в итоге я получил ровным счетом ничего! может быть мало 2 недели?
Кроме метрики на самом сайте есть Яндекс бар, да, не у всех пользователей, но наверное хватает, что бы сделать определённые выводы по сайту.
По второму эксперименту в случае с Яндексом, как то мутно... на каких позициях был запрос, какой запрос, за этот месяц вообще ничего не делалось? сразу, как появился фавикон, сразу увеличился CTR? на сколько увеличился? сколько было?
и на сколько после этого запрос поднялся. Может он просто поднялся, потому, что время прошло... сайт новый/старый факторов очень много, а мяса нет.
А может статья из разряда заказных, скрытый маркетинг......
подлил газолина в огонь не так давно появившийся на публике новый сервис по накрутке ПФ – movebo.ru – создатель которого пригласил на тест за отзыв блоггеров, зачислив какие-то деньги на баланс
Вообще-то я никак не определяю поведенческие апдейты, я просто знаю что примерно раз в месяц они бывают. Но если хотите конкретики, все на том же пресловутом movebo.ru есть информер.
По второму эксперименту нет цифр. Но я знаю динамику роста посещаемости моего сайта, а потому точно могу заметить где, как и когда она изменилась. Связать обновление favicon и посещаемость не сложно, что я и сделал.
А про скрытый маркетинг — да ну нафиг, не шутите так, у меня на блоге нет ни одной рекламной или заказной статьи, хотя мне их предлагают разместить (за деньги, разумеется), но я отказываюсь. Предпочитаю выражать только свое мнение на страницах моего блога.
Александр, спасибо за статью! Выходит, ПФ не так и сильно влияют на ранжирование? А есть ли какие-то данные по явному положительному влиянию ПФ на выдачу?
Из чего был сделан такой вывод, что "ПФ не так и сильно влияют на ранжирование"? Мне казалось, что я как раз об обратном заявлял... Не?
Очень хороший пост, который наконец-то прояснил для меня фразу "Яндекс не учитывает ПФ в традиционном понимании сеошников". Несколько раз читал такую фразу от уважаемых людей, но не мог понять в чем соль. Теперь понимаю, спасибо.
Может быть не совсем в тему поста, но вопрос околотематический:
Саш, не в курсе, как увидеть выдачу по запросу без учёта поведенческих факторов?
На seolib когда-то замутили такую псевдопроверку. Как я понял, там просто используется запрос вида "{поисковый запрос} -~&^%ihrtl4jh", что совсем не похоже на правду.
К сожалению нет, кроме корявого "{поисковый запрос} -~&^%ihrtl4jh" вариантов не знаю, а этим давно не пользуюсь, так как это, действительно не похоже на правду.
А при чём тут фавикон? Как влияет вообще на что-либо? Не понял конца самого.
Да, как-то я не проговорил конкретно, но, мне кажется, это очевидно — привлекательный favicon увеличил кликабельность, то есть CTR в выдаче.
А как же активность пользователя на сайте??
Я всегда считал — что ПФ улучшается, если пользователь активно ведет себя на страничке (водит мышкой, кликает, скроллит, вводит текст и т.п.) — т.е. цель развивать интерактив.
Я точно где-то читал статью-эксперимент — типа, страничка ранжировалсь выше в выдаче за счет того, что пользователи ее часто сроллили.
Так же в каком-то сервисе видел, что можно смотреть позицию с учетом ПФ и без учета (если кто найдет приведите ссылку).
Скроллы на странице!? Вздор, с какого перепугу поисковик должен это учитывать, а вдруг у пользователя нервный тик :)
На сеолибе такой сервис был, но он не показывает реальной картины. Это так, баловство и не более того.
"Исходя из этого, можно сделать вывод, что если сайт на седьмом месте имеет CTR равный 17%, то ему будет постепенное «повышение» со стороны ПС, до тех пор, пока он не займет место в соответствии с матрицей"
Как-бы круто. Ну да, берем сайт, который висит на 7 месте и имеет CTR 17%. Скажем, что CTR 17% должен иметь сайт, который висит на 5 месте. Ну и перешлет яндекс его туда, какие проблемы. И вот, типа, на 5 месте у сайта CTR и будет 17% всю жизнь? Да ну, бред, ты что. Естественно, CTR повысится, и станет, скажем, 21%. А для 21%, например, соответствует 4 место. И что? Яндекс то переправит, хорошо. Но так, каждый сайт может вылететь в топ-1 без проблем.
Да и CTR может внезапно колебаться. Какие проблемы.
> И что? Яндекс то переправит, хорошо. Но так, каждый сайт может вылететь в топ-1 без проблем.
В топе будет тот, у кого CTR выше, при прочих равных. В чем проблема то?
> Да и CTR может внезапно колебаться.
Матрица значений изменяется с течением времени, но это длительное время, а не день-два. Ты как будто с математикой не дружил никогда — приведи к среднему и все колебания пропадут.
Полезная статья. Много читал про ПФ, но теперь все стало на свои места.
У меня пару вопросов:
1. Правда ли, что сервисы статистики (напирмер, Li) сливают за деньги Яндексу инфу о ПФ'ах, таким образом получая информацию о действиях посетителя на сайте?
2. Учитывает ли Яндекс поведенческие, снятые с помощью Я.Бара?
1. Само даже такое предположение мне кажется бредом. Тем более у Яндекса есть Метрика. Ну и плюс, раз уж разговор о ПФ, то Li не собирает никакие данные о поведении пользователя, ну разве что количество просмотренных страниц и внутренние переходы.
2. Я об этом уже говорил. Бар собирает статистику и данные о пользователях и их действиях, только я не думаю, что эта статистика применяется к ранжированию сайтов выдаче. Тут мы не рассматриваем персонализацию выдачи.
Хорошее интервью Майку Шакину. Букаф, действительно, много, но написано интересно — не заметил, как дочитал, и как за окном стемнело. :) Твой блог наконец-то в моём ридере, раньше я на него неоднократно из выдачи попадал.
Ребят, вопрос касательный к теме: как можно повлиять на сниппет в Google? Тайтл он упорно не выводит, а берет части с текста статьи, при чем не всегда нужные?
Про сниппеты в Гугле написано уже очень много, воспользуйтесь Гуглом для поиска :)
А то, что в заголовке выводится не всегда тайтл страницы, то Гугл пытается выдать более релевантный заголовок. Часто зачем-то подставляет название сайта в заголовок, я такое замечаю.
Но я этот вопрос целенаправленно не изучал, так что конкретных данных у меня нет :(
> В топе будет тот, у кого CTR выше, при прочих равных. В чем проблема то?
Да это все так. Но я тебе составил схему, как можно вылететь в топ.
"Скажем, что CTR 17% должен иметь сайт, который висит на 5 месте. Ну и перешлет яндекс его туда, какие проблемы. И вот, типа, на 5 месте у сайта CTR и будет 17% всю жизнь? Да ну, бред, ты что. Естественно, CTR повысится, и станет, скажем, 21%. А для 21%, например, соответствует 4 место. И что? Яндекс то переправит, хорошо. Но так, каждый сайт может вылететь в топ-1 без проблем. "
Просто как-то идея с CTR не сильно гениальна...
Занятые в копаниях не отражающих реальность цифрах вы теряете истину. Забудьте про них и думайте головой, как сделать ваш сайт лучше. Цифры здесь ни о чём не говорят, так как они выдраны из глобальной картины, о которой нам неизвестно.
Ч-ч-ч-ётки н-н-н-адо???
Все гениальное просто, не так ли?
Если ты мне составил схему, как вылететь в топ, то попробуй ее и применить на практике, и сам увидишь ;)
АлаичЪ, привет!
Можно я прокомментирую коротко и по филосовски: я знаю, что ничего не знаю. (Сократ)
Ибо ПФ это неизведанное без реальных данных статистики.
P.S. Алаичъ, честно, хочется "паление тем" или интересных экспериментов, а не давно размусоленных тем. Давай угля стране!
Ломайте меня полностью! :)
P.P.S. Кстати, те ТИЦ дали :) Уже 70, ну ты блин тематичный!
ПФ может и неизведанное, но вот мы тут и изведываем.
PS Какое тебе паление тем надо? О чем ты говоришь! Вся тема в том, что надо делать банальные и давно известные всем вещи — внутренняя оптимизация и улучшение сайта. Это прекрасно работает, и раньше работало, и в будущем всегда будет работать!
Если что-то конкретно хочешь узнать — конкретно спрашивай.
PPS Слушай, ты курнул что ли?
Наконец-то что-то свежий взгляд. Спасибо!
Как сделать расширенный сниппет? Все лишь ссылаются на сайт Шарма.орг или как-то так. Но как внедрять весь этот код и куда нифига не ясно...
Погугли, об этом многие уже писали. Да в конце концов зайди сюда — http://www.google.com/webmasters/tools/richsnippets
Надо будет только немного применить мозги :)
"Ребят, вы под копирку друг у друга пишите что ли? А эксперименты проводили по влиянию метрик? Как будто, однажды, услышав или увидев список метрик, все приняли их за достоверные факты, а подумать забыли…"
Так это даже к бабке гадалке не ходи... Сплошные пСЕвдО блогеры, мать их так, скомуниздят чужой пост и под себя выдают, а начинаешь что то спрашивать в тему так либо ответа не дождешься либо тупо удаляют твой вопрос.
Печалит одно, таких много, а это часто мешает найти толковый блог с нужными советами, приходится рыться в таком мусоре в поиске нормального и правильного ответа.
И самое смешное если начинаешь сравнивать их советы(посты и прочее) с тем что творится на их же блоге...чур меня, чур...
У Гугла есть хром, у Яндекса Я.Бар, поэтому поисковики могут ДОСТОВЕРНО определять поведенческие факторы. Но все же я считаю, что ПФ имеют очень и очень незначительное влияние на ранжирование.
Если быть точнее, то они должны дополнять все остальные факторы, должна создаваться общая картина релевантности сайта из всех факторов ранжирования.
P.S. А где кнопка «твитнуть»?
Окей, пусть ПФ имеют "очень и очень незначительное влияние", тогда какие факторы имеют более значительное влияние?
Общая картина и так создается из многих сотен факторов, это давно и всем известно.
PS Кнопочка есть в конце поста.
Я же сказал, что ни один из факторов не имеет значительного влияния на ранжирование, влияет только совокупность всех факторов.
P.S. Хм, странно, но твоя кнопочка "Твитнуть" почему то блокируется плагином Adblock Plus, притом что FB, G+ и ВК нормально отображаются.
Есть факторы более значимые, а есть менее. Так вот ПФ я причисляю к более значимым. Но ты можешь не согласиться, я не настаиваю.
Интересные заключения о ПФ, но когда-то помню был скандал с Гуглом, что он выдал в поиске секретные страницы какой-то фирмы, и оказалось что Гугл как-то считывает файлы куки с браузера и таким образом узнает о страницах которых не должно быть в поиске. Если таким образом поступают и другие поисковые системы, то разобраться в поведенческом факторе гораздо проще — надо собрать все куки со всех браузеров и отфильтровать их по сайтам , а уж там будет понятно кто и сколько находился на сайте и какие страницы смотрел. Если исходить из такого алгоритма, то это только дело времени собрать эту инфу, поэтому ваш срок 3 недели с улучшением числа отказов и др. маловат для Яндекса, ему надо дать примерно месяцев 2-3, тогда и увидите результат, другое дело что ждать слишком долго. вы за это время кучу других экспериментов наставите и все перемешается.
На счет куки это полный бред, почитайте о том, что такое куки и все станет на свои места. А с помощью браузера Chrome Гугл может помогать себе в индексации страниц, это не секрет.
Думаю это вам надо почитать что такое куки. Например Вики http://ru.wikipedia.org/wiki/HTTP_cookie, а это текст оттуда "Таким образом, куки могут быть опасны только в плане деанонимизации и слежения за действиями пользователя".
Аналогичное здесь http://citforum.ru/internet/html/cookie.shtml и аналогичный текст "Cookie используются для таргетинга рекламы (определения целевой аудитории, например, по географическому положению пользователей), отслеживания интересов пользователей, учета количества показов и проходов сквозь баннеры."
И по логике понятно, что следить за сесией каждого пользователя, вернется от обратно к поиску или нет, слишком накладно, зачем это делать если можно у него прочитать куки и получить инфу о всех сайтах сразу, которые посещал пользователь.
Вы критикуете поведенческие факторы, а сами говорите о привлекательном снипете в поиске как о поведенческом факторе, в то время как поведенческий фактор начинается не с привлечения пользователя на сайт, а поведения его на самом сайте, если он щелкнет по красивому сниппету а потом сразу уйдет с сайта, это ли не признак спама?
И возврат обратно к поиску ничем не лучше, длительности. А если я не возвратился к поиску только потому что надоело искать или как вы говорите пошел на обед и закрыл поиск? Просто невозможно учесть все возможное поведение пользователя и здесь как раз уместна средняя температура по больнице. То есть берется поведение среднего пользователя и через него рассматривается ваш сайт. Естественно что при усреднении отклонения неизбежны, поэтому иногда в ТОП попадают говносайты и наоборот из него вылетают хорошие сайты. Ведь алгоритм фильтра один на всех, одна надежда на самообучение, но это дело времени, а его как раз нету.
Уважаемый автор, а как Вы относитесь к высказываниям многих вебмастеров по поводу того, что использование на сайте Яндекс.Метрики(кнопка) ухудшает позиции сайта в этой ПС? Некоторые предпочитают ею пользоваться(считая, что это приносит пользу в индексировании страниц ресурса и прочих положительных моментах, другие выдают диаметрально противоположные мнения... Наверное это как-то связано с ПФ: у кого плохие, тот и жалуется. Ваше мнение?
Про Метрику есть отдельная статья https://alaev.info/blog/post/3785
Увы, но эта статья практически не дает ответа на мой вопрос. Статей, подобной этой, полно в инете, да я и сам создал несколько мануалов на своих ресурсах по поводу того, "как правильно писать статьи" , "попасть в ТОП", "продвижение сайта под пингвином".
Да, яндекс метрика очень неплоха для анализа качества сайта в плане посещаемости и прочих показателей. Но, предположим, что сайт представляет из себя первый из приведенных вариантов в упомянутой статье. Мне представляется, что таким сайтам(как правило молодым) лучше отказаться от ее использования. Чтобы себе же не навредить.
А что изменится если сайт постареет этак на годик. ПФ улучшится? Или метрика покажет лучшие результаты?
Делайте сайты удобные для людей и тогда не придется использовать серые или черные методы.
А для этого анализируйте лучшие сайты своей и смежных ниш. Помечайте что удобно, а что нет и на основании этих пометок корректируйте свой сайт. Конечно же плюсом будет уникальный сервис или услуга, но минимум по анализу конкурентов должен быть реализован.
Вот именно это я и делаю. Во всяком случае стараюсь. Знаете как я вышел на Ваш блог? Цепочка: некто добавил меня в круги, потом из его ленты вышел на статью некоего блога, название которой меня заинтересовало, потом проверил беки блога, среди которых была ссылка на ваш ресурс...:)
"А что изменится если сайт постареет этак на годик. ПФ улучшится? Или метрика покажет лучшие результаты" — а почему бы нет??? Разве может сразу новый блог быть на хорошем счету у ПС, что там покажет метрика, если контента еще мало? Нет, ЯндексМетрику нужно устанавливать, когда почувствуешь, что твой ресурс посещаем по поисковым запросам и прочим критериям. А это нарабатывается не сразу и даже черные методы не помогут, скорее наоборот.
Я так думаю :)
Подпишусь на Ваши обновления, что-то мне понравилось здесь.
Лично я считаю, что это все бредни, на счет того, что якобы Метрика что-то портит. Есть подозрения и мысли, что Яндекс, увидев не самые лучшие показатели сайта в Метрике, может его понизить. Но это не доказано, да и не понятно, что есть на самом деле "не самые лучшие показатели".
Я не стесняюсь Яндекса, на все свои сайты, в том числе только что созданные, ставлю и Метрику и Google Analitycs и LiveInternet. Сайты живут долго и счастливо!
Вывод один — делаешь хорошие сайты, значит все будет хорошо не смотря ни на что.
PS Ваш путь, по которому вы попали на мой блог, совсем нетривиальный :)
А я думал, что многие используют такой способ изучения качественных ресурсов :). Что ж, надо будет поделиться им на страницах своих блогов :)
По Метрику спросил — получил ответы в высказанных мнениях. Спасибо, приму к сведению.
Но устанавливать у себя не стану. Тут вот еще рамблер подключил: в качестве эксперимента, хотя одно время им пользовался; буду сравнивать с имеющейся.
У меня подозрение, если вы не устанавливаете метрику, значит сомневаетесь в качестве ваших сайтов. А значит нужно разобраться с сайтами, а не думать ставить или нет метрику.
Ваши подозрения совершенно напрасны.
Вы тут все такие умные. А как на счет сайтов , на которых посетитель не задерживается больше минуты. Знайте , что есть сайты на которых посетитель даже пол слова не хочет читать. Тупо ему надо зайти на сайт , найти инфу и вон оттуда. Я не горжусь этим, но я сам создал сайт , еле найдя время на это. И он сейчас работает нормально.
Мы тут все тупые, как вы уже могли заметить, сидим семки щелкаем да пиво попиваем...
Фрид, он и есть фрид...
Из экспериментов. Улучшение боунс рейт давало до +15% поискового трафа на гугле.
Пруф будет?
Крутил поведенческие факторы в юзераторе. Настраивал на переходы в ручном режиме, 20 переходов в день.
Не изменилось вообще ничего, так и остался на 28 позиции. Деньги только зря выбросил, а ручные переходы не дешевые.
чувак выдает вашу статью за свою, http://prt56.ru/seo/povedencheskie-faktory-chto-istinno-chto-lozhno.html
рерайт правда, но при прочтении видно, что списано под копирку
А как сервисы по улучшению ПФ влияют на выдачу, не знаете? Есть ли толк ими пользоваться?
Не знаю, ни разу не пользовался и не планирую.
Поисковики уже давно устроены намного сложнее чем выше описано.
Кеи и выдачи, классифицированы тематически, в каждой тематике свои настройки.
В развлекательных тематиках контентом может считаться картинка, а основной вес могут нести социальные сигналы.
А для какой нить "юридической консультации" нужны будут объемные посты и ссылки.
Именно также привязан и поведенческий фактор, в одних темах одни критерии жесткости, в других другие.
Глупо думать, что первое, что придет на ум и есть алгоритм поисковой системы.
Не могу не согласиться, полностью поддерживаю ваше мнение!
Может ли рассматриваться как поведенческий фактор размещение комментариев и оценок о товарах, отзывов на сайте, вопрос-ответов?
Как вы считаете — сайт с email, но без формы обратной связи менее полезен чем с email и формой обратной связи?
Да, любое взаимодействие — это, так или иначе, поведенческий фактор.
Форма связи или e-mail не определяют ценность сайта. Но что-то из этого должно быть, желательно и то и другое. Просто с точки зрения здравого смысла и удобства.
по нашему опыту, "рулят" кликовые поведенческие — Ctr сниппета на выдаче и показатель возвратов на выдачу. Внутренние поведенческие на сайте оказывают меньшее влияние на ранжирование.
А на основании чего, если не секрет, Вы сделали вывод о том, что у Яндекса каждые 3 недели апдейт поведенческих?
Свой человек, уважаю.
Сам недавно писал о поведенческих факторах http://vsepro100.net/povedencheskie-faktory-ranzhirovaniya/, включив здоровую логику и наблюдательность, и устроил небольшой разбор полетов. Если сложить моё мнение о них и ваше, то получается здоровый вывод — поведенческие факторы оцениваются в совокупности.
Если считать, что кликабельность на выдаче одним из ведущих показателей, то что получится? Многообещающий сниппет+тайтл и делов-то? Люди жмакают и жмакают — тут же делая ноги с ресурса, где нету ответа на вопрос (хотя на выдаче казалось, что это то, что нужно) и показатель отказов и схожие показатели вступают в силу.
На счет возврата в выдачу — очень спорно, как этот показатель понимать. Когда я ищу информацию о чем-либо я посещаю большое количество разных сайтов, чтобы собрать как можно больше инфы и отсеять бред. И что получится, что первый сайт (на котором возможно и была информация в полном объеме) плох? Или взять пример с поиском такси... Прошарил я 20 сайтов в поиске интересующего ценника. Но цена за услуги ведь не определяет качество сайта?..
Все же, кажется, что ПФ оцениваются в комплексе =)
Автору спасибо!
Отлично. Но, по большому счёту, можно долго думать, что и кто учитывает. Но толку мало. Нужно думать, что делать с сайтом. Получается, что поработать, по большому счёту, можно над нужным пользователем материалом, сниппетом, фавиконом и, может быть, способами удержания на сайте?
Да статья интересная, многое знал, что-то приобрел, но я все равно понять не могу по каким критериям счетчики могут учитывать показатель, отказав на моем ресурсе? И, конечно же как поднять глубину просмотра на сайте?
Благодарю за ценные мысли в статье.
У меня уточнение и вопрос: Яша и Гугл все время бьются надо оценками UI сайтов, т.е. насколько быстро информация на сайте и выстроенный интерфейс дадут решение вопроса, по запросу из поиска. Ведь это прямое влияние на ПФ. (вспомните ранжирование у Гугла по принципу "нет мобильной версии — вон из топа"). Поэтому тестирование и "допиливание" интерфейса must have. Естественно контент просто обязан быть релевантным запросу в ПС.
И второе: Скорость загрузки сайта, первый байт от сервера, и отображение "сырого контента" на первой странице до того как загрузится дизайн — так же влияют на "закроет ли ваш сайт сайт юзер, так и не дождавшись загрузки, если на другом сайте уже появился контент (хоть и сырой) по этому же запросу в поиске". Считаю это такое же прямое влияние на ПФ.
И на эти параметры очень даже можно и нужно влиять. В отличии от сниппета на поиске, который "варится" Роботами по своим "рецептам". Я как бизнесмен уверен в том, что важно прикладывать усилия в ясные и понятные инструменты, которые дадут прирост в конверсии сайта.
P.S. Хотя влиять на сниппет это прекрасно, но нет гарантии, что он будет таким как задумали мы.
На счет favicon, пожалуй соглашусь. Что-то он дает. После его изменения и правда чутка прибавилось трафика на сайте. Но все-таки логически я не могу понять, как именно данное изменение влияет на это.
Здравствуйте, меня постоянно волнует один вопрос, что важней на сайте (в моем случае "загрузка программ"). Возьмем, к примеру, релевантные запросы «скачать бесплатно программу "тут название"»
Заголовок полностью отвечает запросу, и страница, в целом, тоже. Вот тут и вопрос, важней текст с большим количеством символов или все таки сам файл который ищет пользователь?
По сути сайт релевантен всеми своим страницами, но с гугл трафика нет вообще уже год, хотя все страницы в индексе.
С Яндекса очень мало трафика, поэтому постоянно терзают смутные сомнения, тексты уникальные в районе 1000 в среднем символов, ссылка на файл на видном месте о чем подтверждает вебвизор.
Ответ прост. Что важнее для тебя: руки или ноги? Вот и в случае с сайтом тоже так — важно и то, и другое. Почему обязательно надо выбирать, вот это мне не понятно.
Если есть какие-то сомнения и неуверенность, что и как делать, поступаем очень просто — задаем целевой запрос в Яндекс или Гугл, смотрим сайты из топ-10 и находим схожие черты, отмечаем это и применяем на своем сайте. А самое главное — не придется гадать, выбирать и т.д.