За последние годы внимание к поведенческим факторам намного увеличилось. С помощью ссылок сложнее продвигаться, а за некоторые сегодня можно получить фильтр. Выдача стала намного конкурентней, поэтому необходимо найти незаспамленный фактор ранжирования. Существующие поисковики обнаружили его значительно раньше, чем оптимизаторы, но на данный момент проблема заспамленности сигнала стремительно приближается к уровню ссылочной проблемы. Поэтому возникает необходимость принятия активных мер со стороны систем поиска относительно накрутчиков.

Поисковая система Яндекс много раз предупреждала владельцев сайтов не пользоваться обманными методами. Некоторые сервисы попадали под горячую руку новейших алгоритмов. А перед праздником Нового Года Яндекс сделал подарок для вебмастеров: резко снизил позиции именно за использование накрутки поведенческих факторов. В том случае, если даже вебмастера перестают накручивать и искренне каются в сделанном, то время ликвидации фильтра точно неизвестно, и согласно некоторых источников, может затянуться практически на год и более.

Аналогичным является фильтр “Пингвин” в Google, из-за него пострадала существенная часть интернет-бизнеса.

Нужно и важно улучшать поведенческие факторы. Но есть некая грань, как и в любых видах seo-техники, которая может давать сигналы поисковым системам о ваших планах. Хотите ли вы развивать всемирную сеть и оказывать помощь пользователям наиболее оптимально решать возникающие задачи. Возможно, наоборот, не привносите абсолютно ничего полезного в сеть и хотите стать над всеми теми, кто хочет и приносит пользу? Естественно, накручивать ПФ можно различными способами и при постоянной борьбе автоматизаторов (не путайте с оптимизаторами) с поисковыми системами возникли различные технологии. Каждая из них пытается ликвидировать недостатки предыдущей и называться “белой” техникой.

01

Где этот рубеж, через который нельзя переступать, чтобы не оказаться под фильтром Яндекса за накрутку поведенческих? Думаю, что он довольно размыт. Даже информационная служба поддержки поисковика не даст вам ответ на данный вопрос. Кроме того, эта граница может время от времени смещаться (чаще именно в черную сторону). Ниже предлагаются несколько вариантов, каким способом поисковики имеют возможность находить накрутчиков, проводя анализ разных доступных им сигналов.

Десять способов нахождения накрутчика ПФ:

1.Используются одинаковые IP-адреса кликеров

Как правильно определить интернет-адреса ботов и пользователей с ПО, с которых делаются клики? Для этого вполне достаточно зайти в известную систему по оптимизации поведенческих факторов, чтобы сделать тестовый проект с маркерным запросом. Затем выследить помеченные запросы в своей поисковой выдаче. В течение одной недели можно узнать IP адреса, которые замешаны в обманной уловке и дальше использовать с целью анализа поведения и обучения алгоритмов. По IP-шникам также возможно собрать общий пул запросов, по которому накручивают поведенческие.

2.Витальные запросы со «спаленных» IP

Специалисты в области оптимизации стараются улучшить брендовую составляющую любого поиска. Для этого в систему добавляют витальные накрутки (или их еще называют навигационные запросы). Они со спаленных IP-адресов имеют возможность напрямую уведомлять поисковые системы, кто именно занимается мошенничеством.

3.Использование сервисов Яндекса с отмеченных IP

Есть системы накрутки, которые позволяют прикручивать Яндекс.Метрику, осуществляя вход в нее через собственные IP-адреса, давно помеченные поисковиками. В таком случае уменьшается вероятность забанить своего конкурента с помощью накрутки поведенческих, так как только владелец ресурса имеет доступ к своим сервисам.

4.Использование кликерами Яндекс.Бара, Яндекс.Браузера

Одним из способов «спалить» и пометить кликера является выявление чересчур активного использования известных сервисов накрутки ПФ с помощью собственного браузера или Яндекс.Бар.

5.Наблюдение за реферером

Некоторые системы делают перенаправку пользователя на поисковые результаты по продвигаемым запросам, при этом стараясь его вернуть на сайт накрутчика. В таком случае, при перенаправлении, полностью хранится реферер (с какого сайта пришел конкретный пользователь), а по нему можно определить, стоит ли брать во внимание поведение такого посетителя в алгоритмах.

6.Отсутствие достижения целей

В определенный период целевой трафик на портале может увеличиться (при накрутке ПФ), но при этом возможность достижения целей останется прежней. Настройка может быть сделана в Яндекс.Метрике. Он является хорошим источником сигнала, что с трафиком портала что-то не так.

7.Прирост количества посещений без изменений на самом сайте

В том случае, когда поисковики не фиксируют абсолютно никаких изменений на портале, то органический трафик может увеличиться лишь тогда, когда сменится алгоритм (об этом прекрасно знают поисковики) или кто-то из конкурентов, находящийся выше в ТОПе, опустился вниз. Если ни одного с перечисленных вариантов не произошло, а органический трафик ресурса возрос по несезонным запросам, то ресурс моментально можно заподозрить в искусственной накрутке поведенческих и сделать дополнительный анализ, прежде чем его забанить.

8.Обычные действия посетителей

Разработаны различные методы для выявления дубликатов в кликстриме. Они ранее использовались с целью надежной защиты от кликфрода в контекстной рекламе. Те же самые методики могут использовать для органической выдачи.

9.Слабое распределение устройств или браузеров

Если отфильтровать настоящих пользователей от ботов и тех, кому сделали предложение установить ПО, то будут совершенно разные картины. Сильный перекос такого распределения в статистических данных портала может тоже стать сигналом накрутки.

10.Средняя длина сессии вместе с другими шаблонными факторами

Есть возможность обучать систему на небольшом помеченном участке, определяя шаблоны в поведении. Главное, чтобы не допустить ошибки в том, кто заказал такое поведение.

Бывает, что под «горячую руку» попадают совершенно безобидные сайты.

Можно сделать вывод, если поставить конкретную задачу по выявлению накрутчиков, то это сделать не так уж сложно. За три года Яндекс достаточно далеко продвинулся. Наилучшим вариантом будет поиск новых методов улучшения этого сигнала.