Поиск

Что нужно знать об алгоритме Google Panda?



Google Panda — алгоритм ранжирования контента Google, запущенный в феврале 2011 года. Основная функция фильтра состоит в оценке качества содержания сайтов. Так, с помощью алгоритма Google составляет и корректирует рейтинг релевантных веб-сайтов в поисковой выдаче, а также борется со спамом.

Система была разработана для автоматического удаления из результатов поиска некачественных и неоригинальных страниц. Благодаря фильтру пользователь видит контент, наиболее точно отвечающий его запросам, и не тратит время на просмотр ресурсов, которые созданы для агрессивного seo-продвижения.

Google Panda является частью главного алгоритма поисковой системы, включающего в себя множество фильтров — Hummingbird (“Колибри”). В “Колибри” также входят система искусственного интеллекта RankBrain, антиспам алгоритм Penguin, “борец” за авторские права Pirate и другие.

Как работает Google Panda?

Алгоритмы фильтрации действуют с целью улучшения качества поисковой выдачи для пользователя. Сайты с низким качеством контента и высоким показателем плагиата автоматически исключаются из топа. Чем полезнее ресурс, тем выше его позиция на странице результатов поиска.

Так, существует ряд внутренних факторов, на которые Google Panda реагирует в первую очередь:

  • Качество текста.
  1. Уникальность
  2. Грамотность. Минимальное количество стилистических и орфографических ошибок.
  3. Объем. Страницы с большим количеством контента занимают более высокие позиции в выдаче.
  4. Чрезмерная заспамленность ключами может привести к понижению в рейтинге.
  • Ссылки. Ссылки не должны вести на блокированные или малопосещаемые сайты.
  • Поведенческий фактор.
  1. Время, которое пользователь провел на сайте
  2. Количество переходов
  3. Цитирование
  4. Правильность перелинковки
  5. Процент отказов

Понять, есть ли фильтр, не сложно. У сайта с высокой посещаемостью сильно падает трафик из Google, у молодых сайтов в течение длительного времени наблюдается практически нулевой трафик.

Как избежать фильтрации?

Существует несколько критериев к контенту на сайте, следуя которым, риск попасть под фильтр снижается.

  • Качественный контент:
  1. Соответствует запросу пользователя и содержанию информации. Google предпочитает статьи, которые отвечают на общий запрос и дают полное представление о нем.
  2. Оригинальный. Поисковая система не приветствует дублированный и скопированный контент.
  3. Без использования перепрофилированного материала. Техническая уникальность не единственное, на что следует обратить внимание. Публикации, повторяющиеся между собой по смыслу, также будут понижаться в поисковой выдаче.  
  • Ориентир на пользовательский интерес. Виральность — важный аспект оценки пользователей. Алгоритм Google Panda высоко отмечает страницы с большим количеством лайков, репостов, комментариев и отзывов. Кнопки соцсетей, блок с комментариями, UGC ссылки — все это повысит заинтересованность юзеров на сайте.
  • Разумная реклама. Количество рекламы не должно превышать объем информационного контента. Навязчивые объявления и активные push-уведомления оттолкнут пользователей, а фильтр отреагирует на негативный поведенческий фактор.

Как узнать, попал ли ресурс под алгоритм Google Panda?

Представители Google не раскрывают информацию о специфике ранжирования сайтов и санкциях. Таким образом, поисковая система исключает возможность искажения результатов поисковой выдачи seo-оптимизаторами. Поэтому, seo-специалистам сложно определить по каким причинам ресурс попал под фильтр. Однозначно можно сказать, что при попадании под алгоритм происходит падение органического трафика на сайте с высокой посещаемостью и снижение позиции в поисковой выдаче.

Как вывести сайт из-под фильтра?

Если ресурс понижается в рейтинге результатов поиска, следует применить следующие действия:

  • Удалить или сократить нерелевантный контент: спам, навязчивую рекламу, уведомления, ссылочную массу.
  • Оптимизировать структуру сайта для удобства пользователя. Алгоритм реагирует на проблемы с архитектурой ресурса. Страница должна быть понятной, логичной и не вызывать трудностей у юзеров.
  • Использовать уникальный контент. Не следует удалять ресурс, даже если алгоритм признал материал низкокачественным. Дополните его актуальной информацией, а старые публикации закройте от индексации. Алгоритм приветствует указание ссылок на источники. В этом случае, он не опустит сайт в рейтинге поисковой выдачи.
  • Проверить сайт на соответствие запроса и содержания материала. С помощью Google Search Console можно проанализировать запросы и посмотреть какие публикации снижают трафик на сайте. Такой контент следуют заменить или удалить.

Высокий CTR наглядно

Читайте также

Как повысить CTR?