Время прочтения: 9 мин.

Почти каждый месяц Google обновляет алгоритмы. Так или иначе, новые изменения отражаются на результатах выдачи. Какие алгоритмы можно считать самыми важными? За последние годы таких набралось несколько. Рассмотрим алгоритмы Google, которые существенно повлияли на формирование выдачи. На основе этой информации вы сможете проанализировать состояние своего сайта и выявить проблемы, из-за которых возникают трудности в продвижении.

Панда (Panda)

Google Panda — это алгоритм, целью которого является понижение ресурсов наполненных контентом низкого качества.

Он был запущен в феврале 2011 года. Фильтр Панда помогает обнаружить страницы со спамным и неуникальным контентом, выявляет сайты, на которых информация дублируется или содержит множество ключевых слов.

Google панда алгоритм

В январе 2016 года Panda включили в основной алгоритм, хотя до этого времени он использовался как обычный фильтр Гугла. Сейчас апдейты Панда не анонсируются. Обновления проводятся очень часто, поэтому можно считать, что алгоритм функционирует в реальном времени.

Что не любит Google Панда?

  1. Дублированный контент, который используется на одном сайте;
  2. Плагиат;
  3. Переспамленный запросами контент;
  4. Автоматическая генерация;
  5. Малый объем контента;
  6. Плохой пользовательский опыт;
  7. Спамные комментарии пользователей.

Что можно сделать для защиты?

  1. Проверить уникальность. Если вы сами пишите тексты, это не гарантирует высокую уникальность. В любое время их могут украсть. Периодически проверяйте контент, оценивая его уникальность. Если вы используете технические описания, которые невозможно уникализировать, то добавляйте хотя бы уникальные фото и видео, а также полезные отзывы.
  2. Ищите дубли. При использовании многих CMS на сайте создаются страницы с одинаковыми заголовками и H1. Проанализируйте структуру своего ресурса, чтобы выявить такие ошибки. Уберите дубли или закройте их от индексации.
  3. Оцените соотношение контента и рекламы. Google не любит, когда на странице мало полезного текста, но много рекламы. Надо дополнить страницы качественным контентом, чтобы Панда нормально восприняла ваш сайт.

Пингвин (Penguin)

Google Penguin — алгоритм, который понижает позиции сайтов, манипулирующих ссылками.

Пингвин был запущен в апреле 2012 года. На текущий момент этот алгоритм обновляется в реальном времени. Он действует против сайтов, для продвижения которых используются неестественные ссылки. С 2016 года Penguin стал частью основного алгоритма.

Пингвин гугл алгоритм

Что не любит фильтр Пингвин?

  1. Неестественные анкоры;
  2. Ссылки покупные;
  3. Ссылки со спамных площадок;
  4. Ссылки с нерелевантных страниц;
  5. Доноров, которые созданы для продажи ссылок.

Как защитить сайт?

  1. Анализировать ссылочный профиль. Регулярно надо оценивать качество ссылок. За несколько неестественных бэклинков ваш сайт вряд ли потеряет позиции, но если таких ссылок будет десяток или сотня, то понижение гарантировано. Следите за увеличением ссылочной массы. Не допускайте резких изменений.
  2. Удаляйте плохие ссылки. После обнаружения сомнительных ссылок надо от них избавляться. Связывайтесь с владельцами сайтов — доноров, просите их убрать ссылки. Если это невозможно, используйте инструмент Гугл для отклонения ссылок. Роботы будут игнорировать спамные бэклинки.

Пират (Pirate)

Google Pirate — алгоритм призванный понижать сайты, на которые поступают жалобы из-за использования авторского контента (площадки, где размещены пиратские фильмы, музыка и т.д.).

Он действует с августа 2012 года. Также алгоритм повлиял на ранжирование агрегаторов и торрентов, содержащих ссылки на скачивание пиратского контента.

Пират гугл алгоритм

Как защитить сайт?

Не размещать пиратский контент.

Колибри (Hummingbird)

Google Kolibri — алгоритм, целью использования которого стало формирование выдачи на основе оценки смысловой составляющей запроса.

Он был запущен с августа 2013. Благодаря Колибри поисковик стал по-другому интерпретировать поисковые запросы. Выдача начала строиться на основании смыслового содержимого страниц сайтов. Точное вхождение запросов потеряло актуальность. Google Hummingbird начал оценивать смысл контента в целом, а не искать определенные ключи в тексте.

Google колибри алгоритм

Что не любит Колибри?

  1. Переспам;
  2. Отсутствие синонимов и выражений, раскрывающих тематику.

Как защититься?

  1. Размещайте информативный контент;
  2. Используйте длинные запросы вместо коротких;
  3. Структурируйте текст. Добавьте подзаголовки, разделите на абзацы, используйте списки, смысловые запросы;
  4. Откажитесь от включения запроса в точном вхождении, если это ухудшает читабельность текста.

Голубь (Pigeon)

Google Pigeon — алгоритм, созданный для оптимизации выдачи по локальному поиску.

Он появился в июле 2014 года. Основное внимание при ранжировании по локальным запросам обращается на такие параметры как: место нахождения пользователя, вводящего запрос и расстояние от него до объекта поиска. На первых позициях показываются ближайшие к пользователю компании.

Google голубь алгоритм

Для лучшего продвижения кафе, ресторанов и других заведений по локальным запросам надо зарегистрировать сайт в My Business от Гугл, а также добавить площадку на карту и в каталоги по своему региону.

Mobile friendly

Google Mobile friendly — алгоритм, который помогает дружественным к мобильным устройствам площадкам, а точнее отдельным их страницам, ранжироваться выше.

Он появился в апреде 2015 года. При этом десктопную выдачу изменения не затронули. Хорошо оптимизированные под мобильный поиск страницы получают лучшие позиции в выдаче, а плохие страницы понижаются.

Mobile friendly алгоритм

Как понравиться Mobile friendly?

Оптимизировать сайт под гаджеты. При этом страницы должны быть комфортными для пользователей и удобными для роботов. Нельзя забывать о требованиях Google к юзабилити, техническим элементам и другим параметрам площадки.

RankBrain

Google RankBrain — алгоритм, который определяет не только тематику страницы, но и релевантность отдельному поисковому запросу.

В октябре 2015 года Google внедрил эту систему машинного обучения, благодаря ей выдача стала более релевантной. Поведение человека на сайте позволяет понять, насколько результаты выдачи удовлетворили запрос. Этот опыт учитывается в ранжировании.

RankBrain алгоритм

Что не нравится RankBrain?

  1. Низкая релевантность запросу. Если на странице недостаточно информации для раскрытия темы или она не соответствует запросу, это плохой сигнал.
  2. Отрицательный пользовательский опыт. То есть большой процент отказов, недостаточное время нахождения на сайте и т.п. Причиной может быть плохая структура страницы, непонятная навигация, отсутствие подсказок, неудобный фильтр.

Опоссум (Possum)

Google Possum — алгоритм, который повышает позиции сайтов, максимально релевантных локальному запросу пользователя с учетом его местонахождения в момент поиска информации.

Действует Опоссум с сентября 2016 года. Его использование позволило исключить из выдачи сайты с одинаковыми адресами и телефонными номерами. Таким образом, пользователи получили максимально разнообразную информацию.

Google опоссум алгоритм

Компании, офисы которых находятся за пределами города, стали показываться в выдаче по запросам с наименованием города. Раньше они почти туда не попадали.

Фред (Fred)

Google Fred — алгоритм, который понижает в выдаче сайты, созданные для получения прибыли.

Работает с марта 2017 года. Целью Фреда являются страницы низкого качества. Чаще всего такие страницы получают доход с рекламы или ссылок.

Google фред алгоритм

Что не любит фильтр Фред?

  1. Обилие баннерной и других видов рекламы на сайте;
  2. Множество исходящих ссылок на другие ресурсы;
  3. Сайты с контентом, созданным для генерации трафика за счет использования большого количества ключей.

Как защититься?

  1. Наполнять страницы полезным контентом;
  2. Размещать ограниченное количество рекламных ссылок;
  3. Проводить правильную монетизацию.

Это наиболее значимые алгоритмы Гугл, влияющие на результаты выдачи. Теперь вы знаете о принципах их действия и сможете подготовить свой сайт к SEO-продвижению, которое даст высокие позиции в поиске. Если вам сложно определить причины понижения позиций, начните с проведения полного анализа площадки для выведения из под поисковых фильтров.

Как проверить сайт на фильтры Google?

Если вам кажется, что ваш сайт попал под фильтр Google — рекомендуем воспользоваться сервисом Google Search Console. С помощью Google Webmaster Tools можно определить были ли наложены санкции на Ваш ресурс. Если у Вас нет такого инструмента, тогда рекомендуем ознакомиться с руководством по настройке консоли веб-мастеров.

В нашей студии вы можете заказать услуги продвижения белыми методами без риска попадания под фильтры.

Оставить заявку