Начните искать ключевые слова
Используйте Serpstat, чтобы находить лучшие ключи
Гайд по основным алгоритмам Google

В этой статье мы разберем упрощенные принципы работы поисковика, разберем его основные известные алгоритмы и фильтры. И главное — попробуем систематизировать. Что стоит и чего не стоит делать для того, чтобы попасть в топ выдачи.
Исходя из этих цифр, если вы планируете продвигать собственный бизнес в Сети — вам необходимо разобраться с тем, как работает поисковая машина Google.
Как работает поисковая система Google
Фактически Google это картотека, в которую вносятся сайты, и по запросу пользователя выдаются максимально релевантные. Те, что наиболее точно отвечают его запросу или были признаны максимально качественными. На пальцах процесс выглядит следующим образом:
- Поисковый бот (googlebot) находит ваш сайт. Он может сделать это, перейдя по ссылке на другом, уже известном сайте, или при принудительном сканировании с вашей стороны. Для этого используют инструмент Search Console.
- Бот видит не динамическое изображение страницы, которые выводит браузер, но в первую очередь — код. Если вы хотите взглянуть на страницу как бот, попробуйте вбить в адресной строке браузера перед адресом сайта view—source:. Ранее такой инструмент был в Search Console, но с ростом количества сайтов его упростили до обычного запроса на сканирование.
- Далее Гугл Бот вносит ваш сайт в свой каталог, ассоциируя его с контентом, прописанным на сайте (об этом подробно чуть ниже).
- После каталогизации — поисковая машина оценивает качество вашего сайта в сравнении с конкурентами, смотрит на историю и качество домена, цитируемость (наличие ссылок), скорость загрузки и другие параметры.
- Если ваш сайт посчитался качественным, то при следующем запросе от пользователя он получит, в том числе, и ваш сайт в Google. Скорее всего — где-то на 20-30 странице.
- Title и Description страницы.
- Текстовый контент и ключевые слова в нем (фактически — почти каждый коммерческий сайт в интернете ранжируется по слову "Компания". Но релевантность 99% сайтов этому ключевому слову настолько низкая, что они не появляется в выдаче).
- Изображения и их описание — alt.
Поисковая оптимизация — это приведение сайта в соответствие поисковым алгоритмам. Иногда — манипуляция ими. Чтобы исключить вредные манипуляции, были придуманы фильтры Google, которые выбрасывают сайт из выдачи в случае несоответствия правилам.
Фильтры Google как наказание за манипуляцию алгоритмами
Фильтры же — это наказания за попытку манипулировать поисковой машиной. Так как фильтры накладываются за пренебрежение основными требованиями к сайту — разобрав основные мы поймем что требует поисковая система от владельца сайта.
Панда — предвестник чистки интернета
- Полезным для пользователя — отвечать на его вопрос или корректно описывать услугу/товар, который продается на сайте.
- Структурированным — содержать списки, таблицы, разделы. Все для того, чтобы пользователю было удобно читать и воспринимать информацию.
- Четко соответствовать заявленной теме. Именно из-за этого структуры сайтов с каждым годом становятся все более сложными и многоступенчатыми — чтобы каждая статья и посадочная страница соответствовали узкой теме.
- Оригинальным. Тут учитывается как оригинальность внутренняя — между статьями на одном сайте, так и внешняя — контент не должен повторять уже написанный и размещенный на другом сайте.
При попадании под фильтр Панда, владельцу сайта приходится переписывать весь неуникальный контент и ждать до полугода, пока сайт начнет возвращать свои позиции в выдаче.

Страх и ужас. Так что, Панда немного отрезвила вебмастеров. И дала много работы копирайтерам.
Пингвин — скажи мне, кто ссылается на тебя, и я скажу, кто ты
Если текстовой составляющей занялась Панда, то за ссылочное взялся Пингвин. До 2012 года вы могли попасть в топ Google за пару месяцев (в среднеконкурентных тематиках).
Все было просто:
- Создаем сайт.
- Заливаем на него тысячу не связанных между собой ключевых слов через запятую. А еще лучше — в несколько слоев верстки наложить их друг на друга и сделать прозрачным цветом (МРАК).
- Закупаем 10 тысяч арендных ссылок на SAPE за 150 долларов (нет, тут не пропущен нолик — они действительно столько стоили).
- И вуаля — вы в топе.
Такие схемы не способствовали появлению качественных сайтов в результатах поиска. Потому с приходом Панды и началась настоящая паника. Все арендные ссылки с некачественных площадок не просто переставали учитываться — они становились токсичными. Нашел Гугл Бот 100+ ссылок с таких сайтов — получите фильтр, распишитесь.

Примерно полгода понадобилось выдаче, чтобы хоть как-то стабилизироваться по коммерческим запросам. И несколько лет понадобилось большинству доменных имен, чтобы «отстоятся» после фильтра.
Дополнительные фильтры Google
Exact Match Domain. Этот алгоритм отслеживает специфический тип переспама ключевых слов — вхождение ключа в URL сайта. Например, если сайт занимается продажей кирпичей, то домен kirpich.com будет ок, а вот за доменное имя http://proizvodstvo-i-prodazha-kirpicha-nedorogo.com, вы, скорее всего, попадете под фильтр.
DMCA. Этот фильтр очень медленно раскатывался в течении 2012—2015 годов и до сих пор многие умудряются его обходить. Ключевая задача — убрать из выдачи пиратский контент — от фильмов до программ и книг. Учитывая количество результатов поиска по запросу «популярный фильм смотреть онлайн и без регистрации» — эту битву поисковик пока что проигрывает.
Links. У настоящего, живого, сайта должны быть как входящие, так и исходящие ссылки. Ссылки с других ресурсов на ваш сайт показывают поисковой системе, что сайт важен и цитируем, а исходящие — что вы также готовы ссылаться в своем контенте на уважаемые источники. Однако, большое количество исходящих ссылок превращает домен в "ссылочную помойку". В основном сайты попадают под этот фильтр, когда беспорядочно продают ссылки через биржи, не занимаясь развитием собственного ресурса.
Битые ссылки. Актуальный алгоритм для интернет-магазинов, которые не пользуются услугами SEO специалистов. Когда товар заканчивается и не планируется к дальнейшей продаже — контент менеджеры часто удаляют страницу. Тогда по старой ссылке на товар пользователя встречает 404 ошибка. Если количество битых страниц достигает определенного порога — сайт начинает проседать в выдаче. Такие страницы важно отслеживать и делать с них 301 редирект на релевантную страницу (категории или другого товара).
Современные и новые фильтры Гугла — YMYL, BERT, Speed Update, etc
Вы знали, что 80+% трафика в интернете в 2021 году пришлось на мобильные устройства? Эта цифра росла ежегодно с 2015 года и привела к Google к новой концепции оценки сайтов — Mobile First Index. Во главу угла ставится удобство сайта для мобильных устройств с разной диагональю и скоростью интернет-подключения.
До 2017 года была еще разница в выдаче — при запросе с мобильных и десктопов, пользователь мог получить разные сайты в топ-10. Сейчас же сайты, которые оптимизированы под мобайл, получают высокие позиции везде. Потому что — Mobile First.
В связи с этим появились новые алгоритмы оценки сайтов, которые нельзя игнорировать даже в узких нишах.
Mobilegeddon — кто в лес кто по дрова
- Мобильная версия сайта — m.site.com. Самый быстрый вариант в реализации. Создавался очень упрощенный клон сайта с минимумом верстки и удобства для пользователя. Главными минусами такого подхода были проблемы с SEO (часто соответствия настраивались неправильно и для поисковой системы мобильные страницы становились дублями), неудобство для пользователя и сложность в модерации. На сегодняшний день эту практику почти не применяют.
- AMP версия сайта. Актуально для новостных ресурсов. Accelerated Mobile Pages от Google предлагала создавать дубль страницы с контентом, но почти без стилей верстки, рекламных блоков и меню. Страница как будто существовала вне сайта. Для ранжирования в новостных фидах владельцы сайтов шли на внедрение AMP, но отсутствие рекламы на страницах делали подход не очень выгодным.
- Адаптивная верстка. Оптимальный, хоть и самый трудозатратный вариант, который на 2022 год считается стандартом де-факто. Страница имеет разное расположение блоков для разных разрешений устройств.
Speed Update — черепахам тут не место
Каких-то жестких пессимизаций в выдаче не было до 2021 года. В прошлом году развернули Google Page Experience Update. Вот он уже неплохо потряс выдачу и тяжелые, неповоротливые сайты на плохих серверах или с визуальными украшательствами начали постепенно терять свои позиции.

- LCP — скорость загрузки основного контента сайта. Считает сколько секунд нужно сайту, чтобы передать на устройство пользователя полностью загруженную страницу.
- FID — скорость загрузки до первого взаимодействия. Считает сколько секунд нужно сайту, чтобы передать на устройство пользователя первые части контента, с которыми можно взаимодействовать. Причем в идеальном виде этот параметр должен составлять ⅕ секунды, что для многих хостингов стало невыполнимой задачей.
- CLS — отвечает за статичность контента. Если пользователь прокручивает страницу вниз, то элементы не должны перестраиваться и менять свое расположение. Как загрузилось — так и должно оставаться. По поводу этого пункта много споров, что он не нужен, но на самом деле он крайне важен. Если сайт «застревает» между отображением для нескольких разрешений и вы не можете клацнуть на бургер меню или попасть по кнопке обратной связи — взаимодействие с сайтом становится настоящей мукой.
Page Experience Update не закончился в 2021 году и летом 2022 года нам обещают его улучшение и более масштабную развертку. Так что, если ваш сайт все еще не соответствует его требованиям — рекомендуем срочно подыскать команду пряморуких верстальщиков. Последствия игнорирования будут очень серьезными, вплоть до полного выпадения сайта из выдачи.
RankBrain и BERT — два брата-филолога
Например, пользователь ввел запрос «Грумер в Киеве». И так оказалось (совершенно невероятная ситуация), что никто не предлагает услуги груминга в Киеве. Однако, есть сайты с услугой — Стрижка для собак в Киеве. И благодаря алгоритму, Google поймет о чем идет речь и выдаст пользователю собачьего парикмахера, который даже не подозревал, что он грумер.

Для оптимизации под BERT рекомендуют:
- Писать на сайт действительно полные и глубокие аналитические статьи, ориентируясь больше на всестороннее раскрытие темы, чем на ключевые слова.
- Максимально использовать синонимы в своих текстах. Если у вас существует список ключевых слов по которому вы пишите текст — обязательно соберите список синонимов, которые также нужно внедрить.
- Добавлять в текст больше естественных, разговорных оборотов в контексте ключевого слова.
- Использовать не только текстовый, но и аудиовизуальный контент.
Google YMYL (Your money — your life)
Так, если у вас был сайт в сфере лечения зависимостей — 2018 год вы наверняка запомните надолго. Но есть и позитивные стороны и их намного больше.
Алгоритм YMYL призван обезопасить пользователей в вопросах, которые касаются их здоровья и денег. Он актуален для таких услуг:
- Юридических
- Медицинских
- Финансовых
- Вопросов безопасности
- Коммерция (это не точно, но есть слухи, что алгоритм все чаще касается сайтов e-commerce)
Главный принцип, которым руководствуется алгоритм называется E-A-T. Экспертность, авторитетность, достоверность. Если вы публикуете контент в тематиках, затрагивающих здоровье или финансы пользователей — будьте добры побеспокоиться, чтобы он заслуживал доверия.
Потому для сайтов стало важно придерживаться ряда принципов в публикациях. И манипулировать этим почти невозможно, так как сайты проверяются вручную. Возникла должность асессора. Это внештатный сотрудник Google, который проверяет сайты согласно чек-листу. И если вы не придерживаетесь новых принципов — до свидания из топа.
Принципов несколько и им действительно несложно следовать:
- Авторство статьи. Если вы размещаете экспертный контент — у него должен быть указан автор. У автора — должна быть персональная страница на вашем сайте, где будет указано почему он эксперт, чем он может это подтвердить. В идеале — там же размещены ссылки на его социальные сети или профессиональные платформы.
- Отсылки к авторитетам. Приводя цитаты или заявления в статье — нужно отсылаться к общепринятым источникам, которым доверяют. Forbes, Lancet, Wikipedia — вы должны привести в тексте ссылку на ресурс из которого взята информация.
- Актуальность содержания. Если статья устарела (например, вы до сих пор рекомендуете лечить мигрени кровопусканием, ссылаясь на трактаты 12 века) — то ее следует удалить с сайта. Или указать, что эта информация неактуальна на сегодняшний день — в самом начале статьи.
YMYL выбил из топа многие качественные ресурсы в момент запуска, но туда же отправились и мошеннические сайты. По прошествию 4 лет можно констатировать, что качество сайтов в топ-10 действительно выросло.
Pigeon — голуби мигрируют, а бизнесы — нет
Для оптимизации сайта под этот алгоритм необходимо:
- Указать на сайте точное месторасположение вашего магазина.
- Если магазинов или офисов несколько — указать их все.
- Создать Google My Business карточку под каждый филиал вашего бизнеса и оптимизировать ее.
- Если вы работаете по всему городу (или стране) — то создать отдельные страницы на сайте, заточенные под запрос «Услуга в Городе/Районе/Улице».
Неофициальные алгоритмы и фильтры Гугла
В этой статье мы упомянем несколько таких неофициальных фильтров, но стоит ли ориентироваться на них при продвижении вашего ресурса — решать только вам.
Sandbox — твой сайт пока слишком мал для взрослых игр

Google в лице Джона Мюллера отрицают существование песочницы и списывают эффект на то, что новорожденный сайт медленно вноситься в базу данных Google. Мол, происходит долгий процесс каталогизации из-за чего, новенькие сайты бывают не видны. Однако, если на старом сайте запустить новый контент — он будет проиндексирован в течении минут, не часов. Что же мешает поисковой машине обнаружить новый сайт в течении долгих месяцев? Возможно, Песочница.
DomainAge — старый конь борозды не испортит
Теория гласит, что если у нас есть два сайта с одинакового качества контентом, одинаковым количеством страниц, одинаковым ссылочным весом и так далее — первым в топе будет стоять тот, у которого более старый домен. Само собой, это моделирование ситуации в вакууме. Но вебмастера часто покупают старые домены, у которых нет никакого веса, для новых проектов. Они верят, что это даст изначальный буст сайту. Ну и позволит обойти песочницу.
-5, -30, -950 я иду искать
Идея в том, что сайты, которые используют при продвижении черные методы — не банятся сразу, а получают предупреждение. Несколько желтых и потом красную карточку.
Фильтр могут наложить за применение:
- дорвеев
- клоакинга
- построение сеток сайтов
- ссылочный спам
- скрытые от поисковой системы редиректы пользователя
По поводу это алгоритма есть несколько сомнений, главное из которых следующее. Почему за прямое нарушение правил Google сайт настолько легко наказывают и дают возможность исправиться? Не очень-то похоже на диктаторский стиль Компании Добра.
Выводы. Как не попасть под фильтр Гугла и расти в выдаче
Потому всем, кто хочет получить высокие позиции в поисковике — приходится играть по его правилам и придерживаться требований к сайтам. Очень важно знать какие алгоритмы Google существуют сегодня и следить за тем, какие будут выпущены завтра — только так вы сможете оставаться на позициях, приносящих трафик и продажи вашему бизнесу.
В 2022 году есть ряд требований, которые нужно обязательно выполнять, чтобы соответствовать требованиям поисковика:
- Пишите уникальный контент. Если он касается здоровья пользователя — руководствуйтесь формулой E-A-T, если не касается — пишите больше лонгридов, статей с учетом LSI ключей, синонимами и визуальным контентом.
- При наращивании ссылочной массы — выбирайте только качественные площадки. Да, стоимость одной ссылки на сегодня может доходить до 1000 долларов (в рунете). Но лучше купить одну хорошую, чем 100 плохих и улететь под фильтр.
- Старайтесь получать качественные ссылки на свой сайт за счет публикации экспертного контента на других площадках — платно и бесплатно.
- Оптимизируйте свой сайт по скорости загрузки. В 2022 году без этого никак — ваш сайт обязан летать.
- Следите за техническим состоянием сайта — регулярно делайте аудиты, внедряйте правки, следите какие фишки внедряют ваши конкуренты.
- Старайтесь сделать структуру максимально широкой. Есть возможность проработать фильтры — прорабатывайте. Есть возможность проработать их пересечения — обязательно прорабатывайте!
- Привязывайте сайт к вашему региону. Создавайте локальные страницы, пишите тексты на категории товаров и услуг с привязкой к региону. Все это сыграет вам только на руку.
- Не ищите быстрых путей. В августе 2021 года в базе данных Google было 1,88 миллиарда сайтов. Не рассчитывайте на то, что окажетесь в топе через месяц после запуска проекта — рынок уже раскален.
Serpstat — набор инструментов для поискового маркетинга!
Находите ключевые фразы и площадки для обратных ссылок, анализируйте SEO-стратегии конкурентов, ежедневно отслеживайте позиции в выдаче, исправляйте SEO-ошибки и управляйте SEO-командами.
Набор инструментов для экономии времени на выполнение SEO-задач.
Используйте лучшие SEO инструменты
Проверка обратных ссылок
Быстрая проверка обратных ссылок вашего сайта и конкурентов
API для SEO
Получите быстро большие объемы данных используя SЕО API
Анализ конкурентов
Сделайте полный анализ сайтов конкурентов для SEO и PPC
Мониторинг позиций
Отслеживайте изменение ранжирования запросов используя мониторинг позиций ключей
Рекомендуемые статьи
Кейсы, лайфхаки, исследования и полезные статьи
Не успеваешь следить за новостями? Не беда! Наш любимый редактор подберет материалы, которые точно помогут в работе. Только полезные статьи, реальные кейсы и новости Serpstat раз в неделю. Присоединяйся к уютному комьюнити :)
Нажимая кнопку, ты соглашаешься с нашей политикой конфиденциальности.