Начните искать ключевые слова

Используйте Serpstat, чтобы находить лучшие ключи

Обновления Serpstat 23 декабря 2021  |  30251   266   5   |  Читать 33 минуты  – Прочитать позже

Как перестать платить за мусор в ссылочном индексе?

Исследование данных ссылочных индексов Serpstat, Ahrefs, MOZ, Semrush и Majestic
Исследование данных ссылочных индексов Serpstat, Ahrefs, MOZ, Semrush и Majestic
Зоряна Матюшенко
Customer Support & Education Specialist at Serpstat
Видите ли вы объективную картину по ссылочной массе сайта в своем SEO-сервисе? Развивая собственный ссылочный индекс и анализируя отзывы пользователей о работе с беклинками, мы решили исследовать существующие инструменты.

Главное, что показало исследование: объем ссылочного индекса и количество данных в нем никак не связаны с качеством данных и их применимостью.

Чем больше индекс — тем больше требуется ресурсов на поддержание данных в нем в актуальном состоянии. Дубликаты и устаревшие данные весомо искажают общие показатели, и проводить сравнение инструментов на основании этих показателей оказывается бессмысленно.
Создание собственного ссылочного индекса — ресурсоемкий процесс, поэтому большинство SEO-сервисов используют данные о ссылках, которые покупают у поставщиков с собственными краулерами. Такие данные трудно пополнять и актуализировать, так как все изменения находятся на стороне компании-поставщика. Чтобы влиять на качество данных по ссылкам непосредственно, Serpstat разработал собственный ссылочный индекс.
Сейчас ссылочный индекс Serpstat содержит данные об 1,1 трлн ссылок по 407 млн доменов. Каждый день краулеры добавляют еще 2 млрд новых ссылок и обходят 2,5 млн доменов.
SEO-платформы часто используют для позиционирования своих инструментов тезисы «самый большой индекс‎»‎, «самая полная база ссылок‎»‎, «лучший индекс‎», ‎но применимо ли «лучший» к размеру индекса?‎ Мы решили глубже разобраться в том, что же стоит за количественными параметрами сервисов Semrush, Ahrefs, MOZ и Majestic и какое значение они имеют в анализе ссылочного профиля сайта.

Чем отличаются ссылочные индексы разных платформ?


Сравнивая ссылочные индексы, важно понимать, что существуют разные подходы к построению баз ссылочных данных. Например, они могут формироваться из нескольких «субиндексов», которые содержат данные разной степени актуальности. Рассмотрим отличия в архитектуре индексов некоторых сервисов детальнее.

Ссылочный индекс Ahrefs построен так:
  • live — «живые» ссылки, которые были обнаружены в момент последней проверки роботом и остаются такими до следующего краулинга;
  • recent субиндекс содержит данные об активных ссылках, а также потерянных, которые были в «live» статусе последних 3-4 месяца. Важно понимать, что в этот список могут попадать ссылки, которые робот посчитал потерянными в силу технических причин.
  • historical — все исторические ссылки домена, которым краулер присвоил статус «live», начиная с 2016 года (с момента запуска индекса Ahrefs). Т.е. все ссылки, которые находил робот за все время краула интернета с 2016 года, и актуальные, и уже не существующие.

Semrush использует «fresh index» — ссылки, зафиксированные в последние 6 месяцев краулинга.

MOZ отображает «fresh» данные, полученные при последнем краулинге. При этом данные обновляются не по всем ссылкам регулярно, приоритет у более качественных страниц, которые сервис определяет с помощью машинного обучения.

Индекс Majestic состоит из таких частей:
  • fresh index — все ссылки, которые считались активными при последней проверке за период от 90 до 120 дней.
  • historical index — кроме данных fresh-индекса содержит все ссылки, которые когда-либо были замечены по анализируемому домену.



В индексе Serpstat содержатся ссылки только категории fresh — активные в течение последних 70 дней. Такая архитектура позволяет полностью обновлять данные за этот период. Если активная ссылка при проверке не обнаруживается, информация о ней хранится еще 6 месяцев в разделе Потерянные ссылки. Поэтому пользователи получают только актуальную картину ссылочного профиля конкурента или своего сайта. Как Serpstat строил индекс подробно рассказал Олег Саламаха.
Архитектура ссылочных индексов разных сервисов
Архитектура ссылочных индексов
В отдельную категорию инструментов для ссылочного анализа, можно вынести программное обеспечение для настольных ПК — утилиты, устанавливающиеся непосредственно на компьютер или ноутбук пользователя. Примерами этого типа SEO сервисов, работающих «оффлайн» являются Netpeak Spider и Screaming Frog для аудита, Netpeak Checker для важных SEO параметров и и SEO PowerSuite, поддерживающий отдельные модули для ссылок — SEO SpyGlass, LinkAssistant. Spy Glass предназначен для поиска и анализа обратных ссылок. Этот софт необходимо скачать и установить на ПК.

Среди главных недостатков подобных программ, можно назвать медленную работу по сравнению с «облачными сервисами», отсутствие «кроссплатформенности», необходимость предварительной установки самого софта и обновлений для дополнительных «фич». Говоря о достоинствах, можно заметить, что такие программы позволяют удобнее работать с фильтрами и сортировками, все данные постепенно скачиваются из базы, с ними можно работать локально.
SEO SpyGlass содержит в своем индексе по данным сервиса 3,5 триллиона ссылок, а также 264 млн. доменов (данные за 1 декабря 2022). По данным из открытых источников, каждый день краулер проходит 7,1 миллиарда страниц, а в распоряжении компании 500 серверов.
Доступность ссылочного индекса в Link Assistant и Spy glass зависит от версии, в бесплатной можно проверить до 1,100 ссылок с одного вебсайта.

Архитектура SEO PowerSuite, в отличие от, к примеру, от Semrush анонсирует учет удаленных ссылок и не показывает их вместе с активными, что влияет и на количественные показатели.
В процессе работы с сервисом, было замечено, что актуальность данных у LinkAssistant сильно уступает конкурентам лидерам в нише: в индексе есть ссылки, которые не обновлялись с 2018 года.

Как мы сравнивали ссылочные индексы?
Индексы обратных ссылок можно охарактеризовать множеством параметров, от размера базы и полноты данных до мощностей серверов и краулеров.

В исследовании мы рассмотрим несколько параметров для количественной и качественной оценки индексов:
  • объем ссылочного индекса
  • частота и скорость обновления
  • индекс покрытия
  • уникальность данных по ссылкам.

#мнение_экспертов


На какие параметры ссылочных индексов обращаете внимание?

При работе над ссылочной массой обращаю внимание на разные аспекты сайтов. Если исключить такие важные моменты, как ранжирование сайта, качество контента, методы его формирования, место размещения материалов с внешними ссылками, ценообразование и другие важные показатели.

И будем ориентироваться только на ссылочные метрики, то мы обращаем внимание в первую очередь на метрики качества общей ссылочной массы, в зависимости от сервиса которым вы пользуйтесь к ним будет относиться:
  • Domain Rank (DR);
  • AS (Authority Score);
  • Citation Flow (CF) и Trust Flow (TF).

Во вторую очередь стоит ориентироваться уже на количественные показатели:
  • общее количество уникальных доменов;
  • общее количество внешних ссылок;
  • количество IP адресов и подсетей;
  • количество уникальных исходящих ссылок с домена;
  • SEO/ORG распределение ссылок.
  • Динамика ссылок.
Рамазан Миндубаев, TRINET.Group
Основные параметры:
  1. В каком разделе размещается ссылка. Важно, чтобы она не была в каталоге, где только покупные ссылки (проверяем руками).
  2. DR (Ahrefs API).
  3. Кол-во ссылающихся доменов и страниц (Serpstat API).
  4. Кол-во исходящих доменов и страниц (Serpstat API).
  5. Кол-во ключевых слов, по которым ранжируется сайт (Serpstat API).
  6. Изменение кол-ва ключевых слов за последние 6 месяцев (Serpstat API).
  7. Тематичность (проверяем руками).
Владислав Наумов, Inweb
В ссылочном индексе я обычно останавливаю свой вгляд на следующих параметрах:
  • Трафик страницы, с которой идет ссылка в нужном мне регионе.
  • Количество ключевых слов в топ-100 в этом регионе.
  • Тип ссылки (не просто Dofollow/Nofollow — Спонсор, UGC, ссылка в комментарии, подвале (сквозная). Я уверен, если помозговать, можно выловить еще множество типов — ссылка-картинка, анкор, безанкор, бессмысленный анкор (тут здесь и там).
  • Тип страницы (по микроразметке например или каталогизация типов страниц и доменов. Например, Govermental, Educational, Catalog, Forum, Review, Blog).
  • Количество других исходящих ссылок на этой странице.
  • Дата публикации страницы и дата первого обнаружения.
  • Тематика домена.
  • Title ссылки.
  • Title домена (неплохо бы помогло отсеивать ненужные домены).
  • Длина контента на данной странице.
  • Есть ли данный домен в базах бирж ссылок. Вы сами понимаете, как было бы полезно выловить таких.

Те данные, которые выловить не удается, вытаскиваем самостоятельно, что конечно напрягает — ведь приходится снимать данные в разных таблицах и сводить…
Николай Шмичков, SEOquick
Обращаю внимание на 15-20 показателей, но наиболее приоритетные следующие:
- ссылающиеся домены;
- динамика ссылочной массы (домены);
- ссылающиеся ip-подсети;
- количество dofollow-ссылок;
- распределение dofollow/nofollow/redirect;
- анкор-лист (популярные слова в анкорах).
Сергей Сосновский, Sosnovskij
При анализе ссылочного профиля обращаем внимание на такие параметры:
- Пузомерки DR и UR
- количество ссылающихся доменов, беклинков, акцепторов
- соотношение follow/nofollow
- соотношение анкорных/безанкорных ссылок, а также брендовых анкоров.
- наличие .gov, .edu доменов
- объем трафика и ключевых слов и т.д.
Игорь Шулежко, rankUP

Большая база — преимущество или недостаток?


Для оценки сервиса по анализу ссылок в SEO-нише принято оперировать объемом ссылочного индекса — количеством ссылающихся доменов или страниц на сайт в базе данных определенной платформы. Такой показатель может показаться удобным и понятным, особенно, если нужно выбрать один инструмент из нескольких альтернатив. Приведем статистику по платформам из официальных источников.
Объем ссылочных индексов анализируемых сервисов разных сервисов
Объем ссылочных индексов анализируемых сервисов
*Majestic не отслеживает метрику «ссылающиеся домены», поэтому статистику по этому инструменту не анализируем, поскольку некорректно сравнивать количество ссылающихся доменов и количество страниц по разным сервисам.
Источники данных
Но объемная база никак не кореллирует с качеством данных. В индексах присутствуют дубликаты, устаревшие данные. Пользователи сервисов для анализа ссылок замечают спамные ссылки в отчетах, которые вероятней всего появились в индексе однажды и продолжают сохраняться. Из-за особенностей архитектуры могут возникать наслоения данных, собранных в разное время (исторический, свежий, недавний и любые другие индексы).
При анализе конкурентов мы обнаружили следующие кейсы:
  • дубликаты ссылок с http и https - при условии, что одна из версий недоступна на момент проверки.
  • дубликаты ссылок с сессионными параметрами и параметрами аналитических систем (например, GA).
  • дубликаты ссылок в связках «Источник»+«Целевой URL»+«Анкор».
  • дубликаты данных с разными датами обнаружения (возможно, причина в том, что были уже записаны в БД новые данные, но еще не почищены старые).
  • построение детальных отчетов данных на основе, в том числе, и уже удаленных ссылок, из-за чего отчеты становятся некорректны.
Почему данные по ссылкам настолько разнятся?

Причин может быть много:
1
Частота и скорость обновления базы индекса: время, за которое обновляется весь индекс, т.е. робот проходит и актуализирует все ссылки в индексе. В Serpstat, в отчетах по анализу ссылок, выводится дата последней индексации ссылки.
анализ ссылок Serpstat
2
Скорость и возможность сервиса находить новые данные по сайту.
3
Скорость и возможность сервиса удалять неактуальные данные по сайту.
4
Особенности краула страниц: учет robots.txt, meta robots, x-robots-Tag, тегов noindex/nofollow, доступность сайтов в момент их краула тем или иным роботом, стабильность и корректность ответа DNS-серверов, отдельные блокировки сервисов перечисленными выше способами или другими: по HTTP заголовкам, по типу обращения краулеров к странице (GET, POST, HEAD), по идентификатору (User Agent), по IP.
Что делать, если сервис не видит вашу ссылку?
Воспользуйтесь перекраулом ссылок. Отправьте список страниц, на которых размещены новые ссылки и робот Serpstat соберет по ним данные в течение 24 часов.
Учитывая разницу в архитектуре и алгоритмах работы поисковых роботов различных платформ (глубину краулинга, учет уникальности хоста, IP, подсетей), оценивать индексы по количеству ссылок или ссылающихся доменов некорректно.
Большая база ссылок — это маркетинговая цель: сам по себе объем индекса ничего не значит. Скраулить "интернет" и создать БД на его основе - это только первый шаг. Самое главное - уметь вычистить из этой БД весь мусор и часто, качественно обновлять ее, не добавляя нового мусора.

Крупный индекс может содержать много дубликатов и устаревшей, мусорной информации. Поэтому важен, в первую очередь, не объем, а корректность и актуальность данных.
Михаил Броун, Serpstat
За огромным размером базы часто кроется низкокачественная информация, которую пользователи не используют. Поэтому важен, в первую очередь, не объем, а корректность и актуальность данных.

#мнение_экспертов


Играет ли роль размер базы ссылочного индекса или еще важны актуальность, уникальность данных?

Размер базы индекса, как и актуальность важны, но для меня более важно наличие донора в индексе, чем просто знать, что на мой сайт ссылается какой-то мусорный ресурс. Ahrefs показывает больше ссылок, чем Serpstat, но эта разница, в большинстве своем, формируется из-за мусорных доноров, которые гугл даже не индексирует. Мы используем API Serpstat для получения данных о донорах.

Было бы идеально, сделать какой-то фильтр, чтобы посмотреть только ссылающиеся страницы, которые есть в индексе Google.
Владислав Наумов, Inweb
Естественно, размер базы данных — важная метрика при конкурентном анализе, так как дает широкое понимание, как работают конкуренты, какие виды и типы ссылок они наращивают, какие методы используют. Актуальность и уникальность базы важные параметры, но мы считаем, что действительно важно то, не на сколько база большая, актуальная или уникальная, а то насколько она точно работает и находит такие же ссылки, которые учитываются поисковыми системами.
Рамазан Миндубаев, TRINET.Group
Ни одна ссылочная база не дает 100% эффекта, и поэтому важна действительно актуальность данных и размер базы. Так, одни базы могут похвастаться большим количеством ссылок, доменов, но некоторые домены в итоге оказываются повторами.

Также внутри ссылочного индекса нужен функционал поиска дублей ссылок, отсева мусорных ссылок с сервисов анализов сайта и прочего (в Serpstat это реализовано автоматически). Иначе приходится анализировать огромные таблицы данных, где полезных доноров искать приходится долго. Часто ты в итоге выкачиваешь 100000 строк, а реальных интересных ссылок там менее трех сотен.
Николай Шмичков, SEOquick
На мой взгляд, размер базы ссылочного индекса важен, но еще важнее ее актуальность. Например, мне важно, чтобы все отображаемые ссылки в базе были рабочими. То есть важно регулярно чистить базу от неработающих ссылок.
Михаил Шакин,Shakin blog
Важен и размер базы, и ее актуальность. Но здесь важна «золотая середина». Создать максимально большую и максимально актуальную базу предельно сложно. Необходим баланс между размером и актуальностью. То есть база, охватывающая 70% сайтов и показывающая данные, актуальные за последний месяц лучше, чем охватывающая 95% сайтов и с данными только за последний год.
Сергей Сосновский, Sosnovskij
Играет ли роль размер базы ссылочного индекса или еще важны актуальность, уникальность данных?

Имеет значение как размер базы, так и ее актуальность и уникальность. Важно все. Чем больше ссылочный индекс, чем более актуальные и уникальные данные, тем более точно можно проанализировать и сформировать ссылочную стратегию.
Игорь Шулежко, rankUP
Персональная демонстрация
Оставьте заявку и мы проведем для вас персональную демонстрацию сервиса, предоставим пробный период и предложим комфортные условия для старта использования инструмента

Частота обновлений данных


Чтобы проследить, насколько часто анализируемые сервисы обновляют данные индексов, рассмотрим цикл полного обновления данных. Так, для анализируемых платформ официально требуется от 60 до 180 дней, чтобы обновить информацию о ссылках.
Обновление данных ссылочных индексов разных сервисов
Обновление данных ссылочных индексов
Но что происходит в действительности? Обратимся к данным сервисов:
Как видим, в некоторых сервисах обнаружены устаревшие данные, которых не должно быть при заявленной частоте обновления.

#мнение_экспертов


Какая частота обновления данных в индексе оптимальна? Важно ли получить новые ссылки сразу?

В теории – да, важно обновление данных в индексе, на практике же часто получается так, что сайты приходят с непроработанной ссылочной массой и необходимо наращивать большое количество ссылок на проект. Таким образом, при анализе конкурентов у нас есть большое количество работы для роста ссылочной массы, поэтому условный лаг в данных на 1−2 месяца является для большинства задач приемлемым. Гораздо важнее опять-таки получить не больше данных, а те данные которые использует поисковые системы при учете ссылок.

Я бы предложил сервисам смотреть больше в сторону интеграций с личным кабинетом Google Search Console, чтобы получать данные оттуда и использовать их при маркировке доноров. А те ссылки, которые не имеют разметки, помечать иначе, это был бы важный сигнал при работе со ссылками и при накоплении большой статистики, было бы интересно анализировать эти параметры.
Рамазан Миндубаев, TRINET.Group
Достаточно обновления базы один раз в 2 недели. Не вижу практической ценности в том, чтобы увидеть новую входящую ссылку на следующий день.
Владислав Наумов, Inweb
Чем актуальнее, тем лучше, но вполне достаточно, когда новые ссылки добавляются в базу за 30−45 дней.
Сергей Сосновский, Sosnovskij
Всегда хочется получать ссылки сразу для своего ресурса. Очень важна интеграция с вебмастером – чтобы он быстро находил ссылку в индексе принудительно по потенциальным доменам. Пока на сегодня такой функционал не обнаружен и нам приходится искать чуть ли не запросами в поиске.

Есть прямая корреляция между количеством ссылок и позициями, но тут дьявол кроется в деталях. Чистый ссылочный профиль в белом SEO важнее гораздо количественных метрик – с этим я столкнулся в 2016-2017 и после этого. Мы часто ссылки делаем по методу аутрич, и нам не всегда сообщают, что их разместили и не присылают их по почте. Поэтому приходится искать их вручную, ведь ссылочный индекс всегда приходит с запозданием.
Николай Шмичков, SEOquick
Думаю, от раза в неделю до раза в месяц оптимально. Возможность получить новые ссылки сразу для меня не особо важна.
Михаил Шакин, Shakin blog
Если речь об обновлении базы беклинков ресурсов, в идеале ежедневно. Чем быстрее обновляется база, тем быстрее мы сможем получить и проанализировать данные.
Игорь Шулежко, rankUP

Полнота данных по ссылкам


Ни один инструмент не гарантирует показ всех ссылок. Сервисы отслеживают только 50−70% от общей массы ссылок, но, чаще всего, этого достаточно для регулярной работы со ссылочным профилем.
Видеть все ссылки не особо и нужно для анализа ссылочной массы. Ahrefs, например, показывает кучу ссылок, но из них не все находятся в индексе, так как есть много «стремных» сайтов, которые ссылаются на все подряд.
Владислав Наумов, Inweb
Но для некоторых задач все же важно получить как можно больше информации. Например, если речь идет о снятии ссылочных фильтров. Поэтому оценим индекс покрытия ссылок — параметр, который указывает, насколько полные данные о количестве ссылок по определенному домену отображает тот или иной сервис по сравнению с фактической ситуацией.

Поскольку подсчитать реальное количество ссылок чисто технически невозможно, воспользуемся количеством ссылок по Google Search Console* как независимого источника данных, чтобы получить представление об их полноте.
*Google Search Console также не отображает все данные о ссылках и актуализирует их с задержкой.

Нужно отметить, что Google Search Console - это не эталон, с которым стоит сравнивать все сервисы, рассчитывая на наиболее точные данные. В выгрузках из GSC тоже зачастую присутствуют дубликаты и неактуальные ссылки. Наше исследование иллюстрирует то, насколько сильно могут разниться данные, а если вы самостоятельно наращиваете ссылочную массу и документируете все новые ссылки, вы сможете провести свой анализ.

Для поиска примеров мы обратились к нашим читателям запросили данные по Google Search Console и сравнили данные с тем, что обнаруживают платформы.
Индекс покрытия для сайта ссылочными индексами разных сервисов
Индекс покрытия для сайта e-ukrservice.com
Как видим, количество внешних ссылок по данным сервисов и Google Search Console отличаются значительно. Сравните данные нескольких сервисов по своему проекту и вы убедитесь, что для полной картины по ссылкам нужны как минимум несколько инструментов.
Во время экспериментов по наращиванию ссылок мы анализировали данные в 3 популярных инструментах и сравнивали с данными из Google Search Console (GSC). В итоге, увидели, что ссылочные анализаторы находят около 40-60% всех ссылок, размещенных на проект, что является достаточно малым показателем. И примерно 40% ссылок, которые есть в ЯВ и GSC, не видят ссылочные анализаторы, если использовать только один сервис.

Таким образом сложилось понимание, что для того, чтобы покрыть 80+% ссылочных данных приходится собирать данные со всех доступных инструментов.
Рамазан Миндубаев, TRINET.Group

Уникальность ссылочных данных


Кроме размера базы, частоты обновления и полноты данных важно ориентироваться и на то, насколько данные сервиса уникальны по сравнению с другими. Особенно, если предстоит выбор из нескольких инструментов для анализа ссылок.

Доля уникальных ссылающихся доменов — параметр, показывающий % доноров, которых нет в аналогичных отчетах платформ конкурентов.

Для такого анализа выбрали случайным образом 10 доменов в разных нишах: от гейминга до YMYL, но мы старались сделать подборку разнообразной в плане географии, ниш и трафика.

Список доменов, которые исследовали:
  • brightlocal.com (США) — онлайн маркетинг
  • worldofwarcraft.com (США) — гейминг
  • namepros.com (США) — вебхостинг
  • subaru.com (США) — автомобильная промышленность
  • ourplanet.com (США) — охрана окружающей среды, правительственные организации
  • ispringsolutions.com (США) — IT, программирование
  • roccat.org (США) — видеоигры и консоли
  • 11bitstudios.com (Польша) — гейм дизайн
  • aeg.com (Украина) — техника
  • ppmco.org (США) — правительственная организация по здравоохранению.

По каждому домену получили данные о количестве:

  • ссылающихся сайтов-доноров по Serpstat
  • ссылающихся сайтов-доноров по конкурентному сервису
  • общих доноров Serpstat и конкурента
  • уникальных доменов-доноров Serpstat.
Уникальность ссылающихся доменов Serpstat и Ahrefs
Уникальность ссылающихся доменов Serpstat по сравнению с Ahrefs
Уникальность ссылающихся доменов Serpstat и Semrush
Уникальность ссылающихся доменов Serpstat по сравнению с Semrush
 Уникальность ссылающихся доменов Serpstat и MOZ
Уникальность ссылающихся доменов Serpstat по сравнению с MOZ
В индексе Serpstat содержится 60% ссылающихся доменов, содержащихся в индексах альтернативных сервисов и 40% уникальных данных, которых нет в сервисах-аналогах.
Исследуя ссылочную массу сайта с помощью Serpstat, вы получите больше актуальных данных для анализа. А с помощью комбинации нескольких сервисов, увидите наиболее полную картину ссылочного профиля.
Каждый из анализируемых нами сервисов, выводит показатель авторитетности доменов по своим, собственным параметрам. Этот показатель поможет найти авторитетные площадки для размещения ссылок, перспективных доноров. Moz отображает Domain Authority (DA), Ahrefs - AR и DR, Semrush - Authority Score, а Serpstat - SDR (Serpstat Domain Rank). У SEO PowerSuite есть свой - показатель называется In Link Rank.

Эти значения могут зависеть от множества факторов, так как принцип их расчета порой схож с Page Rank (как у Serpstat), а иногда, содержит в себе внутренние метрики сервиса. К примеру, Link Assistant учитывает индекс токсичных ссылок, сервис акцентирует внимание на том, что он схож с алгоритмом Google для поиска сайтов с риском пенальти.

Позицию Google касательно подобных метрик не раз демонстрировал Джон Мюллер:
По заявлениям ведущего аналитика Google, можно сделать вывод, что когда поисковая система индексирует новую страничку, она не знает, какому домену она принадлежит и не выводит показатель авторитетности для всего домена. Google не присваивает ссылкам на уровне доменов отдельных значений и их количество и авторитетность не входит в алгоритмы RankBrain. Оригинальное заявление можно услышать здесь.

Стоит вспомнить о том, что низкий показатель авторитетности не является призывом к действию, а вот присутствующие вредоносные ссылки - лучше убрать. С недавнего времени, Serpstat собирает данные о вредоносных донорах совместно с Bundestag Security Institute, это немецкий институт информационной безопасности, следящий за сайтами, которые участвовали в нарушениях закона. Возле таких доменов, можно увидеть метку BSI.

#мнение_экспертов


Сравнивали ли для своих проектов количество ссылок в разных инструментах? Если да, то какие выводы сделали?

Да, сравнивал. Я считаю, что каждый SEO-специалист должен попробовать разные инструменты и выбрать тот, который ему больше нравится. Какие-то отклонения от данных в панели Google Search Console вполне допустимы у любого инструмента. Это нормально.
Михаил Шакин, Shakin blog
Да, делал и неоднократно.

Пока ни один инструмент не дает четких параметров, которые нужны для отсева, поэтому приходится сортировать домены и проверять их уже отдельно.
анализ ссылок Serpstat дашборд
Например, мне в Google надо видеть не NOFOLLOW. А уже и SPONSORED/UGC контент.

Но мне очень нравится инструмент сравнения доменов – у Serpstat он реализован удобнее, чем у аналогичных сервисов, и его данные достойны изучения. Например, на этом скрине сайт нашего клиента.
анализ ссылок Serpstat отчет
И этот же сайт в другом сервисе. Сразу бросается в глаза количество доменов:
анализ ссылок ахрефс отчет
Оба дашборда удобные и есть масса интересных отчетов для анализа.

Тем не менее нужно больше интеграций с вебмастером для своевременного поиска собственных ссылок и конечно же иметь отличные методы сортировки ссылочных баз (об этом говорил в вопросе размера базы) – от их истории до актуального состояния (у Serpstat это уже есть). А для сортировки мне как раз не хватает ряда метрик, которых пока нет ни у кого и приходится изучать ссылки руками.

Николай Шмичков, SEOquick
Единожды проводил тест. В популярных сервисах получилось +- равное количество ссылок: где-то больше для одного домена и меньше для другого, где-то, наоборот. Принял для себя, что проще пользоваться одним, который больше нравится по юзабилити/сервису/стоимости.
Сергей Сосновский, Sosnovskij
Для анализа ссылочного профиля ресурса и разработки стратегии ссылочного продвижения используем данные по беклинкам из разных сервисов: Serpstat, Ahrefs, Semrush, Google Search Console и т.д.

Какие сервисы используем зависит от региона ресурса. В разных сервисах база беклинков будет отличаться между собой, поэтому, чтобы качественно проанализировать ссылочный профиль, собираем базы из нескольких сервисов.
Игорь Шулежко, rankUP

Почему стоит попробовать Serpstat для ссылочного анализа

Мы выяснили, что наличие большого количества ссылочных данных не имеет значения, если они устаревшие или неполные.

Так как ссылочный фактор ранжирования — один из ведущих в SEO, необходимо уделять тщательное внимание не только анализу ссылок, но и качеству анализируемых данных.
При анализе ссылочного первую очередь смотрю на количество ссылающихся доменов. На количество ссылок тоже обращаю внимание, но ссылающиеся домены важнее, так как ссылки могут быть сквозными.

Изучаю динамику роста ссылочной массы. Желательно, чтобы она увеличивалась постепенно и постоянно, без резких изменений в плюс или минус. Вот пример хорошего роста:
пример роста ссылочной массы
Обязательно сравниваю ссылочную массу с конкурентами, а также динамику ее роста в сравнении с ними.

Михаил Шакин, Shakin blog
В получении необходимой информации для анализа вам поможет Анализ ссылок Serpstat (причем даже если вы уже используете другой инструмент).

Serpstat делает упор на качество данных индекса. А, кроме привычных отчетов ссылочного анализа, таких как:
  • Ссылающиеся домены
  • Входящие ссылки
  • Исходящие ссылки
  • Исходящие домены
  • Анкоры ссылок
  • Страницы-лидеры

Сервис располагает рядом уникальных фич для линкбилдинга — пересечение доноров, редиректящие домены, вредоносные домены и перекраул ссылок.
1
Перекраул ссылок — предоставит данные по ссылкам «по требованию». Отправьте список страниц (до 500 URL в день), на которых размещены новые ссылки и наш робот соберет по ним данные в течение 2-3 дней. Функционал доступен пользователям с любым платным тарифом.

Инструмент, будет полезен, если вы закупили ссылки и хотите тут же проследить их влияние на SDR, чтобы при необходимости снять их и избежать негативных последствий. Или ваш клиент требует актуальную информацию «на сегодня», а новые ссылки еще не отобразились в отчете.
перекраул ссылок
2
Пересечение доноров — это инструмент, который позволяет провести параллельное сравнение ссылочной массы нескольких доменов, и найти общих и уникальных доноров для каждого анализируемого сайта.

Например, вы хотите найти качественные и релевантные площадки для размещения ссылок. Ранее вам пришлось бы анализировать каждого конкурента по отдельности и вручную искать общие площадки в отчетах. Сейчас же достаточно найти нескольких крупных конкурентов, ввести их домены в инструменте и автоматически найти тех доноров, которые ссылаются на них всех одновременно.
Пересечение доноров Serpstat
3
Редиректящие домены — отчет, который показывает сайты, целиком ссылающиеся на анализируемый, передавая при этом ссылочный вес. Наращивание целых доменов, которые редиректят на сайт — одна из популярных стратегий в линкбилдинге. Отследите влияние такой ссылочной массы на домен и узнайте, кто из конкурентов покупает дропы и приклеивает их к своему сайту.
редиректящие домены Serpstat
4
Вредоносные домены. Если ваш сайт получил ссылку с сомнительного ресурса, вы можете увидеть платформу и тип уязвимости, на которые нацелен «зараженный» донор.
Вредоносные домены Serpstat
5
В API для анализа ссылок доступно более 20 методов для выгрузки данных о ссылающихся доменах и страницах, вредоносных донорах и акцепторах, динамике входящих и исходящих ссылок, анкорах, страницах-лидерах по количеству беклинков, пересечении доноров и т.д. Автоматизируйте рутинные SEO-процессы и создавайте пользовательские отчеты.
  • Serpstat считает только уникальные ссылки: если есть на одной странице несколько ссылок, у которых одинаковые целевая страница и анкор, в нашем индексе будет указана одна ссылка.
  • Детальные отчеты Serpstat строятся на основе данных по активным ссылкам: ссылки, которые не были обнаружены при проверке, попадают в отдельные отчеты. В отчетах анализируемых сервисов для того, чтобы получить эти сводки, нужно задействовать дополнительные фильтры, по умолчанию — данные отдают все вместе.
  • Мы показываем в Суммарном отчете данные по актуальным ссылкам, а не суммарные данные с учетом удаленных ссылок, такая информация содержит мусор.
Есть технические вопросы по возможностям сервиса для анализа ссылок? Напишите в поддержку Serpstat. Команда отвечает на вопросы в течение ОДНОЙ минуты, можете проверить. Немногие сервисы предоставляют поддержку в свободном доступе. А мы — да! Без лимитов и ограничений даже для пользователей без платной подписки. А теперь — еще и удобное вам время, выходящее за рамки стандартного рабочего.

Заключение

Чаще всего для оценки индексов используется размер базы данных обратных ссылок (количество ссылающихся доменов или страниц) и такой показатель кажется очень простым и понятным. Однако только актуальность и полнота данных являются решающими факторами.

Для всестороннего анализа ссылок, зачастую SEO-специалисты используют преимущества различных платформ и комбинируют данные нескольких сервисов. Одним из таких инструментов в вашем арсенале может стать Serpstat, который, кроме собственного индекса ссылок, имеет также ряд уникальных инструментов для ссылочного анализа.

Ну что ж, рядом инсайдов из мира беклинков мы с вами поделились. Оставляйте комментарии, чтобы обсудить статью и задать дополнительные вопросы по анализу ссылок в Serpstat :)
Чтобы быть в курсе всех новостей блога Serpstat, подписывайтесь рассылку. А также вступайте в чат любителей Серпстатить и подписывайтесь на наш канал в Telegram.

Serpstat — набор инструментов для поискового маркетинга!

Находите ключевые фразы и площадки для обратных ссылок, анализируйте SEO-стратегии конкурентов, ежедневно отслеживайте позиции в выдаче, исправляйте SEO-ошибки и управляйте SEO-командами.

Набор инструментов для экономии времени на выполнение SEO-задач.

7 дней бесплатно

Оцените статью по 5-бальной шкале

4.45 из 5 на основе 47 оценок
Нашли ошибку? Выделите её и нажмите Ctrl + Enter, чтобы сообщить нам.

Поделитесь статьей с вашими друзьями

Вы уверены?

Знакомство с Serpstat

Узнайте об основных возможностях сервиса удобным способом!

Отправьте заявку и наш специалист предложит вам варианты обучения: персональную демонстрацию, пробный период или материалы для самостоятельного изучения и повышения экспертизы. Все для комфортного начала работы с Serpstat.

Имя

Email

Телефон

Будем рады вашему комментарию
Я принимаю условия Политики конфиденциальности.

Спасибо, мы сохранили ваши новые настройки рассылок.

Открыть чат технической поддержки
mail pocket flipboard Messenger telegramm