18393 266 5
Обновления Serpstat Читать 28 минут

Как перестать платить за мусор в ссылочном индексе?

Исследование данных ссылочных индексов Serpstat, Ahrefs, MOZ, Megaindex, Semrush и Majestic
Исследование данных ссылочных индексов Serpstat, Ahrefs, MOZ, Megaindex, Semrush и Majestic
Зоряна Матюшенко
Customer Support & Education Specialist at Serpstat
А вы точно видите объективную картину по ссылочной массе сайта в своем SEO-сервисе? Развивая собственный ссылочный индекс и анализируя отзывы пользователей о работе с беклинками, решили проресерчить вопрос.

И (без кликбейта тут никак) результаты нас поразили! Если вкратце, то объем ссылочных индексов не говорит ни о чем. При больших объемах баз данных качество часто хромает из-за устаревших данных и дублей. В общем, в исследовании инсайды, которые вы обязаны узнать!
Создание собственного ссылочного индекса — ресурсоемкий процесс, поэтому большинство SEO-сервисов используют данные о ссылках, которые покупают у поставщиков с собственными краулерами. Такие данные трудно пополнять и актуализировать, так как все изменения находятся на стороне компании-поставщика. Чтобы влиять на качество данных по ссылкам непосредственно, Serpstat разработал собственный ссылочный индекс.
Сейчас ссылочный индекс Serpstat содержит данные об 1 трлн ссылок по 386 млн доменов. Каждый день краулеры добавляют еще 2 млрд новых ссылок и обходят 2,5 млн доменов.
SEO-платформы часто используют для позиционирования своих инструментов тезисы «самый большой индекс‎»‎, «самая полная база ссылок‎»‎, «лучший индекс‎»‎, но действительно ли размер = качество данных? Мы решили глубже разобраться в том, что же стоит за количественными параметрами сервисов Semrush, Ahrefs, MOZ, Majestic и Megaindex и какое значение они имеют в анализе ссылочного профиля сайта.

Чем отличаются ссылочные индексы разных платформ?


Сравнивая ссылочные индексы, важно понимать, что существуют разные подходы к построению баз ссылочных данных. Например, они могут формироваться из нескольких «субиндексов», которые содержат данные разной степени актуальности. Рассмотрим отличия в архитектуре индексов некоторых сервисов детальнее.

Ссылочный индекс Ahrefs построен так:
  • live — «живые» ссылки, которые были обнаружены в момент последней проверки роботом и остаются такими до следующего краулинга;
  • recent субиндекс содержит данные об активных ссылках, а также потерянных, которые были в «live» статусе последних 3-4 месяца. Важно понимать, что в этот список могут попадать ссылки, которые робот посчитал потерянными в силу технических причин.
  • historical — все исторические ссылки домена, которым краулер присвоил статус «live», начиная с 2016 года (с момента запуска индекса Ahrefs). На данный момент, эти ссылки могли потерять свою актуальность.

Semrush использует «fresh index» — ссылки, зафиксированные в последние 6 месяцев краулинга.

MOZ отображает «fresh» данные, полученные при последнем краулинге. При этом данные обновляются не по всем ссылкам регулярно, приоритет у более качественных страниц, которые сервис определяет с помощью машинного обучения.

Индекс Majestic состоит из таких частей:
  • fresh index — все ссылки, которые считались активными при последней проверке за период от 90 до 120 дней.
  • historical index — кроме данных fresh-индекса содержит все ссылки, которые когда-либо были замечены по анализируемому домену.

Мегаиндекс хранит исторические данные по ссылкам с 2015 года, когда начал формировать свой индекс.

В индексе Serpstat содержатся ссылки только категории fresh — активные в течение последних 70 дней. Такая архитектура позволяет полностью обновлять данные за этот период. Если активная ссылка при следующей проверке не обнаруживается, информация о ней хранится еще 6 месяцев в разделе Потерянные ссылки. Поэтому пользователи получают только актуальную картину ссылочного профиля конкурента или своего сайта. Как мы строили индекс подробно рассказал Олег Саламаха.
Архитектура ссылочных индексов разных сервисов
Архитектура ссылочных индексов

Как мы сравнивали ссылочные индексы?
Индексы обратных ссылок можно охарактеризовать множеством параметров, от размера базы и полноты данных до мощностей серверов и краулеров.

В исследовании мы рассмотрим несколько параметров для количественной и качественной оценки индексов:
  • объем ссылочного индекса
  • частота и скорость обновления
  • индекс покрытия
  • уникальность данных по ссылкам.

#мнение_экспертов


На какие параметры ссылочных индексов обращаете внимание?

При работе над ссылочной массой обращаю внимание на разные аспекты сайтов. Если исключить такие важные моменты, как ранжирование сайта, качество контента, методы его формирования, место размещения материалов с внешними ссылками, ценообразование и другие важные показатели.

И будем ориентироваться только на ссылочные метрики, то мы обращаем внимание в первую очередь на метрики качества общей ссылочной массы, в зависимости от сервиса которым вы пользуйтесь к ним будет относиться:
  • Domain Rank (DR);
  • AS (Authority Score);
  • Citation Flow (CF) и Trust Flow (TF).

Во вторую очередь стоит ориентироваться уже на количественные показатели:
  • общее количество уникальных доменов;
  • общее количество внешних ссылок;
  • количество IP адресов и подсетей;
  • количество уникальных исходящих ссылок с домена;
  • SEO/ORG распределение ссылок.
  • Динамика ссылок.
Рамазан Миндубаев, TRINET.Group
Основные параметры:
  1. В каком разделе размещается ссылка. Важно, чтобы она не была в каталоге, где только покупные ссылки (проверяем руками).
  2. DR (Ahrefs API).
  3. Кол-во ссылающихся доменов и страниц (Serpstat API).
  4. Кол-во исходящих доменов и страниц (Serpstat API).
  5. Кол-во ключевых слов, по которым ранжируется сайт (Serpstat API).
  6. Изменение кол-ва ключевых слов за последние 6 месяцев (Serpstat API).
  7. Тематичность (проверяем руками).
Владислав Наумов, Inweb
В ссылочном индексе я обычно останавливаю свой вгляд на следующих параметрах:
  • Трафик страницы, с которой идет ссылка в нужном мне регионе.
  • Количество ключевых слов в топ-100 в этом регионе.
  • Тип ссылки (не просто Dofollow/Nofollow — Спонсор, UGC, ссылка в комментарии, подвале (сквозная). Я уверен, если помозговать, можно выловить еще множество типов — ссылка-картинка, анкор, безанкор, бессмысленный анкор (тут здесь и там).
  • Тип страницы (по микроразметке например или каталогизация типов страниц и доменов. Например, Govermental, Educational, Catalog, Forum, Review, Blog).
  • Количество других исходящих ссылок на этой странице.
  • Дата публикации страницы и дата первого обнаружения.
  • Тематика домена.
  • Title ссылки.
  • Title домена (неплохо бы помогло отсеивать ненужные домены).
  • Длина контента на данной странице.
  • Есть ли данный домен в базах бирж ссылок. Вы сами понимаете, как было бы полезно выловить таких.

Те данные, которые выловить не удается, вытаскиваем самостоятельно, что конечно напрягает — ведь приходится снимать данные в разных таблицах и сводить…
Николай Шмичков, SEOquick
Обращаю внимание на 15-20 показателей, но наиболее приоритетные следующие:
- ссылающиеся домены;
- динамика ссылочной массы (домены);
- ссылающиеся ip-подсети;
- количество dofollow-ссылок;
- распределение dofollow/nofollow/redirect;
- анкор-лист (популярные слова в анкорах).
Сергей Сосновский, Sosnovskij.ru
При анализе ссылочного профиля обращаем внимание на такие параметры:
- Пузомерки DR и UR
- количество ссылающихся доменов, беклинков, акцепторов
- соотношение follow/nofollow
- соотношение анкорных/безанкорных ссылок, а также брендовых анкоров.
- наличие .gov, .edu доменов
- объем трафика и ключевых слов и т.д.
Игорь Шулежко, rankUP

Большая база — преимущество или недостаток?


Для оценки сервиса по анализу ссылок в SEO-нише принято оперировать объемом ссылочного индекса — количеством ссылающихся доменов или страниц на сайт в базе данных определенной платформы. Такой показатель может показаться удобным и понятным, особенно, если нужно выбрать один инструмент из нескольких альтернатив. Приведем статистику по платформам из официальных источников.
Объем ссылочных индексов анализируемых сервисов разных сервисов
Объем ссылочных индексов анализируемых сервисов
*Majestic не отслеживает метрику «ссылающиеся домены», поэтому статистику по этому инструменту не анализируем, поскольку некорректно сравнивать количество ссылающихся доменов и количество страниц по разным сервисам.
Источники данных
Но объемная база не всегда указывает на качественные данные. Зачастую, в индексе присутствуют дубликаты, устаревшие данные. Пользователи сервисов для анализа ссылок замечают спамные ссылки в отчетах, которые вероятней всего появились в индексе однажды и продолжают сохраняться. Из-за особенностей архитектуры могут возникать наслоения данных, собранных в разное время (исторический, свежий, недавний и любые другие индексы).
Почему данные по ссылкам настолько разнятся?

Причин может быть много:
1
Частота и скорость обновления базы индекса: время, за которое обновляется весь индекс, т.е. робот проходит и актуализирует все ссылки в индексе. В Serpstat в отчетах по анализу внешних ссылок выводится дата последней индексации ссылки.
анализ ссылок Serpstat
2
Скорость и возможность сервиса находить новые данные по сайту.
3
Скорость и возможность сервиса удалять неактуальные данные по сайту.
4
Особенности краула страниц: учет robots.txt, meta robots, x-robots-Tag, тегов noindex/nofollow, доступность сайтов в момент их краула тем или иным роботом, отдельные блокировки сервисов через перечисленные выше способы или другими — по HTTP заголовкам, по типу обращения краулеров к странице (GET, POST, HEAD), по идентификатору (User Agent), по IP.
Что делать, если сервис не видит вашу ссылку?
Воспользуйтесь перекраулом ссылок. Отправьте список страниц, на которых размещены новые ссылки и робот Serpstat соберет по ним данные в течение 24 часов.
Учитывая разницу в архитектуре и алгоритмах работы поисковых роботов различных платформ (глубину краулинга, учет уникальности хоста, IP, подсетей), оценивать индексы по количеству ссылок или ссылающихся доменов некорректно.
Большая база ссылок — это чисто маркетинговая цель. Если цифра больше, чем у конкурента, еще не значит, что данные лучше. Serpstat может за месяц сделать базу индекса больше, чем у всех конкурентов вместе взятых, но наши пользователи от этого не выиграют.
Михаил Броун, Serpstat
За огромным размером базы часто стоит низкокачественная информация, которую пользователи не используют. Поэтому важен, в первую очередь, не объем, а корректность и актуальность данных.

#мнение_экспертов


Играет ли роль размер базы ссылочного индекса или еще важны актуальность, уникальность данных?

Размер базы индекса, как и актуальность важны, но для меня более важно наличие донора в индексе, чем просто знать, что на мой сайт ссылается какой-то мусорный ресурс. Ahrefs показывает больше ссылок, чем Serpstat, но эта разница, в большинстве своем, формируется из-за мусорных доноров, которые гугл даже не индексирует. Мы используем API Serpstat для получения данных о донорах.

Было бы идеально, сделать какой-то фильтр, чтобы посмотреть только ссылающиеся страницы, которые есть в индексе Google/Яндекс.
Владислав Наумов, Inweb
Естественно, размер базы данных — важная метрика при конкурентном анализе, так как дает широкое понимание, как работают конкуренты, какие виды и типы ссылок они наращивают, какие методы используют. Актуальность и уникальность базы важные параметры, но мы считаем, что действительно важно то, не на сколько база большая, актуальная или уникальная, а то насколько она точно работает и находит такие же ссылки, которые учитываются поисковыми системами.
Рамазан Миндубаев, TRINET.Group
Ни одна ссылочная база не дает 100% эффекта, и поэтому важна действительно актуальность данных и размер базы. Так, одни базы могут похвастаться большим количеством ссылок, доменов, но некоторые домены в итоге оказываются повторами.

Также внутри ссылочного индекса нужен функционал поиска дублей ссылок, отсева мусорных ссылок с сервисов анализов сайта и прочего (в Serpstat это реализовано автоматически). Иначе приходится анализировать огромные таблицы данных, где полезных доноров искать приходится долго. Часто ты в итоге выкачиваешь 100000 строк, а реальных интересных ссылок там менее трех сотен.
Николай Шмичков, SEOquick
На мой взгляд, размер базы ссылочного индекса важен, но еще важнее ее актуальность. Например, мне важно, чтобы все отображаемые ссылки в базе были рабочими. То есть важно регулярно чистить базу от неработающих ссылок.
Михаил Шакин, Shakin.ru
Важен и размер базы, и ее актуальность. Но здесь важна «золотая середина». Создать максимально большую и максимально актуальную базу предельно сложно. Необходим баланс между размером и актуальностью. То есть база, охватывающая 70% сайтов и показывающая данные, актуальные за последний месяц лучше, чем охватывающая 95% сайтов и с данными только за последний год.
Сергей Сосновский, Sosnovskij.ru
Играет ли роль размер базы ссылочного индекса или еще важны актуальность, уникальность данных?

Имеет значение как размер базы, так и ее актуальность и уникальность. Важно все. Чем больше ссылочный индекс, чем более актуальные и уникальные данные, тем более точно можно проанализировать и сформировать ссылочную стратегию.
Игорь Шулежко, rankUP
Персональная демонстрация
Оставьте заявку и мы проведем для вас персональную демонстрацию сервиса, предоставим пробный период и предложим комфортные условия для старта использования инструмента

Частота обновлений данных


Чтобы проследить, насколько часто анализируемые сервисы обновляют данные индексов, рассмотрим цикл полного обновления данных. Так, для анализируемых платформ официально требуется от 60 до 180 дней, чтобы обновить информацию о ссылках.
Обновление данных ссылочных индексов разных сервисов
Обновление данных ссылочных индексов
Но что происходит в действительности? Обратимся к данным сервисов:
Как видим, в некоторых сервисах обнаружены устаревшие данные, которых не должно быть при заявленной частоте обновления.

#мнение_экспертов


Какая частота обновления данных в индексе оптимальна? Важно ли получить новые ссылки сразу?

В теории – да, важно обновление данных в индексе, на практике же часто получается так, что сайты приходят с непроработанной ссылочной массой и необходимо наращивать большое количество ссылок на проект. Таким образом, при анализе конкурентов у нас есть большое количество работы для роста ссылочной массы, поэтому условный лаг в данных на 1−2 месяца является для большинства задач приемлемым. Гораздо важнее опять-таки получить не больше данных, а те данные которые использует поисковые системы при учете ссылок.

Я бы предложил сервисам смотреть больше в сторону интеграций с личными кабинетами Яндекс Вебмастер и Google Search Console, чтобы получать данные оттуда и использовать их при маркировке доноров. А те ссылки, которые не имеют разметки, помечать иначе, это был бы важный сигнал при работе со ссылками и при накоплении большой статистики, было бы интересно анализировать эти параметры.
Рамазан Миндубаев, TRINET.Group
Достаточно обновления базы один раз в 2 недели. Не вижу практической ценности в том, чтобы увидеть новую входящую ссылку на следующий день.
Владислав Наумов, Inweb
Чем актуальнее, тем лучше, но вполне достаточно, когда новые ссылки добавляются в базу за 30−45 дней.
Сергей Сосновский, Sosnovskij.ru
Всегда хочется получать ссылки сразу для своего ресурса. Очень важна интеграция с вебмастером – чтобы он быстро находил ссылку в индексе принудительно по потенциальным доменам. Пока на сегодня такой функционал не обнаружен и нам приходится искать чуть ли не запросами в поиске.

Есть прямая корреляция между количеством ссылок и позициями, но тут дьявол кроется в деталях. Чистый ссылочный профиль в белом SEO важнее гораздо количественных метрик – с этим я столкнулся в 2016-2017 и после этого. Мы часто ссылки делаем по методу аутрич, и нам не всегда сообщают, что их разместили и не присылают их по почте. Поэтому приходится искать их вручную, ведь ссылочный индекс всегда приходит с запозданием.
Николай Шмичков, SEOquick
Думаю, от раза в неделю до раза в месяц оптимально. Возможность получить новые ссылки сразу для меня не особо важна.
Михаил Шакин, Shakin.ru
Если речь об обновлении базы беклинков ресурсов, в идеале ежедневно. Чем быстрее обновляется база, тем быстрее мы сможем получить и проанализировать данные.
Игорь Шулежко, rankUP

Полнота данных по ссылкам


Ни один инструмент не гарантирует показ всех ссылок. Сервисы отслеживают только 50−70% от общей массы ссылок, но, чаще всего, этого достаточно для регулярной работы со ссылочным профилем.
Видеть все ссылки не особо и нужно для анализа ссылочной массы. Ahrefs, например, показывает кучу ссылок, но из них не все находятся в индексе, так как есть много «стремных» сайтов, которые ссылаются на все подряд.
Владислав Наумов, Inweb
Но для некоторых задач все же важно получить как можно больше информации. Например, если речь идет о снятии ссылочных фильтров. Поэтому оценим индекс покрытия ссылок — параметр, который указывает, насколько полные данные о количестве ссылок по определенному домену отображает тот или иной сервис по сравнению с фактической ситуацией.

Поскольку подсчитать реальное количество ссылок невозможно, чтобы получить представление об полноте данных, воспользуемся количеством ссылок по Google Search Console* как независимого источника данных.
*Google Search Console также не отображает все данные о ссылках или актуализирует их с задержкой.

Для поиска примеров мы обратились к нашим читателям запросили данные по Google Search Console и сравнили данные с тем, что обнаруживают платформы.
Индекс покрытия для сайта ссылочными индексами
Индекс покрытия для сайта ishooter.ru
Индекс покрытия для сайта ссылочными индексами разных сервисов
Индекс покрытия для сайта e-ukrservice.com
Как видим, количество внешних ссылок по данным сервисов и Google Search Console отличаются значительно. Сравните данные нескольких сервисов по своему проекту и вы убедитесь, что для полной картины по ссылкам нужны как минимум несколько инструментов.
Во время экспериментов по наращиванию ссылок мы анализировали данные в 3 популярных инструментах и сравнивали с данными из Яндекс Вебмастера (ЯВ) и Google Search Console (GSC). В итоге, увидели, что ссылочные анализаторы находят около 40-60% всех ссылок, размещенных на проект, что является достаточно малым показателем. И примерно 40% ссылок, которые есть в ЯВ и GSC, не видят ссылочные анализаторы, если использовать только один сервис.

Таким образом сложилось понимание, что для того, чтобы покрыть 80+% ссылочных данных приходится собирать данные со всех доступных инструментов.
Рамазан Миндубаев, TRINET.Group

Уникальность ссылочных данных


Кроме размера базы, частоты обновления и полноты данных важно ориентироваться и на то, насколько данные сервиса уникальны по сравнению с другими. Особенно, если предстоит выбор из нескольких инструментов для анализа ссылок.

Доля уникальных ссылающихся доменов — параметр, показывающий % доноров, которых нет в аналогичных отчетах платформ конкурентов.

Для такого анализа выбрали случайным образом 10 доменов в разных нишах: от гейминга до YMYL, но мы старались сделать подборку разнообразной в плане географии, ниш и трафика.

Список доменов, которые исследовали:
  • brightlocal.com (США) — онлайн маркетинг
  • worldofwarcraft.com (США) — гейминг
  • namepros.com (США) — вебхостинг
  • subaru.com (США) — автомобильная промышленность
  • ourplanet.com (США) — охрана окружающей среды, правительственные организации
  • ispringsolutions.com (США) — IT, программирование
  • roccat.org (США) — видеоигры и консоли
  • 11bitstudios.com (Польша) — гейм дизайн
  • aeg.com (Украина) — техника
  • ppmco.org (США) — правительственная организация по здравоохранению.

По каждому домену получили данные о количестве:

  • ссылающихся сайтов-доноров по Serpstat
  • ссылающихся сайтов-доноров по конкурентному сервису
  • общих доноров Serpstat и конкурента
  • уникальных доменов-доноров Serpstat.
Уникальность ссылающихся доменов Serpstat и Ahrefs
Уникальность ссылающихся доменов Serpstat по сравнению с Ahrefs
Уникальность ссылающихся доменов Serpstat и Semrush
Уникальность ссылающихся доменов Serpstat по сравнению с Semrush
 Уникальность ссылающихся доменов Serpstat и MOZ
Уникальность ссылающихся доменов Serpstat по сравнению с MOZ
В индексе Serpstat содержится около 60% ссылающихся доменов, содержащихся в индексах альтернативных сервисов и около 40 % уникальных данных, которых нет в сервисах-аналогах.
Исследуя ссылочную массу сайта с помощью Serpstat, вы получите больше актуальных данных для анализа. А с помощью комбинации нескольких сервисов, увидите наиболее полную картину ссылочного профиля.

#мнение_экспертов


Сравнивали ли для своих проектов количество ссылок в разных инструментах? Если да, то какие выводы сделали?

Да, сравнивал. Я считаю, что каждый SEO-специалист должен попробовать разные инструменты и выбрать тот, который ему больше нравится. Какие-то отклонения от данных в панели Google Search Console вполне допустимы у любого инструмента. Это нормально.
Михаил Шакин, Shakin.ru
Да, делал и неоднократно.

Пока ни один инструмент не дает четких параметров, которые нужны для отсева, поэтому приходится сортировать домены и проверять их уже отдельно.
анализ ссылок Serpstat дашборд
Например, мне в Google надо видеть не NOFOLLOW. А уже и SPONSORED/UGC контент.

Но мне очень нравится инструмент сравнения доменов – у Serpstat он реализован удобнее, чем у аналогичных сервисов, и его данные достойны изучения. Например, на этом скрине сайт нашего клиента.
анализ ссылок Serpstat отчет
И этот же сайт в другом сервисе. Сразу бросается в глаза количество доменов:
анализ ссылок ахрефс отчет
Оба дашборда удобные и есть масса интересных отчетов для анализа.

Тем не менее нужно больше интеграций с вебмастером для своевременного поиска собственных ссылок и конечно же иметь отличные методы сортировки ссылочных баз (об этом говорил в вопросе размера базы) – от их истории до актуального состояния (у Serpstat это уже есть). А для сортировки мне как раз не хватает ряда метрик, которых пока нет ни у кого и приходится изучать ссылки руками.

Николай Шмичков, SEOquick
Единожды проводил тест. В популярных сервисах получилось +- равное количество ссылок: где-то больше для одного домена и меньше для другого, где-то, наоборот. Принял для себя, что проще пользоваться одним, который больше нравится по юзабилити/сервису/стоимости.
Сергей Сосновский, Sosnovskij.ru
Для анализа ссылочного профиля ресурса и разработки стратегии ссылочного продвижения используем данные по беклинкам из разных сервисов: Serpstat, Ahrefs, Semrush, Google Search Console, Яндекс.Вебмастер и т.д.

Какие сервисы используем зависит от региона ресурса. В разных сервисах база беклинков будет отличаться между собой, поэтому, чтобы качественно проанализировать ссылочный профиль, собираем базы из нескольких сервисов.
Игорь Шулежко, rankUP

Почему стоит попробовать Serpstat для ссылочного анализа

Так как же перестать платить за мусор в ссылочных индексах сервисов? Выше мы выяснили, что наличие большого количества ссылочных данных не имеет значения, если они устаревшие или неполные.

Так как ссылочный фактор ранжирования — один из ведущих в SEO, необходимо уделять тщательное внимание не только анализу ссылок, но и качеству анализируемых данных.
При анализе ссылочного первую очередь смотрю на количество ссылающихся доменов. На количество ссылок тоже обращаю внимание, но ссылающиеся домены важнее, так как ссылки могут быть сквозными.

Изучаю динамику роста ссылочной массы. Желательно, чтобы она увеличивалась постепенно и постоянно, без резких изменений в плюс или минус. Вот пример хорошего роста:
пример роста ссылочной массы
Обязательно сравниваю ссылочную массу с конкурентами, а также динамику ее роста в сравнении с ними.

Михаил Шакин, Shakin.ru
В получении необходимой информации для анализа вам поможет Анализ ссылок Serpstat (причем даже если вы уже используете другой инструмент).

Serpstat делает упор на качество данных индекса. А, кроме привычных отчетов ссылочного анализа, таких как:
  • Ссылающиеся домены
  • Входящие ссылки
  • Исходящие ссылки
  • Исходящие домены
  • Анкоры ссылок
  • Страницы-лидеры

Сервис располагает рядом уникальных фич для линкбилдинга — пересечение доноров, редиректящие домены, вредоносные домены и перекраул ссылок.
1
Перекраул ссылок — предоставит данные по ссылкам «по требованию». Отправьте список страниц (до 500 URL в день), на которых размещены новые ссылки и наш робот соберет по ним данные в течение 2-3 дней. Функционал доступен пользователям с любым платным тарифом.

Инструмент, будет полезен, если вы закупили ссылки и хотите тут же проследить их влияние на SDR, чтобы при необходимости снять их и избежать негативных последствий. Или ваш клиент требует актуальную информацию «на сегодня», а новые ссылки еще не отобразились в отчете.
перекраул ссылок
2
Пересечение доноров — это инструмент, который позволяет провести параллельное сравнение ссылочной массы нескольких доменов, и найти общих и уникальных доноров для каждого анализируемого сайта.

Например, вы хотите найти качественные и релевантные площадки для размещения ссылок. Ранее вам пришлось бы анализировать каждого конкурента по отдельности и вручную искать общие площадки в отчетах. Сейчас же достаточно найти нескольких крупных конкурентов, ввести их домены в инструменте и автоматически найти тех доноров, которые ссылаются на них всех одновременно.
Пересечение доноров Serpstat
3
Редиректящие домены — отчет, который показывает сайты, целиком ссылающиеся на анализируемый, передавая при этом ссылочный вес. Наращивание целых доменов, которые редиректят на сайт — одна из популярных стратегий в линкбилдинге. Отследите влияние такой ссылочной массы на домен и узнайте, кто из конкурентов покупает дропы и приклеивает их к своему сайту.
редиректящие домены Serpstat
4
Вредоносные домены. Если ваш сайт получил ссылку с сомнительного ресурса, вы можете увидеть платформу и тип уязвимости, на которые нацелен «зараженный» донор.
Вредоносные домены Serpstat
5
В API для анализа ссылок доступны 16 методов для выгрузки данных о ссылающихся доменах и страницах, вредоносных донорах и акцепторах, динамике входящих и исходящих ссылок, анкорах, страницах-лидерах по количеству беклинков, пересечении доноров и т.д. Автоматизируйте рутинные SEO-процессы и создавайте пользовательские отчеты.
Есть технические вопросы по возможностям сервиса для анализа ссылок? Напишите в поддержку Serpstat. Команда отвечает на вопросы в течение ОДНОЙ минуты, можете проверить. Немногие сервисы предоставляют поддержку в свободном доступе. А мы — да! Без лимитов и ограничений даже для пользователей без платной подписки. А теперь — еще и круглосуточная работа чата.

Заключение

Чаще всего для оценки индексов используется размер базы данных обратных ссылок (количество ссылающихся доменов или страниц) и такой показатель кажется очень простым и понятным. Однако только актуальность и полнота данных являются решающими факторами.

Для всестороннего анализа ссылок, зачастую SEO-специалисты используют преимущества различных платформ и комбинируют данные нескольких сервисов. Одним из таких инструментов в вашем арсенале может стать Serpstat, который, кроме собственного индекса ссылок, имеет также ряд уникальных инструментов для ссылочного анализа.

Ну что ж, рядом инсайдов из мира беклинков мы с вами поделились. Оставляйте комментарии, чтобы обсудить статью и задать дополнительные вопросы по анализу ссылок в Serpstat :)
Чтобы быть в курсе всех новостей блога Serpstat, подписывайтесь рассылку. А также вступайте в чат любителей Серпстатить и подписывайтесь на наш канал в Telegram.

Сэкономьте время на изучении Serpstat

Хотите получить персональную демонстрацию сервиса, тестовый период или эффективные кейсы использования Serpstat?

Оставьте заявку и мы свяжемся с вами ;)

Оцените статью по 5-бальной шкале

4.43 из 5 на основе 46 оценок
Нашли ошибку? Выделите её и нажмите Ctrl + Enter, чтобы сообщить нам.

Поделитесь статьей с вашими друзьями

Вы уверены?

Знакомство с Serpstat

Узнайте об основных возможностях сервиса удобным способом!

Отправьте заявку и наш специалист предложит вам варианты обучения: персональную демонстрацию, пробный период или материалы для самостоятельного изучения и повышения экспертизы. Все для комфортного начала работы с Serpstat.

Имя

Email

Телефон

Будем рады вашему комментарию
Я принимаю условия Политики конфиденциальности.

Спасибо, мы сохранили ваши новые настройки рассылок.

Сообщить об ошибке

Отменить

Мы используем файлы cookie для обеспечения работоспособности сервиса, улучшения навигации и маркетинговых активностей Serpstat. Нажимая "Принять и продолжить", вы соглашаетесь с нашей Политика конфиденциальности

Открыть чат технической поддержки
mail pocket flipboard Messenger telegramm