Здравствуйте, уважаемые читатели сайта Uspei.com. На прошлых занятиях мы начали рассматривать тему внешних факторов и узнали, что внешние факторы можно разделить на три основных направления. Это упоминания, социальные сигналы и ссылки.
В прошлых статьях мы поговорили об упоминаниях и социальных сигналах, узнали, что эти факторы полезны, но у них есть некоторые минусы.
К примеру упоминания, как обычные, так и структурированные, влияют в основном на рейтинг всего сайта, всей компании, всего домена.
Социальные сигналы не дают нам возможности улучшать позиции по конкретным запросам, а лишь косвенно влияют на документ, например, придают нашим страницам актуальности.
Именно поэтому seo-оптимизаторы так любят ссылки – третью составляющую внешних факторов. Именно о ссылках мы сегодня и поговорим.
Три алгоритма ссылочного влияния
Для того, чтобы начинать работу со ссылками нужно понимать, как они работают. Сейчас поисковые системы используют разнообразные алгоритмы анализа ссылок, алгоритмы сортировки результатов поиска на основе ссылок.
Мы рассмотрим три базовых подхода к анализу ссылок, с помощью которых поисковая система может вынести для себя какие-то полезные данные, какие-то сигналы, факторы для оценки страниц нашего сайта.
- Алгоритм page rank (вес ссылки)
- Влияние анкорных текстов
- Алгоритм Hits
Сегодня наше занятие будет более теоретическим, а уже на следующем занятии мы рассмотрим практику строительства ссылок. И так начнём.
Алгоритм page rank (вес ссылки)
Каким образом ссылки влияют на страницы нашего сайта? Существует три основных алгоритма. Первый алгоритм мы рассматривали еще на первых занятиях – это алгоритм пейдж ранк (PageRank).
Алгоритм пейдж ранк напомню – это оценка вероятности пребывания пользователя на основе ссылочных связей. То есть мы говорили, что есть некие люди (Боб и Алекс), которые создали каждый для себя страницы в интернете и потом между двумя этими страницами возникла ссылка.
Основная задача алгоритма – попытаться рассчитать вероятность пребывания пользователя на странице. То есть понять, какая страница более вероятно будет посещаться пользователем. Страница Боба или страница Алекса.
Но при этом оценивается, что пользователи не приходят извне, они приходят только по ссылкам между страницами, как внутри сайта, так и между сайтами – не имеет значения.
И, собственно, на этом и строится весь алгоритм пейджранк. Естественно, что та страница (в нашем случае страница Алекса), которая получает больше ссылок, будет получать более высокую оценку вероятности пребывания, потому что на эту страницу может зайти не только Алекс, но еще и Боб по этой ссылке.
Алекс зайдет на нее, потому что он о ней знает (он ее создал), а Боб зайдет, потому что на эту страницу есть ссылка, то есть здесь вероятность пребывания будет больше.
Но так этот алгоритм работал в 1998 году, в те времена, когда он только был создан. В чем отличие от современного реального пейджранка?
В классическом алгоритме пэйджранк использовалась примитивная модель пользователя. Эта модель называлась пользователь-серфер. Эти условные Боб и Алекс считались достаточно примитивными пользователями, которые заходят на страницу и просто нажимают на все подряд на этой странице, пока не попадут на ссылку или на крестик.
Нажимают в абсолютно произвольном порядке, на произвольные элементы страницы, то есть нет никаких закономерностей.
А это значило, что любая ссылка на странице, независимо от того, где она будет размещена, в любом случае рано или поздно получит клик и перенаправит пользователя на другую страницу.
На самом деле, как вы понимаете, в реале это абсолютно не так. В современной моделе пейджранка используется мотивированный переход пользователя.
То есть сейчас поисковая система с помощью более продвинутых технологий, в том числе с помощью нейросетей, обучаемых алгоритмов, может распознать те ссылки, по которым будет более вероятно совершён переход.
То есть поисковая система сейчас уже понимает, что далеко не все ссылки на странице получают одинаковое количество кликов.
Так, к примеру, если ссылка находится где-нибудь в самом низу, она написана очень маленьким шрифтом, то понятно, что пользователи будут нажимать (вернее вероятность нажатия) на нее меньше, чем на ссылку, которая находится где-то в самом начале страницы и имеет какой-то заметный текст или заметную картинку.
То есть мотивация пользователя от ссылки к ссылке отличается, а значит не верно оценивать каждую ссылку равнозначно и по каждой ссылке передавать одинаковую вероятность перехода, одинаковый ссылочный вес.
Современные поисковые системы понимают это и передают больше ссылочного веса тем ссылкам, по которым более вероятен клик, по которым более вероятен переход пользователя.
Что это значит для нас? А для нас это значит очень интересную вещь. Во-первых, мы должны понимать, что не любая ссылка будет работать. Не любая ссылка, которую мы поставим на наш сайт даст нам существенный прирост.
Если эта ссылка размещена таким образом, что вероятность перехода по ней не велика – эта ссылка нам не особо поможет для продвижения нашего сайта. Она не повысит наш рейтинг, не повысит наш пейджранк.
Как поисковая система может это распознать? Согласно патентам поисковой системы Google, она может проводить этот анализ вероятности перехода на основе следующих факторов: позиция ссылки, ее цвета, видимости и многие другие.
То есть ссылка может быть видимая или невидимая. Если ссылка спрятана в коде, естественно, что вероятность перехода по ней значительно меньше.
Как я уже сказал, позиция или попадание на первый экран тоже важны.
Поисковая система понимает, что в основном пользователи просматривают первых два-три экрана любой страницы. Если какой-то элемент находится очень глубоко на странице, скажем на 5-10 экране, это очень большой уровень вложенности сайта и вероятность перехода по этой ссылке значительно меньше.
То есть, если у нас есть длинная-длинная статья, понятное дело, что те ссылки, которые находятся в начале нашей страницы, получат куда больше переходов, чем те ссылки, которые находятся в конце нашей страницы (о том, сколько текста должно быть в статье читайте тут).
Также поисковая система может анализировать саму разметку ссылки. Как эта ссылка размещена в тексте, похожа ли она на ту, на которую часто нажимают. Похожа ли она на ссылку, по которой происходит какое-то уточнение.
Например, если это ссылка на источник, скорее всего на нее будут больше нажимать. Если эта ссылка на какой-то справочный материал, на нее будут больше нажимать. Если это ссылка со словами, которые больше связаны с темой самой страницы – на нее будут больше нажимать.
То есть поисковая система пытается по разнообразным сигналам распознать вероятность перехода. Это мы должны понять, и поскольку сейчас поисковая система распознает вероятность перехода по разным ссылкам, оценивает его по-разному, классические расчеты пейджранка, классические расчеты ссылочного веса все меньше дают реальное понимание о качестве ссылки.
Оценка ссылочного веса
Есть огромное количество сервисов, которые позволяют оценить вес страницы. Фактически это может сделать любой сервис анализа внешних ссылок и таких сервисов достаточно много.
Очень многие seo-инструменты предоставляют данные о внешних ссылках и практически каждый из этих сервисов дает нам какую-то, какой-то свой пейджранк, то есть все эти сервисы пытаются рассчитать вес страниц по этому алгоритму.
И делают они это чаще всего по классическому алгоритму пейджранк, который подразумевал модель «серфер». То есть это означало, что любая ссылка учитывается, абсолютно любая ссылка равна любой ссылке, они передают абсолютно одинаковый вес.
На самом деле это не так. Именно поэтому ориентировка в данный момент на числовые показатели таких сервисов не всегда правильна. Как рассчитывает пейджранк поисковая система и как рассчитывают пейджранк сторонние сервисы в данный момент – это разные показатели.
И, к сожалению или к счастью, сервисы анализа внешних ссылок сейчас не дают абсолютно правдивые данные. Эти данные могут быть полезны (в чем – мы узнаем позже), но мы должны понимать, что это не тот показатель, который воспринимается поисковой системой и не тот показатель, который поисковая система использует у себя в алгоритме.
Но беда в том, что как раз реальный пейджранк мы не можем посмотреть, потому что нет инструментов анализа такого мотивированного пейджранка.
Конкретные инструменты для анализа ссылочного веса мы рассмотрим на практике в конце статьи, а это первый алгоритм, который учитывает поисковая система при анализе внешних ссылок.
Анкорные тексты
Второй алгоритм, который анализирует поисковая система и использует при анализе внешних ссылок – это анкорный текст.
Мы уже немножко говорили об анкорах ссылки, когда говорили про организацию внутренних ссылок и перелинковку. Но давайте рассмотрим подробнее, что такое анкор ссылки и вспомним, как он работает.
Анкор ссылки – это тот текст, на который мы нажимаем непосредственно при переходе по ссылке. Анкором ссылки может выступать как текст, так и какая-то картинка.
Почему этот текст называется анкором, либо картинка называется анкором? Потому что в языке html ссылка выглядит вот таким вот образом.
<a href="https://uspei.com/kak-vstavit-ssylku/">как вставить ссылку</a>
В href указано на какую ссылку произойдет переход, а вот этот текст “как вставить ссылку” это и будет тот текст, на который мы нажмем и перейдём по этому адресу.
Вот таким образом у нас оформляется обычная html ссылка, а тег <a> называется тег анкор, а текст, который помещен в тег анкор называется анкорным текстом. Вместо этого текста может быть картинка.
Зачем поисковой системе вообще смотреть на эти анкорные тексты, что это дает? Поисковая система на основании анкорных текстов может понять смысл страницы.
Когда одна страница ссылается на другую, чаще всего, она ссылается либо с текстовым анкором, либо с какой-то картинкой. Этот текстовый анкор поисковая система может посмотреть: а что это был за текст?
Скажем, здесь анкорный текст “фотографии котиков”. Как вы думаете, что на этой странице? Скорее всего, на этой странице фотографии котиков. Почему? Потому что об этом нам говорит сам текст этой ссылки.
Словами поисковой оптимизации мы можем сказать, что мы можем уточнить или определить релевантность страницы на основании анкорных текстов внешних ссылок.
Мы можем посмотреть на те ссылки, которые ведут на нашу страницу и таким образом понять релевантность этой страницы.
Если на страницу ведут ссылки со словами “отличный сервис”, наверное, эта компания предоставляет отличный сервис. Если на страницу ведут ссылки со словами “очень вкусная пицца”, возможно, здесь можно заказать очень вкусную пиццу.
То есть текст ссылки характеризует содержание документа, а значит по тексту ссылки можно рассчитать релевантность страницы.
Релевантность – это очень важно, так как именно по релевантности сортируются результаты поиска.
Анкор лист – что это такое и зачем нужно
Так вот, если поисковая система понимает, что анкор ссылки характеризуют содержание страницы, то было бы странно, если поисковая система это не учитывала.
В алгоритме поисковой системы это работает следующим образом. Поисковик составляет список тех фраз, с которыми ссылаются внешние какие-то ссылки на нашу страницу и называет этот список “анкор лист”.
К примеру, если это наша страница и есть несколько внешних ссылок: одна ссылка с анкором “фотографии котиков”, другая ссылка с текстом “смешные котики”. То наш анкор лист в примитивном представлении выглядит следующим образом.
- фотографии котиков – 1;
- смешные котики – 1;
У нас “фотографии котиков” упоминается один раз, “смешные котики” тоже один раз. То есть поисковая система выписывает сколько раз и какие фразы были упомянуты в текстах внешних ссылок. Это называется внешним анкор листом страницы.
У каждой страницы, естественно, свой анкор лист, он зависит от тех ссылок, которые ссылаются на нашу страницу. Даже не читая содержимое самой страницы поисковая система может просмотреть этот анкор лист и проанализировать релевантность хотя бы по плотности ключевых слов.
То есть мы уже здесь явно видим, что эта страница про котиков и здесь есть фото и это, наверное, какие-то смешные фото. И если нам нужно найти документ, то есть страницу по запросу “фотографии смешных котиков”, эта страница нам подходит.
И даже не вчитываясь в содержимое страницы, даже если она нам как-то не доступна, на основании просто текста внешних ссылок поисковая система может понять содержание этой страницы.
Это позволяет поисковой системе решать очень сложные, абстрактные задачи и присваивать релевантность страницам даже в тех случаях, когда это было бы невозможно любыми другими методами. Поэтому анкор лист и те слова, с которыми мы ссылаемся на нашу страницу или другие сайты ссылаются на нашу страницу, чрезвычайно важен.
Он важен еще и потому, что это ещё один сигнал, который не просто дает рейтинг всему сайту или определенной странице, это запросозависимый сигнал – он дает нам релевантность по определенным фразам, по определенным ключевым словам.
Чего к примеру нет делает пейджранк, который просто присваивает вес странице как некий рейтинг, который оценивается отдельно от релевантности, отдельно от запросов. Просто усиливает эту релевантность, скажем так.
Насчет анкор-текстов и анкор-листов мы еще поговорим, потому что здесь все не так просто, но это второй из основных алгоритмов, которые используют поисковые системы при анализе внешних ссылок.
Ссылочный алгоритм Hits
Рассмотрим третью составляющую. Об анкорных текстах и пейджранке знают очень многие и практически каждый seo-оптимизатор работает с этими сигналами, знает как с ними работать или хотя бы слышал, что с ними нужно работать. Но не все работают и знают о таком сигнале-алгоритме, как алгоритм Hits.
Hits – это ссылочный алгоритм, который позволяет оценить вес страницы, но при этом еще и оценить релевантность страницы. То есть он объединяет в себе некие идеи пейджранка и дополняет их еще оценкой релевантности.
Это особо интересно, потому что обычно ссылочные алгоритмы типа пейджранка не рассчитывают релевантность, они просто присваивают какой-то вес.
Давайте разберемся базово, как работает хитс. Об этом можно почитать кстати на википедии, там есть русскоязычная статья про алгоритм hits.
Логика достаточно простая, на самом деле. Идея в том, что в отличие от пейджранка создатели hits решили: а давайте не будем оценивать вес всех страниц в интернете, а давайте изначально оценивать вес в рамках какой-то выборки (тематики).
То есть, если нам нужно найти страницу самую релевантную запросу “магазин электроники” давайте не будем анализировать весь интернет, давайте анализировать страницы, которые релевантны или связаны со страницами про магазин электроники.
Как это делается? В первом шаге делается выборка релевантных страниц. Ну, к примеру, просто на основании текстовых факторов. То есть поисковик просто находит у себя в индексе в нужном регионе нужные страницы текстово-релевантные нужному запросу, например, “магазин электроники”.
Дальше эти страницы, эта выборка дополняется связанными страницами. Что это такое?
Если у нас есть страница, которая релевантна запросу, поисковик смотрит на те страницы, на которые ссылается эта страница и на те страницы, которые ссылаются на эту страницу.
То есть смотрит куда ссылаются релевантные страницы, и кто ссылается на релевантные страницы, кто рекомендует эти страницы про магазин электроники. И вот этими страницами дополняется стартовая выборка.
Делается это потому, что часто хорошие магазины рекомендуют не обязательно тематические ресурсы. Магазин может рекомендовать какой-то блогер или какой-то общий тематический новостной ресурс и было бы странно отсеивать эту информацию.
То есть поисковая система смотрит не только на тематические страницы, но и на около тематические страницы. Те страницы, которые как-то ссылочными связями связаны с основной выборкой.
То есть происходит первичная выборка и потом она дополняется окружающими страницами, которые получают ссылки или сами ссылаются на релевантные страницы из выборки.
И вот у нас уже получилась достаточно объемная выборка разнообразных страниц, а дальше внутри этой выборки считаются 2 оценки: оценка автора и оценка портала (или хаба).
Все страницы в алгоритме условно разделяются на два типа: авторы и порталы. Авторы – это те, кто получают ссылки, это источники качественной информации. А порталы – это те, кто рекомендуют.
Сами порталы могут не быть качественным источником информации, но они рекомендуют другие хорошие страницы. А значит эти страницы тоже не так уж плохи.
К примеру, любой прайс агрегатор (hotline или Яндекс.Маркет) он, по сути, не является качественным контентом, но он рекомендует другой качественный контент.
Качество страниц прайс агрегатора достигается не за счет того, что он что-то там такое уникальное нам предоставляет, какую-то уникальную информацию. Качество странице прайс агрегатора в том, что он хорошо (объективно, качественно) рекомендует другие страницы.
Качество страниц Википедии не только в том, что они хороший автор, но в том числе страницы Википедии обычно хороший портал. Потому что на страницах Википедии по любой теме мы найдем множество ссылок на полезные, более глубокие научные материалы.
То есть, Википедия часто рекомендует качественный контент, а не только получает ссылки, как автор.
То есть любая страница имеет какую-то свою портальную оценку (силу рекомендации) и имеет свою авторскую оценку (силу от рекомендации), то есть насколько ее рекомендуют.
На самом деле, эти оценки рассчитываются в алгоритме hits отдельно, но в итоге сводятся в одну. То есть уже в итоге мы получаем оценку HITS.
Логика расчета авторской и портальной оценки очень схожа с логикой расчета пейджранк. То есть идея в том, что анализируется точно также ссылочная связь между страницами и чем больше страница ссылается на качественные ресурсы, тем выше ее портальность. И чем больше ссылок получает какая-то страница, тем выше ее авторство.
После определенных расчетов все это сводится в единую оценку. И этот подход позволяет более точно и более разнообразно оценивать страницы и при этом оценивать их в рамках одного запроса или в рамках одной тематики в зависимости от целей.
И это позволяет находить именно релевантные страницы, которые могут быть релевантны не только за счет своей авторитетности, но и за счет своих рекомендаций.
К примеру, как я говорил о странице Википедии, которая не только содержит качественный контент, но и ссылается на качественный контент.
Если мы будем говорить о классическом алгоритме пейджранк, то будут выигрывать только те страницы, которые получают ссылки.
В алгоритме hits будут также выигрывать те страницы, которые не только получают ссылки, но и рекомендуют что-то классное, в рамках тематики. То есть, если эта страница рекомендует что попало, не тематические страницы, то она никогда не получит высокую оценку hits.
Проблема в том, что мы нигде не узнаем оценку hits, но мы знаем, что подобные алгоритмы (не в чистом виде, модифицированные, частично измененные) используются поисковыми системами.
Но мы понимаем, что это большой пласт разнообразных ссылочных алгоритмов и мы должны понимать, что все ссылочные алгоритмы используются поисковыми системами чаще всего параллельно.
То есть одновременно используется и пейджранк со ссылкой на мотивированного пользователя, и hits, и, возможно, другие ссылочные алгоритмы.
Возможно это какие-то уникальные ссылочные алгоритмы, trastflow или еще какие-то, которые используют исключительно определенные поисковые системы.
И они используются одновременно и уже вес каждой отдельной оценки считается внутри алгоритма по машинному обучению. Но это уже немножко другая тема.
Какой практический вывод мы должны вынести из hits? Практический вывод очень простой: важно не только получать качественные ссылки, важно иметь прочные ссылочные связи с другими релевантными и тематическими страницами.
Подумайте, возможно вашу страницу может сделать более качественной ссылка на хороший источник. Не обязательно только получать ссылки, можно давать ссылки другим сайтам и при этом увеличивать свой рейтинг.
И здесь важно не просто ссылаться на что-то авторитетное, здесь важно иметь плотную ссылочную связь именно с тематическими, а еще лучше с релевантными страницами.
Естественные и неестественные ссылки
Если мы знаем три основных составляющих алгоритма, которые используют поисковые системы при анализе ссылок, мы можем уже построить для себя некий портрет ссылки, которая понравится поисковой системе и будет для нас максимально эффективной.
Давайте попробуем это сделать. Как должна выглядеть хорошая ссылка с точки зрения поисковых систем – это легко понять.
Высокий авторитет страницы со ссылкой
Прежде всего она должна быть размещена на авторитетной странице. То есть это алгоритм pagerank – это авторитет, он никуда не девается, авторитетность это важная составляющая.
Авторитетность легко понять по количеству внешних ссылок на страницу. Мы в конце посмотрим на практике инструменты для проверки ссылок, для анализа внешних ссылок нашего сайта.
На следующем занятии разберемся, как построить ссылочный план для продвижения нашего сайта, уже обладая теоретическими знаниями. То есть первое – это конечно же авторитетность.
Высокая вероятность клика по ссылке
Причем, здесь важно не только количество переходов по ссылке, а именно вероятность перехода по ссылке. То есть ссылка должна быть заметная, она должна быть в контенте, то есть не где-то внизу, не где-то сбоку, она должна находиться в содержании, она должна быть выделена, она должна быть видимая.
Потому что, если вы размещаете где-то скрытую, невидимую ссылку, поисковая система прекрасно может анализировать стиль оформления этого текста, стиль оформление этой ссылки, и прекрасно понимает, что вероятность перехода по такой ссылке практически никакая.
То же самое к вероятности перехода можно отнести язык ссылки и контента. Если у нас сайт на польском, то, наверное, ссылка на японском внутри этого сайта будет выглядеть странно и вероятность нажатия на такую ссылку крайне низкая.
То есть мы можем просто воспользовавшись критическим мышлением, человеческой логикой посмотреть на ссылку и задать себе вопрос: есть ли шанс, что по этой ссылке кто-то перейдет.
Если шансов, что по ссылке кто-то перейдет нет, это значит, что такая ссылка, скорее всего, будет плохо работать.
Именно поэтому неплохо работают ссылки-картинки, потому что картинка может привлекать внимание и вызывать клики у пользователя.
И ссылка-картинка может быть точно так же нам полезна – не стоит считать, что нам полезны только текстовые ссылки, потому что у ссылки-картинки содержание атрибута alt, по сути, заменяет текстовый анкор.
То есть мы можем использовать картинку и, если вы вспомните тему с оптимизацией изображений, у изображений есть атрибут alt и как раз содержание атрибута alt, по сути, используется, как текстовый анкор.
Тематичность и релевантность ссылок
И третий основной параметр – ссылка должна быть тематичной, а лучше всего релевантной.
То есть лучше всего, если мы продвигаем магазин электроники, получить ссылку не просто со страницы про электронику, а со страницы про магазины электроники.
Например, какой-то рейтинг магазинов или обзор магазина или сравнение каких-то магазинов лидеров рынка. То есть или отзыв какого-то блогера о взаимодействии с нашим магазином.
То есть лучшая ссылка – это релевантная ссылка, потому что именно релевантная ссылка даст нам максимум соответствий со всеми ссылочными алгоритмами.
Манипулятивные ссылки (ссылочный спам)
Но кроме алгоритмов, которые влияют непосредственно на качество ссылки, на то, как она сработает, как она будет оценена поисковой системой, мы должны понимать еще одну интересную вещь.
Все оптимизаторы еще с начала работы google и других крупных поисковых систем так или иначе быстро узнали, что ссылки это важный фактор при продвижении сайта.
Как говорят сами инженеры гугла, ссылочные факторы сейчас (2018) являются третьим по значимости фактором среди всех факторов в поисковой системе google.
Это, на самом деле, чрезвычайно важно, то есть это очень весомо. И те, кто работает и продвигают сайты в гугле знают, что ссылки – это очень важно при продвижении в Google. Ну и в Яндексе они тоже, на самом деле, весьма хорошо работают.
Так вот, поскольку все оптимизаторы знают, что ссылки дают большой плюс при продвижении – ими часто любят манипулировать.
Как это происходит мы будем рассматривать на следующих занятиях, но мы должны понимать, что в Гугле и в Яндексе есть анти-спам алгоритмы, скажем так. То есть, есть такое понятие, как ссылочный спам.
Ссылочный спам означает, что ссылка создана с единственной целью – она создана накрутить рейтинг сайта.
Условно инженеры поисковых систем разделяют все ссылки на спамные и естественные.
Абсолютно правильная, естественная ссылка с точки зрения инженеров поисковых систем – это та ссылка, которую пользователь поставил просто потому, что ему понравился сайт.
Он ничего не знает про seo оптимизацию, он просто хочет порекомендовать какой то сайт, какую-то страницу, она ему очень понравилась и поэтому он поставил эту ссылку. Это настоящая, естественная ссылка.
Но те ссылки, которые создают seo-оптимизаторы, часто сложно назвать естественными, потому что их и покупают и договариваются о размещении этих ссылок за какие-то другие вознаграждения или меняются этими ссылками.
Некоторые даже взламывают чужие сайты, для того чтобы поставить ссылки на свой сайт. Будем говорить об этих методах на следующих занятиях.
Есть очень много разных способов, как люди получают ссылки на свои сайты, но все это объединено одним общим принципом – что эти ссылки создаются только в основном для манипуляции поисковым алгоритмом и для пользователя такие ссылки никакой реальной пользы не несут.
Проблема ссылочного спама в том, что он еще и портит результаты поиска. Особенно это было видно до того, как большие поисковые системы начали бороться со ссылочным спамом.
Некоторые сайты можно было продвигать ну буквально за несколько месяцев или даже недель в топ, в особенно не очень конкурентных тематиках, даже практически без внутренней оптимизации одними лишь ссылками.
Сейчас это практически невозможно, но раньше это практиковалось и пока поисковые системы вплотную не занялись отсечением вот этих неестественных ссылок, манипуляции поисковыми алгоритмами были просто огромные.
Поэтому сейчас поисковики очень сильно борятся с неестественными или, как называет это Яндекс, seo-ссылками – ссылками, которые создали seo-шники, а не люди, благодарные работе вашего бизнеса.
Признаки естественных и манипулятивных (seo-, спам-) ссылок
Как поисковая система распознаёт, что ссылка естественная или манипулятивная?
В общем этот алгоритм понять достаточно просто, потому что он опять же построен по человеческой логике и все, что нам нужно у нас есть, то есть эта логика у нас есть.
Поисковик смотрит на ссылки, которые точно естественные. То есть берется большой объем ссылок, которые точно естественные. Это либо вручную отобранные ссылки, ссылки с форумов или сайты, которые точно не продвигаются с помощью seo. Это какие-то энциклопедии, сайты университетов и т.д. И алгоритм анализирует, как эти ссылки выглядят.
После этого, строятся некие образы ссылок, которые проставили реальные пользователи, реальные люди. Как они выглядят, как они размещены ну и все такое прочее. После чего, с этим образом сравниваются ссылки вашего сайта. Если ссылка вашего сайта не очень похожа на естественную, то она считается манипулятивной.
Как выглядит обычная естественная ссылка? Во-первых, естественная ссылка практически всегда идет в области контента.
То есть она не где-то снизу спрятана, не где-то сбоку. Обычно реальная рекомендация, когда пользователь рекомендует сайт другому пользователю, она находится в области контента, то есть внутри содержания.
Это может быть форум, это может быть блокпост, это может быть статья какая-то аналитическая – но естественные ссылки обычно находятся в области контента. Seo ссылки наоборот где-то обычно спрятаны.
Второй момент – естественные ссылки они статичны. То есть, если четыре года назад вышла статья про ваш магазин на каком-то крупном новостном ресурсе, обычно ссылки, которые есть в этой статье они никуда не денутся – это, так называемые, вечные ссылки.
Они будут существовать все эти четыре года, как были так и останутся. Возможно, если вы переехали на другой домен, вы попросите заменить эту ссылку, но чаще всего эти ссылки статичные и годами выглядят одинаково, не меняются.
Манипулятивные ссылки часто очень динамичны. Их снимают, проставляют заново, пытаются понять работают или не работают.
Есть такое понятие, как аренда ссылок, когда ссылки проставляются временно и регулярно оплачиваются.
И, естественно, все это приводит к тому, что такие ссылки легко обнаружить, потому что настоящая естественная полезная ссылка она полезна и год и два и три.
И меняется не так быстро, как вот эти арендованные ссылки или как любые другие манипулятивные ссылки, как, например, спам ссылки, когда люди заходят на форум или в комментарии, оставляют ссылку и через две-три недели эту ссылку удаляют. Потом ее снова ставят, снова удаляют.
Естественно, такая нестабильная ссылка выглядит не очень полезно и не очень доверительно в глазах поисковой системы. То есть естественная ссылка она стабильная, статическая.
Третий момент – естественные ссылки выглядят не как seo ссылки, они не полезны с точки зрения seo. В основном речь идёт об анкорном тексте.
Мы знаем, что анкорный текст сильно влияет на релевантность страницы. И нам бы хотелось получать ссылки именно с теми текстами, именно с теми анкорами, которые дадут нам нужную релевантность.
То есть, наверное, мы бы хотели, если мы продвигаем тему интернет-магазин электроники, получить ссылку “интернет-магазин электроники”. Если мы продвигаем туры в Грецию, то мы бы хотели получить ссылку “туры в Грецию”. То есть именно с этими словами, чтобы по ним получить релевантность.
Но реальные пользователи чаще всего не создают такие ссылки. Если он хочет что-то порекомендовать, он просто копирует url, то есть просто копирует адрес ссылки и вставляет его на форуме или оставляет этот адрес в записи на блоге или еще на какой-то странице, где он хочет сравнить разные сайты (кстати, именно поэтому делайте короткие url).
В крайнем случае, обычно указывается название компании или домен сайта, но очень редко когда для ссылки прописывается красивый анкор еще и с какими-то коммерческими ключевыми словами.
Практически никогда реальный пользователь, реальный блогер не оставит ссылку, если это естественная ссылка, вида «купить электроинструмент в Казани».
То есть такая ссылка она не естественно выглядит, она странно будет воспринята пользователями и поэтому такую ссылку реальный блогер никогда не оставит. Вероятность такого текста для ссылки очень мала.
Обычно естественная ссылка выглядит либо как одно-два каких-то слова: например, “электроинструменты” или “каталог инструмента” или “посмотрите здесь” или просто адрес сайта.
То есть текст ссылки легко выдает seo ссылку. Многие seo-шники, думая и понимая, что анкоры очень важная составляющая, начинают договариваться и делать только ссылки с нужными ключевыми словами.
И, таким образом, поисковая система легко понимает: о, здесь ссылки с нужными ключевыми словами – это точно работа каких-то манипуляторов, точно работа каких-то сеошников и такие ссылки стоит отсечь.
Да, среди естественных ссылок могут быть ссылки с какими-то словами похожими на наши ключевые слова, похожими на нашу семантику, но основная масса (и мы это увидим, когда будем строить ссылочный план), основная масса особенно естественных ссылок она не повторяет ключевые слова в своих анкорных текстах и выглядит либо как название сайта, либо как адрес страницы, на которую ссылается сама ссылка.
Ну и четвертое, как поисковая система легко может понять, что ссылка манипулятивная – это ссылки-соседи. Обычно любой сайт имеет в себе много внешних ссылок. Например, если это новостной сайт или блог, он ссылается на разнообразные другие сайты.
И поисковая система анализирует разные ссылки с этого сайта и, к примеру, эта ссылка похожа на seo ссылку и эта ссылка похожа на seo-ссылку и эта ссылка похоже на seo-ссылку, а вот эта ссылка – непонятно, похожа ли она на seo-ссылку или не похожа.
Но если большинство ссылок с этого сайта похожи на seo ссылки, возможно и эта ссылка тоже манипулятивная? Даже если по каким-то факторам поисковая система не может быть на сто процентов уверена, что это ссылка манипулятивная.
Но, если соседи этой ссылки даже не в рамках одной страницы, а в рамках домена (то есть в принципе на сайте) имеют много манипулятивных ссылок, то поисковая система будет склонна считать, что эта ссылка тоже манипулятивная.
Именно поэтому последние несколько лет seo-оптимизаторы рекомендуют отказываться от сервисов публичных массовых сервисов накрутки ссылок типа ссылочных бирж или еще хуже сетей обмена ссылками.
Потому что в таких системах, как автоматизированные ссылочные биржи, где вы можете купить тысячи ссылок в один клик или в таких системах, как автоматический обмен ссылками, большинство сайтов (не все, но большинство сайтов) уже имеют маркер в глазах поисковой системы, что эти сайты источники манипулятивных seo ссылок.
Да, действительно в алгоритме поисковой системы даже в рамках одного сайта какие-то ссылки могут быть восприняты как seo ссылки, какие-то как естественные.
Но когда вы проставляете ссылку на изначально манипулятивном сайте вы уже портите ее репутацию просто за счет того, что у этой ссылки плохие соседи.
На самом деле, анализ естественности или неестественности ссылки можно представить в виде некого ползунка, где с одной стороны 100% естественная ссылка по мнению поисковой системы, с другой стороны 100% неестественная ссылка.
То есть это не переключатель типа “да/нет”, “естественно/неестественно” – это некий ползунок, где в зависимости от того, сколько факторов совпало этот ползунок сдвигается от максимально естественной ссылки, которая будет передавать максимум все факторы (рабочая ссылка) до максимально неестественной ссылки, которая в лучшем случае просто не будет работать.
Сейчас поисковые системы, если они обнаружили неестественную ссылку они просто стараются ее не учитывать.
Но надо понимать, что если на ваш сайт возникло очень много не естественных ссылок, если поисковая система начинает понимать что 90 процентов ссылок на ваш сайт неестественны, что они манипулятивные, то ваш сайт может быть понижен в результатах поиска целиком.
То есть из-за плохих ссылок на ваш сайт вы можете потерять позиции и если на ваш сайт много плохих ссылок, вы, скорее всего, потеряете позиции даже если до этого они были хорошие.
Поэтому работа со ссылками очень популярна среди оптимизаторов, но мы должны быть очень осторожны.
Ссылки – это мощный инструмент при продвижении сайтов, он разносторонний, он может влиять и на авторитет, он может быть запросозависимым, может влиять на релевантность, но он может работать как в плюс, так и в минус и работа с0 ссылками требует хорошего понимания темы.
Инструменты для анализа ссылочного веса
Давайте на практике познакомимся с инструментами, которые позволяют анализировать внешние ссылки на наш сайт. Существует большое количество сервисов для проверки внешних ссылок. Все эти сервисы в основном платные.
Сервисы показывают немножко разные данные. Давайте разберемся хотя бы немножко в каждом из этих сервисов.
Подробнее, как проанализировать свои ссылки, ссылки конкурентов, мы будем рассматривать на следующем занятии при построении ссылочного плана, а сейчас рассмотрим инструменты в общем.
ahrefs.com
Наверное, самый популярный инструмент для анализа внешних ссылок и лидер среди подобных инструментов – это инструмент ahrefs.com.
Он показывает, пожалуй, наиболее точные данные по внешним ссылкам. Здесь много разнообразных данных: о тенденциях роста ссылок, анкор-листе, о новых ссылках, пропавших ссылках, куда они ссылаются, с каких страниц они ссылаются.
Также тут можно увидеть наш ссылочный рейтинг, вес домена и вес отдельной страницы по мнению сервиса. Но базово то, что нас интересует – это количество ссылок (беклинков) и доменов-доноров.
Есть два основных понятия при анализе внешних ссылок – это доноры и, собственно, беклинки (обратные ссылки). Донор – это домен, то есть сколько уникальных доменов на нас ссылается.
Когда мы видим цифру 10,5К – это значит, что на этот сайт ссылается приблизительно 10,5 тысяч других сайтов.
И с каждого сайта может ссылаться несколько ссылок, то есть с одного сайта может стоять несколько ссылок на наш сайт. Так вот, ссылки обычно называются беклинки или обратные ссылки.
И вот беклинков на этот сайт уже 23 миллиона. То есть из 10,5 тыс. доменов идет 23 млн. ссылок. Мы должны анализировать как домены, так и ссылки.
Когда вы анализируете свой сайт или сайты конкурентов на предмет внешних ссылок вы можете в разных сервисах видеть разные цифры. Почему так происходит?
Потому что каждый сервис, по сути, является собственной поисковой системой, можно так сказать. Каждый сервис сканирует интернет и у него свои поисковые боты и своя база данных.
Google, Яндекс и другие поисковые системы сейчас не предоставляют нам открытый доступ к информации о внешних ссылках других сайтов. Мы не можем посмотреть сколько ссылок ссылается на любой сайт в интернете.
Данные, которые показывает google, даже если использовать специальные операторы они очень-очень неточные, поэтому всем этим сервисам приходится самостоятельно собирать данные, самостоятельно сканировать весь интернет на предмет обратных ссылок и вообще других данных.
И это, естественно, сложно, это процесс ресурсоемкий, плюс эту базу надо всегда обновлять, именно поэтому все эти сервисы платные или условно платные – то есть практически бесплатных сервисов с нормальной точностью вы не найдете.
Самый популярный это https://ahrefs.com/
Какие другие аналоги мы можем использовать, если мы работаем в рунете?
megaindex.com
Мы можем использовать ru.megaindex.com – тоже платный сервис, но значительно дешевле ahrefs.com.
Как мы видим на одном и том же сайте данные megaindex абсолютно другие, то есть если ahrefs.com показывал там 10,5 тыс. доменов-доноров, то megaindex показывает уже 6,7 тыс., то есть разница просто огромна и где-то потерялось 3000 доменов.
Но суть в том, что мы все равно можем анализировать, пусть и не так точно. На самом деле иногда бывает такой точности достаточно, часто какие-то ссылки, которые не видит ahrefs.com вы можете найти с помощью других инструментов типа megaindex или какого-то другого.
serpstat.com
Пожалуй, самый бюджетный способ посмотреть внешние ссылки, при этом имея определенную точность – это посмотреть с помощью инструмента serpstat.com. С недавних пор этот инструмент тоже начал предоставлять отчеты о внешних ссылках.
Вернее, отчеты о внешних ссылках предоставлялись давно, но точность их стала относительно нормальной только недавно.
Мы видим, что уже в serpstat.com данные с ahrefs.com не сильно отличаются – 11 тыс.доменов-доноров и 11 млн. ссылок.
Serpstat также рассчитывает свой пейджранк и трастранк, то есть у него свои “ранки”. Понятно, что вот этот “свой” пейджранк сервиса – это вес страницы по классическому алгоритму пейджранк. Но каждый сервис свой рейтинг считает по-разному, нужно читать в документации.
Но доверять им вслепую не стоит, лучше смотрите на ссылки, хотя бы на их количество для начала.
linkpad.ru
Также есть инструмент, который в свое время был очень популярен, но сейчас по разным причинам потерял свою популярность – linkpad.ru.
Если я не ошибаюсь, он условно-бесплатный, сам я давно им не пользуюсь, но в нем точно также можно посмотреть ссылки, в основном ссылки в рунете.
В западном сегменте интернета ссылки здесь вы найти нормально не сможете. Здесь есть тоже доноры, есть количество внешних ссылок – 34 млн. В принципе, данные достаточно схожи с ахрестом, только тоже потерялось где-то 1000 доноров).
Но, как вы видите, везде данные разные, нигде они не повторяются, потому что каждый работает по собственной базе, каждый эту базу собирает.
То, чем вы будете пользоваться это ваш выбор, но ahrefs.com – это безусловный лидер среди инструментов анализа внешних ссылок, хотя и дороговато.
Для начинающего seo-оптимизатора я бы порекомендовал использовать либо megaindex, либо serpstat – они доступны по цене и имеют большой объем дополнительных инструментов кроме анализа ссылок.
Итог
Давайте подытожим то, что мы сегодня узнали. А узнали мы следующее.
- Ссылки – это очень важная составляющая при продвижении нашего сайта, при работе с внешними сигналами, потому что они могут влиять на авторитет и они могут влиять на релевантность нашего сайта относительно определенных запросов.
- Также мы узнали, что работа со ссылками требует планирования и понимания процессов того, как работают ссылки. Если мы возьмемся за эту работу без понимания, без правильного расчета, без определенной структуры и планирования мы легко можем привести свой сайт к негативным последствиям.
- Потому что при анализе ссылок активно используются антиспам-алгоритмы и неопытный seo-оптимизатор или человек, который не знаком с базовыми понятиями seo-оптимизации легко может испортить позиции сайта, пытаясь продвинуть сайт ссылками. Поэтому мы и рассмотрели все базовые алгоритмы и попытались понять, как работает антиспам-алгоритм.
- При анализе ссылок эти алгоритмы актуальны для практически любых поисковых систем, но надо понимать – они используются не в чистом виде, они модифицированы.
- То, как это делает поисковая система в реальности мы, конечно же, не знаем, но об этих алгоритмах мы легко можем прочитать в википедии, в патентах поисковых систем.