Суббота, 20 апреля, 2024

5 ошибок оптимизации, которые держат ваш сайт на второй странице

Софт и игры
Вячеслав Питель
Вячеслав Питель
Редактор сайта, опыт работы 10 лет, пишу на тему гаджетов, новостей в мире технологий, игр и софта admin@uspei.com, VK, OK, сот. 89132476241

Здравствуйте, уважаемые читатели сайта Uspei.com. Мы сегодня поговорим с вами про те ошибки, которые не позволяют нашему сайту расти. Я думаю, все сеошники сталкивались с такой проблемой – сайт застрял на подходах к ТОПу. То есть мы вроде бы сделали все правильно, вроде бы оптимизировали, вроде бы соблюдали все пункты нашей стратегии, но что-то не получилось. Так иногда бывает.

Давайте посмотрим, какие причины могут быть у этого явления в ходе последних тенденций поисковых систем. К сожалению, происходит следующая ситуация: то, что раньше было можно – теперь делать нельзя.

Ошибки оптимизации

Закрытые от индексации css и js

Я думаю, все мы получали от Google в search concole вот такие замечательные письма про то, что нам необходимо открыть для индексации наши таблицы стилей и java-script.

Googlebot не может получить доступ к файлам

Давайте разберемся, как это может навредить нашему сайту и почему поисковые системы настаивают на этом и особенно google.

Я всегда рекомендую соблюдать правила, которые говорят нам поисковые системы с расчетом на то, чтобы сделать сайт безопаснее с точки зрения применения к нему санкции, которые снять очень и очень тяжело –можете сами убедиться.

То есть я считаю, что мы должны соблюдать правила, о которых нас просят поисковые системы. Это не так сложно и, наверно, нас просят не зря.

На самом деле, есть несколько причин, почему нельзя скрывать наши таблицы стилей и скрипты. Прежде всего поисковые системы хотят полностью понимать весь контент, который есть на нашем сайте, а также пытаются оценить его юзабилити (удобство для пользователей).

А для этого они должны понимать все активные элементы, которые присутствуют на нашем сайте.

Не надо закрывать служебные страницы от индексации – в этом нет ничего страшного на самом деле. Лучше беспокойтесь о страницах pagination, фильтрации, сортировки и о тех вещах, которые могут сгенерировать почти бесконечный объем внутренних дублей.

Второй момент. Поисковые системы все больше анализируют мобильные версии и адаптивный дизайн, что часто основывается только на css и джаваскрипте.

И если мы закрываем эти файлы от индексации, поисковая система просто нормально не сможет понять наш адаптивный дизайн.

И еще один момент, о котором так часто говорят. За много лет, особенно те люди, которые работали под поисковую систему Яндекс, привыкли использовать javascript для некоторых манипуляций.

Закрытие ссылок, закрытие контента, многие использовали какие-то более сложные шаблоны, которые позволяли заблокировать или каким-то образом скрыть от поискового бота огромные массивы данных.

И на самом деле теперь этот путь нам тоже отрезали. На самом деле, это было понятно давно и к этому были давно предпосылки. Ведь любое закрытие контента согласно правилам поисковых систем является манипулятивным методом оптимизации.

Конечно, тогда все спорили, что это не так, но теперь мы понимаем, что этого делать не стоило.

Что делать и как исправлять? Во-первых, стоит ли исправлять? Некоторые считают, что ничего страшного в этом нет. Но обязательно стоит. Потому что google обещал понижать позиции, либо как минимум пессимизировать контент, придавать ему не такие высокие оценки, если этот контент обрабатывается какими-то скриптами или имеет какое-то оформление, которое не совсем понятно для поисковой системы. Поэтому открывать эти файлы нам стопроцентно нужно. О правильном оформлении текстов, статей и вообще контента читайте в этой статье.

Как правильно это сделать? Прежде всего, посмотрите в search console и файле robots.txt. Google search console дает нам два замечательных инструмента. Первый инструмент называется «заблокированные ресурсы».

Там приводится список всех css java script html страниц, которые заблокированы нашими директивами в файле robots.txt.

Второй очень полезный инструмент, который сейчас все рекомендуют – это инструмент «посмотреть как гуглбот». Мы вбиваем адрес страницы и видим там вот такой список заблокированных ресурсов.

Специально для решения этой проблемы я вам покажу два универсальных шаблончика – две строчки, которые по идее должны работать с любым движком, за каким-то очень редким исключением. По крайней мере, тестировал на друпале, джумле, вордпрессе и битриксе – никаких специфик нет.

Allow:/*/*.css*
Allow:/*/*.js*

Эти две строчки практически всегда открывают все файлы, о которых нас просит google. А лучше рекомендую – начинайте потихоньку забывать про файл robots.txt и переходите на более эффективный инструмент управления индексацией это метатег robots и заголовки сервера X Robots.

Если вы используете два этих способа, то у вас просто не возникнет никаких проблем с индексацией таблиц, стилей или java скриптов.

Те, кто еще не перешел при оптимизации на эти инструменты, думаю оценят их функционал и оценят насколько это удобно.

Использование раскладных, скрытых текстов

Вторая проблема, по сути, вытекает из первой. Мы открываем те файлы, которые скрывали все наши сеошные секреты. Ну не все, конечно, из нас использовали какие-то такие тактики, все больше специалистов переходят на белые тактики seo и контент-маркетинга. Но многие специалисты используют до сих пор сеошные тексты, сокрытие ссылок, хитрые методы перелинковки.

Теперь мы все это открываем и поисковые системы все это начинают видеть. Так вот, факт в том, что контент, который скрыт от пользователя, который не виден в первом экране, который скрывается с помощью стилей и javascript – он имеет меньший вес, чем контент, который видит пользователь.

На практике уже замечено, что тот контент, который находится каких-то скрытых вкладках, находится за кнопкой «читать далее» или что-то подобное – намного слабее влияет на релевантность.

Если же в этом контенте идет еще переполнение ключевыми словами, то это может быть воспринято поисковой системой как поисковый спам.

Скрытые тексты на сайте

Поэтому настоятельно рекомендую вам, если с вашим сайтом что-то не так, какая-то из ваших страниц не продвигается, обратите внимание, может быть, вы используете какой-то полускрытый контент.

Проверьте свои сайты по второму пункту. К сожалению, на сайтах услуг во многих коммерческих топах до сих пор можно найти вот такие штуки, которые в скором времени начнут приносить ощутимый минус для этого сайта.

Решение очень простое – откройте эти тексты и покажите их пользователям и желательно, конечно, перепишите поглубже, потому что этот текст, наверное, не очень читабельный, если вы скрывали его от пользователя.

Либо же второй путь – просто уберите эти тексты. В большинстве случаев заспамленные тексты все равно не приносили вам ни какой пользы.

Использование нетематических текстов

На самом деле эта пришло к нам достаточно давно и многие сеошники, которые давно работают, знают об этом, но все чаще можно встретить текстовый контент, которые даже написан для людей и даже используют какие-то хитрые схемы поисковой оптимизации, но есть одна серьезная ошибка – этот контент часто не тематический.

Проблема в том, что даже оптимизированный вхождением ключевых слов seo-текст, если он не относится к определенной тематике, никогда не принесет вам позиции.

Очень много коммерческих посадочных страниц попадают под категорию вот таких вот оптимизированных некоммерческих текстов. Причина этому то, что копирайтеры, которые пишут нам тексты по 2 доллара за 1000 символов, не всегда разбираются в тех темах, в которых мы работаем или в которых работают наши клиенты.

Хотят сейчас, конечно, копирайтинг растет, все больше компаний имеют свои какие-то отделы копирайтинга, но все равно это далеко не профессиональные материалы и их сложно назвать тематическими.

Как поисковая система технически определяет тематику текста? На самом деле это очень просто понять. Текст раскладывается на частотную таблицу, то есть на набор слов и эта частотная таблица сравнивается с типичным набором тематических слов в каждой тематике. Подробнее о частотных таблицах и принципах индексации тут.

Есть набор слов, скажем так, который характеризует эту тематику. Наш текст сравнивается с этим набором слов и если у нас со словом «наполеон» часто встречается слово «торт», то, наверно, это рецепты. А если там встречается часто слово «наполеон» и встречается слово «история» или «Франция», то это текст по истории Франции. Почитайте статью “Что такое релевантность страницы или сайта”, там все это лучше расписано.

Вот очень часто у нас люди пишут текст как бы про товар, но поскольку не разбираются в этом товаре, пишут что-то отстраненное. И это приводит к не тематическим оптимизированным текстам и такие тексты в ближайшее время не смогут занять какую-то нормальную позицию в поиске.

Вывод – пишите качественные тексты.

– Инструменты проверки тематических текстов

Проверить тексты на тематичность помогут два инструмента.

http://lemmatop.yula-group.ru/

Он чуть заставит вас поработать вручную, но он очень удобный.

Это инструмент, который позволяет взять несколько сайтов из топа, собрать их в один список и загнать в этот инструмент и он вам покажет те слова, которые встречаются на всех этих страницах.

То есть соберет по сути вот этот набор, потенциально тематическую частотную таблицу, которую потом вы должны использовать для создания тематических текстов. По сути, полностью автоматический инструмент решения этой проблемы.

Использование не уникальных текстов

Следующий пункт. Очень простая вещь, о которой знают все – это уникальность. Уникальность как смысловая, так и техническая. Но, к сожалению, до сих пор очень большой процент сайтов имеют огромный объем не уникального контента.

Уникальность текстов на сайте

Большой процент не уникального контента на сайте гарантированно приведет к снижению позиции. Например, недавно у меня отклеились в Яндексе зеркала, которые сразу же были проиндексированы и позиции основного зеркала упали.

Проблема даже не в том, что сами seo-шники публикуют этот контент, проблема в том, что многие сеошники и администраторы не контролируют те процессы, которые производит клиент, владелец сайта.

Есть владельцы сайтов (не специалисты), которые самостоятельно пытаются продвигать свой ресурс. Я обращаюсь, прежде всего, к вам. Если вы заказали дорогостоящую seo оптимизацию, если вы вкладываете деньги в продвижение своего сайта, перед тем, как вносить какие-то коррективы в свой сайт, пожалуйста, проконсультируйтесь со специалистом.

Иногда вы вредите своему ресурсу и напрочь перерезаете все те труды, которые делает seo-специалист. Например, такой антикейс. Сайт только появился, конкурентная тематика, хорошая коммерческая оптимизация, хорошие продающие тексты и он естественным образом зашел почти по всем коммерческим запросам сразу в топ-10. Так часто бывает. Да, если хороший сайт, особенно какой-то более-менее известной компании, не надо много времени, для того чтобы он заполучил хорошие позиции.

Если мы во время разработки сделали хорошую оптимизацию, внедрили все правки он сразу зайдет в ТОП, так как я считаю, что трастовый сайт это новый молодой сайт, а дальнейшие действия с ним, только понижают его трастовость, если это ошибки оптимизации, либо оставляют траст без изменений, если оптимизация делается правильно.

Но буквально через неделю владельцы этого сайта выложили 100 неуникальных материалов. Как следствие, буквально в течение недели все позиции ушли из первой десятки на вторую страницу.

Решение этой проблемы было очень простым, все эти не уникальные материалы были удалены и в течение опять же двух недель все вернулось.

Пожалуйста, не портите свою же работу по каким-то небольшим не досмотрам. Вы сами себя топите. А тем, кто ворует тексты могу сказать, что это не принесет вам никакой пользе и даже навредит.

Не оптимизированные анкоры внутренних ссылок

И пятый пункт, который тоже достаточно очевиден и описан достаточно подробно в руководстве по оптимизации для начинающих от google. Это оптимизация анкорных текстов.

Но, увлекаясь модными тактиками контент-маркетинга, линкбилдинга и прочими, безусловно, очень полезными вещами, часто люди забывают о каких-то примитивных вещах технической оптимизации.

И одна из таких примитивных вещей это оптимизация анкорных текстов внутренних ссылок. Прежде всего, я говорю не про агрессивные методы линковки, типа сквозной перелинковки или чего-то подобного.

Я говорю по оптимизацию элементов навигации, пунктов меню, название статей, кнопок, которые ведут на товары или статьи. Ведь релевантность в самом классическом поисковом движке имеет как минимум три составляющие:

  1. Релевантность анкорного текстаТекстовые факторы;
  2. Ссылочные факторы;
  3. Внутри ссылочные факторы.

Если вы не используете, не оптимизируете анкорные тексты внутренних ссылок, вы, как минимум, исключаете достаточно ощутимый набор сигналов из поискового алгоритма и сами же занижаете свои позиции.

Поисковой системе нужно понимать, какую страницу внутри сайта вы считаете релевантной. Если вы рекламируете ноутбуки и ссылаетесь на этот раздел ссылкой с текстом «автомобиль» или, если вы продаете одежду и вместо того, чтобы ссылаться на страницу анкором «интернет-магазина» вы ссылаетесь анкором «купить шаурму» – это не позволяет поисковой системе понять, какую страницу на своем сайте вы считаете релевантной относительно запроса «интернет-магазин одежды».

И такая ситуация как раз может задерживать ваш сайт на второй странице результатов поиска, обратите на это внимание.

– Инструменты анализа ссылок

Какие инструменты вам в этом пригодятся. На самом деле все тоже относительно просто.

Прежде всего, рекомендую Netpeak Spider позволит вам рассчитать вес каждой отдельной странички по старой-доброй формуле пейджранк.

Ну и самый простой инструмент, который доступен каждому – это инструмент «внутренние ссылки» search console. Потому что каждый из вас должен зарегистрировать свой сайт в search console.

Проверьте свой сайт, очень часто вы удивитесь, если вы заглянете на эту страничку, потому что здесь в этом отчете вы можете увидеть какие страницы, по сути, являются основными, если анализировать структуру вашего сайта непредвзято.

Если, допустим, вы видите, что по значимости страниц на этом сайте первые места занимает страница входа в админку или какая-то служебная (не используемая, неиндексируемая) страница, это не очень хорошо.

Веса страниц сайта с внутренними ссылками

Вообще, ссылаться на страницу, которую вы закрываете в robots.txt – это не очень правильно. Потому что вы эту страницу закрываете от индексации, но в то же время, создаете на нее большое количество ссылок – это как-то не экономно с точки зрения ресурсов внутреннего ссылочного веса и вообще стратегии ссылочного продвижения.

Мы собираем огромное количество ссылочного веса на этой страничке и никак это не используем. Обязательно загляните сюда, вы очень удивитесь.

Если вы продвигаете основные запросы на главную страницу, предположим, если у вас какой-то сайт-услуга, очень часто бывает, что главная страница находится далеко не в начале этого списка. Или ваши продвигаемые разделы находятся далеко за 20 позицией.

Все мы боимся признавать свои ошибки. Безусловно, эти пять причин не единственная проблема, почему ваш сайт может быть на второй странице результатов поиска, но на самом деле, если вы возьмете и сделаете из этой презентации маленький чек-листы, прогоните свой сайт, я готов поспорить, что как минимум 25% владельцев сайта исправят хотя бы одну из этих ошибок.

Потому что эти ошибки встречаются намного чаще, чем вам кажется. Именно поэтому я решил вам о них сегодня рассказать.

Свидетельство о регистрации СМИ в РКН: ЭЛ № ФС77-83818 от 29.08.2022

Оставьте комментарий

Пожалуйста, введите Ваш комментарий
Пожалуйста, введите Ваше имя здесь

Гаджеты

Как выбрать Pod-систему

Если вы решили перейти с сигарет на вейпинг и выбираете свою первую Pod-систему, есть несколько важных аспектов, на которые...

Также на эту тему