Умный интернет-маркетинг от команды Артизан-тим https://scrapushka-nch.ru Умный интернет-маркетинг Sun, 19 Mar 2023 11:30:06 +0000 ru-RU hourly 1 https://wordpress.org/?v=5.4.18 https://scrapushka-nch.ru/wp-content/uploads/favicon.ico Умный интернет-маркетинг от команды Артизан-тим https://scrapushka-nch.ru 32 32 Практическое руководство по работе с анкорными ссылками https://scrapushka-nch.ru/blog/kak-stavit-ankornye-ssylki/ Sun, 19 Mar 2023 11:00:36 +0000 https://scrapushka-nch.ru/?p=12670 Сообщение Практическое руководство по работе с анкорными ссылками появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

О важности анкорных ссылок для SEO слышал каждый, кто пусть даже вскользь сталкивался с поисковым продвижением сайтов. При упоминании анкоров часть оптимизаторов сразу думает о взлетающих вверх позициях и растущем трафике, другая же – приходит в ужас от мыслей о фильтрах и перспектив краха своего бережно выстроенного белого SEO. Безусловно, это две крайности, которые тем не менее убедительно иллюстрируют неоспоримый факт – анкорные ссылки имеют сильное влияние на поисковое продвижение, и именно они лежат в основе эффективного линкбилдинга.

Наломать дров в этом деле очень легко, но и добиться быстрого поискового буста без использования анкорных ссылок – тоже вряд ли получится. В этом материале — говорим о том, как грамотно работать с такими ссылками: от проведения внутреннего аудита анкор-листа и анализа конкурентов, до разбора практических сценариев по наращиванию анкорных бэклинков.

Что такое анкор и почему он так важен для SEO?

Анкор – это просто кликабельный текст, к которому привязана ссылка. Также его иногда называют якорем или якорным текстом.

Для обычного пользователя анкор выглядит как интерактивный фрагмент текста, преимущественно синего цвета, на который можно кликнуть и перейти на другую страницу. На уровне HTML-кода анкор представляет собой элемент, размещенный между тегами <a > и </a>

Чтобы сделать ссылку с анкором, нужно поместить текст в html-коде между тегами и прописать в атрибуте href=” ” url-адрес, на который будет вести линк

Как видно, в техническом плане с анкорами все довольно просто, но если начинать разбираться в тонкостях SEO, возникает намного больше вопросов.

Небольшой исторический SEO-экскурс

Анкор с самого начала был важной частью поискового алгоритма Google, а позже – и других поисковых систем. Через анкорные ссылки, ведущие на сайт из внешних источников, Google лучше понимал содержание страниц. Работало это примерно так: когда несколько сайтов ссылалось на страницу, например, используя анкор цветы оптом, поисковая система делала вывод, что страница на самом деле посвящена оптовой продаже цветов. Чем больше таких ссылок имел сайт, тем выше были его позиции по соответствующему запросу. Сегодня эта механика кажется довольно примитивной, но именно по такой схеме работали первые поисковые алгоритмы.

Со временем стало ясно, что подобная модель ранжирования открыта для манипуляций. Достаточно было наставить на других сайтах анкорных ссылок с целевым текстом, чтобы страница, на которую они ведут, взлетела в поисковой выдаче. При этом качество и фактическое содержимое таких искусственно продвинутых страниц обычно вызывало много вопросов.

В последующем разработчики Google работали над тем, чтобы усовершенствовать механизмы поиска и сделать их менее уязвимыми перед манипуляциями со стороны оптимизаторов. Наиболее знаковой подвижкой в этом направлении стал алгоритм Google Penguin (2012), который был нацелен на борьбу со ссылочным продвижением и недобросовестным использованием анкорных текстов в частности. Похожие алгоритмические решения позже стал применять и Яндекс.

Сайты, применяющие спамные техники ссылочного продвижения стали наказывать: пессимизировать в выдаче либо же вовсе удалять из поиска в обеих ПС. Тем не менее роль анкора в ранжировании, несмотря на его кардинальное переосмысление, сохранилась и в Google, и в Яндексе. Анкорные ссылки по-прежнему дают важные сигналы для поисковых алгоритмов, но работают с ними уже совершенно по другим принципам, о чем мы и будет говорить дальше.

Виды анкоров

Прежде чем приступать к практическим аспектам оптимизации анкоров, имеет смысл разобраться с их классификацией. Сразу скажем, что она весьма условная, но и этой типологии будет вполне достаточно, чтобы лучше понимать, как максимально эффективно использовать анкоры в своей стратегии продвижения. Итак, все анкорные ссылки можно классифицировать по следующим характеристикам.

По типу вхождения ключа


Это, пожалуй, самый важный параметр, и исходя из него выделяют:

Прямые анкоры
текст ссылки содержит точное ключевое слово, по которому продвигается страница

Заказать SEO продвижение сайтов с гарантиями за результат

Непрямые анкоры
текст ссылки содержит целевой ключ, но в разбавленном вхождении (не как точную фразу)

Заказать SEO продвижение любых типов сайтов с гарантиями за результат

Брендированные анкоры
ключ в прямом/непрямом вхождении + упоминание бренда

Комплексное SEO продвижение сайтов в Artisan-Team с гарантиями за результат

По частотности анкора


Здесь работает стандартный принцип деления поисковых фраз на три типа:

  • высокочастотные (короткие целевые фразы с наибольшим количеством обращений из поиска);
  • среднечастотные (ключи, собирающие от нескольких сотен до нескольких тысяч переходов за месяц в зависимости от ниши);
  • низкочастотные (предельно конкретные запросы, по которым мало трафика, но его легко получить ввиду низкой конкуренции в выдаче).

Безанкорные ссылки

В контексте нашего разговора нельзя не упомянуть второй тип ссылок – безанкорные, которые также являются очень важными для построения эффективного ссылочного профиля. Здесь мы говорим о ссылках, у которых кликабельный текст не привязан к ключевому слову. На практике это могут быть просто URL-адреса в своем первоначальном виде или ссылки, в которых в качестве анкора используют слово/фразу с нейтральным SEO-эффектом, например: здесь, читайте на сайте, подробнее и т. д.

Три типа безанкорных ссылок: 1 — с открытым URL, 2 — с SEO-нейтральными указательными словами, 3 — с брендовым анкором (без ключа)

Напомним, что обратные ссылки могут вести на сайт не только в виде привычного гипертекста, но и в формате изображений. Роль анкора в этом случае будет выполнять прописанный атрибут Alt. Таким образом, ссылки в виде картинок с заполненным альтом также стоит учитывать при анализе/создании ссылочного профиля, о чем мы еще будем говорить ниже.

Здесь, наверное, у многих уже назрел вопрос: зачем вообще разбираться в этой классификации? Это нужно как минимум для того, чтобы уметь оценивать свой анкор-лист (тексты всех бэклинков, которые ведут на сайт) и контролировать, насколько он перегружен потенциально опасными ссылками. Тем же, кто последовательно подходит к линкбилдингу, понимание специфики анкорных ссылок поможет грамотно спланировать общее соотношение прямых и непрямых анкоров (сильных, но потенциально опасных), к остальным типам обратных ссылок. Существует общее правило, что количество анкорных SEO-вхождений не должно превышать 20% от суммарного числа обратных ссылок. Но это весьма условная цифра, которая во многом зависит от специфики ниши продвигаемого сайта и ряда других моментов.

Базовые правила при работе с анкорными ссылками

Вне зависимости от того, какой тип сайта и в какой поисковой системе вы продвигаете, существует ряд основополагающих моментов по использованию анкорных (и безанкорных) ссылок. Соблюдение этих правил усилит эффект от каждого полученного бэклинка и уменьшит вероятность наложения фильтра.

Вам также может быть интересно:
За что Google наказывает сайты. Актуальный гайд по алгоритмическим фильтрам и ключевым факторам ранжирования

Оценивайте траст донора. Анкорные бэклинки размещают на авторитетных площадках, которые не заспамленны другими ссылками, имеют трафик и не находятся под фильтром. Метрики трастовости по всему домену и отдельным страницам, на которых планируется размещение ссылки, анализируют с помощью специальных инструментов, например, Ahrefs, Serpstat, Check Trust и др. Анкорные ссылки, содержащие ВЧ-ключи в прямом вхождении, закрепляют за самыми трастовыми и посещаемыми донорами.

Придерживайтесь тематической релевантности. Для эффективной работы обратных ссылок очень важно, чтобы тематика сайта-донора соответствовала продвигаемой странице. Если в качестве донора выбран общетематический ресурс, контент, в котором ставят ссылку, обязательно должен быть релевантен продвигаемому запросу и тематике сайта-акцептора.

Используйте максимальное количество доноров. Чем разнообразнее список сайтов, с которых вы получаете ссылки, тем естественней выглядит ссылочный профиль и меньше вероятность нежелательного внимания со стороны поисковиков. Ссылки лучше получать не только с разных доменов, но и с разных типов сайтов: форумов, социальных сетей, Q&A-сервисов, блог-платформ. Здесь речь идет о т. н. крауд-ссылках. Их основная функция — не столько обеспечить поисковый буст, а оттенить спамный эффект от потенциально опасных SEO-анкоров.

Отслеживайте атрибуты обратных ссылок. Следить за тем, не снял ли владелец сайта-донора купленные ссылки – это, безусловно, важно, но вместе с этим нужно не забывать проверять и их атрибуты. В первую очередь это касается самых значимых анкорных ссылок. Купленные как dofollow (без ограничений в передаче веса), со временем они могут оказаться размеченными атрибутами nofollow и/или sponsored. Таким образом недобросовестные админы сайтов-доноров снижают риски для своих площадок, но эффект от купленной вами ссылки при этом заметно падает.

Следите за разнообразием анкор-листа. Определиться с тем, сколько и каких анкоров лучше всего использовать поможет внимательный анализ конкурентов, а также базовые рекомендации, о которых мы будем говорить ниже. Помимо разнообразия самих анкоров, нужно следить за тем, чтоб доля SEO ссылок не была превалирующей, их эффект оттеняли другие более естественные типы бэклинков.

Делайте ссылки полезными. Обратные ссылки работают и сами по себе, но наличие переходов по ним значительно усиливает общий seo-эффект для продвигаемого сайта. Очевидно, что если бэклинки размещены в низкокачественном контенте или нерелевантном окружении – кликов по ним будет минимум.

Контролируйте динамику получения ссылок. Скорость наращивания бэклинков – очень важный фактор, особенно когда речь идет о потенциально опасных SEO-ссылках. Их нужно проставлять планомерно, избегая резких скачков. Как часто и в каком количестве закупать анкорные ссылки – вопрос индивидуальный. Это зависит от траста вашего сайта, текущего состояния ссылочного профиля, специфики доноров и т. д. Приблизительно оценить эти показатели можно только через анализ конкурентов, сайты которых более или менее близки вашему проекту по основным параметрам.

Придерживаться оптимальной динамики проставления ссылок и в целом реализовывать вдумчивый линкбилдинг невозможно без готовой ссылочной стратегии, в которой все вращается главным образом вокруг анкорных ссылок.

Работа с анкорами: с чего правильно начать?

Тем, кто непрофессионально занимается SEO, для начала напомним один не всегда очевидный момент: перед тем как приступать к активному ссылочному продвижению, следует завершить базовую внутреннюю SEO-оптимизацию. Получить максимальную отдачу от линкбилдинга можно лишь в том случае, если у сайта нет серьезных брешей в технической части. С оглядкой на это, к наращиванию ссылок целесообразно переходить, когда сайт естественным образом дорос хотя бы до топ-20 поисковой выдачи по своим главным целевым запросам.

Аудит текущего анкор-листа

Перед тем как приступать к активной работе с обратными ссылками, нужно оценить текущее состояние анкор-листа, особенно если над продвижением сайта уже трудились сторонние специалисты.

Посмотреть список всех анкоров, к которым привязаны обратные ссылки, можно при помощи штатных инструментов – Яндекс.Вебмастера и Google Search Console. Сразу скажем, что при всей ценности обеих консолей, их использование для анализа ссылочного профиля является не очень эффективным. В Search Console отображены только самые распространенные тексты ссылок без привязки к донору, чего для точной работы с анкорами будет явно недостаточно.

В Яндекс.Вебмастере все более продуманно на этот счет: каждая обратная ссылка по умолчанию отображается со своим якорным текстом, указана принимающая страница, предусмотрена возможность группировки ссылочных доноров и даже указан их ИКС, который можно использовать для очень приблизительной оценки качества ссылающихся доменов. Но и этого не всегда хватает для комплексного аудита обратных ссылок.

Для проверки анкор-листа намного эффективнее использовать сторонние SEO-анализаторы. Например, в популярном сервисе Ahrefs такая опция бесплатна — чтобы начать пользоваться его внутренними инструментами Site Explorer и Site Audit достаточно привязать сайт к сервису. Бесплатно использовать часть функций Ahrefs можно только для собственных сайтов. Для анализа анкор-листов конкурентов – придется приобретать подписку.

В естественном ссылочном профиле большая часть бэклинков будет безанкорными, т. е. без вхождения ключевых слов. На сайтах, с которыми еще не успели поработать оптимизаторы, обычно превалируют ссылки в естественном виде (с голым URL), а также – с брендовыми анкорами или нейтральными указательными словами, такими как здесь, источник, по ссылке и т. п. Помимо этого, значительная часть ссылок может быть в формате изображений, у которых роль анкора выполняет прописанный атрибут Alt. В таких бэклинках чаще встречаются прямые вхождения ключей, но в целом они намного безопаснее для сайта, чем обычный гипертекстовый анкор. Если у вас в целом примерно такая картина – это хорошо, и говорит, что ваш ссылочный профиль не заспамлен.

При аудите особенно внимательно проверяют распределение анкоров с вхождением ключевых слов: оценивают их суммарный объем, долю прямых и непрямых анкоров, релевантность страницам, на которые они ведут, метрики качества сайтов-доноров. Избыточное количество таких потенциально опасных ссылок нередко достается в наследство от прежних оптимизаторов. Удалять такие ссылки нужно далеко не всегда, но очень важно знать про свой перегруженный анкор-лист при планировании дальнейшего линкбилдинга.

Во время проверки иногда обнаруживают и более существенные проблемы. Большое количество нерелевантных или откровенно спамных анкоров может являться следствием негативного SEO — так конкуренты пытаются завести чужой сайт под фильтр. Даже если вы не получили уведомление о санкциях, такие ссылки нужно обязательно отклонить через Google Disavow Tool, а в случае с Яндексом – уведомить поддержку.

После проведения подобного аудита вы будете в курсе, в каком состоянии находится ваш текущий анкор-лист. Другими словами, сможете понимать перегружен он SEO-ключами и сигналами от сомнительных доноров или нет. Такой подход позволит точнее спланировать стратегию линкбилдинга и исключит риск переоптимизации ссылочного профиля.

Практика продвижения анкорными ссылками

Анализ конкурентов в выдаче

Понять, какие подходы к оптимизации эффективнее работают в Google и Яндексе, лучше всего помогает анализ сайтов из топа выдачи. Конкурентная разведка – это стандартный подход в работе сеошников, который задействуют в том числе и при работе анкорами. Анализ конкурентов, чьи сайты по техническим параметрам более или менее приближены к продвигаемому ресурсу, позволяет получить очень важную информацию, на основе которой формируют собственный анкор-лист и строят стратегию линкбилдинга в целом.

Что смотрят у конкурентов при работе с анкорами:

  • Какие страницы приоритетные для продвижения (куда ведут самые высокочастотные анкоры).
  • Какой тип анкорных текстов преобладает (поисковая фраза/частотность/особенности вхождения).
  • Какова структура анкор-листа и приблизительное соотношение анкорных и безанкорных ссылок.
  • Какова доля брендовых анкоров и как их применяют (в каких словоформах используют / на какие страницы проставляют).
  • С какой частотой конкурент проставляет внешние анкорные ссылки (динамика ссылочного профиля).
  • Какие сайты привлекаются в качестве доноров, главным образом для проставления высокочастотных анкоров.

Какую выборку конкурентов использовать? В целом, здесь все зависит от многих факторов, но чтобы картина была максимально полной и в ней прослеживались общие закономерности, рекомендуют смотреть данные минимум по трем-четырем конкурентам.

Эти сайты не просто должны удерживать хорошие позиции по большинству пересекающихся запросов, но и быть более-менее близкими по основным техническим параметрам (возраст, количество страниц, суммарный объем ссылок и пр.), а также коммерческим факторам, например, таким как размер ассортимента. В рамках поверхностного анализа будет достаточно определить среднее соотношение разных типов анкоров и самые высокочастотные фразы, к которым привязывают свои бэклинки конкуренты.

Для проведения такой разведки используют специальные SEO-анализаторы. Снять весь объем вышеописанной информации одними лишь бесплатными инструментами уже вряд ли получится. Поэтому, если вы собрались профессионально заниматься линкбилдингом, нужно закладывать в бюджет траты на специальный SEO-софт.

Сценарии оптимизации анкорного текста

Если вы не настроены тратить ресурсы на анализ конкурентов, а ищите готовый шаблон для работы с анкорными ссылками, не хотим никого расстраивать, но вы вряд ли его найдете. Тем не менее опыт, накопленный сеошниками, позволяет выделить ряд общих принципов, на которые можно опираться при ссылочном продвижении. Линкбилдинг по таким «усредненным» правилам не обеспечит максимальный эффект от каждой проставленной ссылки, но вместе с тем – почти гарантированно защитит сайт от перспектив наложения фильтра.

Придерживайтесь общего соотношения анкорных и безанкорных ссылок в пределах 20:80 – это гарантированно оградит от проблем с поисковыми алгоритмами. На практике сайты редко попадают под фильтр, даже когда доля анкорных ссылок (без откровенно спамных фраз) превышает 40%.

Минимизируйте использование прямых анкоров, в которых больше пяти слов (вместе с предлогами). Практика анализа сайтов показывает, что оптимальная длина фраз под ВЧ- и СЧ-анкоры в среднем составляет 3-4 слова.

Используйте ВЧ-фразы для анкоров только в естественном вхождении: склоняйте, меняйте слова местами, делайте конструкцию читабельной. Например:

деревянные окна цена
цена деревянных окон

Используйте естественные вхождения гео-хвостов в запросах. В анкорах допускается использование общепринятых сокращений, но с соблюдением правильного регистра. Например:

деревянные окна спб заказать
заказать деревянные окна в Спб

Руководствуйтесь принципом: чем спамнее ссылка, тем качественнее донор. Наиболее высокочастотные анкоры с коммерчески ориентированными словами (купить, заказать и пр.) старайтесь размещать на трастовых и тематически релевантных сайтах. Для посадки безанкорных бэклинков используйте по большей части форумы, каталоги, Q&A-сервисы, рядовые статейники. При этом не забывайте проверять общую заспамленность каждого донора.

Весь анкор-лист примерно наполовину желательно делать, состоящим из брендовых фраз. Это общая закономерность, которая последовательно прослеживается при анализе топовых сайтов. А также название компании нужно упоминать не только заточенными под ключи, но и в нейтральных вхождениях, например:

Источник: блог компании Artisan-team

Не качайте анкорными ссылками две три страницы сайта – они должны быть равномерно распределены по всем наиболее приоритетным адресам. Что касается выбора ключей, то прямой анкор бэклинка всегда должен быть релевантен основному запросу продвигаемой страницы (не обязательно в точном вхождении).

Выделяйте в отдельный список ВЧ/СЧ анкоры со словами «купить», «цена», «заказать» и другими вхождениями, придающим ссылке коммерческий контекст. Такие якорные тексты нежелательно часто использовать в прямом вхождении. В естественном виде их проставляют только на самых трастовых донорах, направляя на наиболее важные страницы своего сайта.

В остальных случаях потенциально спамные слова вписывают в околоанкорное окружение. Текст, который находится в непосредственной близости от ссылки и задает тематический контекст анкора, также внимательно анализируется поисковыми алгоритмами и обеспечивает важные сигналы для ранжирования. Многие из оптимизаторов вовсе отказываются от прямых вхождений коммерческих высокочастотников и ставят их только околоанкором.

Придерживайтесь максимального разнообразия ключевых фраз. В идеале стремитесь к тому, чтобы ни один анкор не повторялся, хотя на практике этого добиться не так-то просто, особенно когда сайт продвигают по относительно небольшому семантическому ядру. В любом случае старайтесь, чтобы наиболее высокочастотные анкоры не дублировались чаще 2–3 раз в одинаковом вхождении, даже если они ведут на разные страницы сайта. Для уникализации однотипных ключей разбавляйте их другими словами, склоняйте, используйте синонимы, делайте их околоанкором.

Большинство из перечисленных рекомендаций актуальны исключительно для «взрослых» сайтов, которые успели закрепиться в выдаче и ранжируются хотя бы в топ 20-25 по основным запросам. Для молодых проектов, еще не получающих какой-либо значимый трафик из поиска, используют более аккуратные схемы линкбилдинга. Давать какие-либо конкретные рекомендации на этот счет – довольно сложно. Но в целом, в первые полгода после запуска сайта, лучше ограничиться проставлением не более трех-четырех ВЧ- и СЧ-анкорных бэклинков в месяц. В качестве страховочной меры они должны быть обязательно компенсированы безанкорными крауд-ссылками. Но и здесь не нужно перегибать палку: оптимальный лимит всех обратных ссылок – до 15–20 в месяц. Это те усредненные показатели, которые условно принято считать безопасными для молодых сайтов.

Сообщение Практическое руководство по работе с анкорными ссылками появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>
Самые распространенные SEO-ошибки на сайтах — как их найти и исправить https://scrapushka-nch.ru/blog/rasprostranennye-seo-oshibki/ Fri, 10 Feb 2023 09:23:22 +0000 https://scrapushka-nch.ru/?p=12745 Сообщение Самые распространенные SEO-ошибки на сайтах — как их найти и исправить появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

Технические ошибки и недочеты в оптимизации можно найти на любом сайте – и это абсолютно нормально. Проектам свойственна постоянная динамика: они обновляются, меняют структуру, переиндексируются, получают ссылочные сигналы – на фоне этих процессов неизбежно возникают те или иные бреши в техническом SEO. Но когда проблемы становятся критическими, приобретают массовый характер и начинают влиять на ранжирование – это уже плохо. Такие уязвимости нужно своевременно обнаруживать и устранять. Именно поэтому время от времени следует вспоминать про глубокий технический аудит для своего ресурса.

SEO-ошибки возникают не только по мере естественного развития сайта. Они могут быть заложены еще на этапе создания проекта или носить накопительный характер, и в полной мере заявить о себе со временем, когда сайт нарастит основные показатели. Еще чаще SEO-проблемы выстреливают из-за неумелых действий оптимизаторов, а иногда к этому прикладывают руку и недобросовестные конкуренты.

В этом материале мы последовательно пройдемся по самым часто встречаемым SEO-ошибкам, расскажем, как они появляются, влияют на ранжирование и главное – как их правильно исправлять.

Дубли с частичным или полным повторением контента

Дубли – это страницы, которые имеют свой уникальный URL-адрес, но наполнены идентичным или очень похожим контентом. Дубли бывают полными и неполными (частичными), когда содержимое страниц совпадает в среднем на 85% и более. И те и другие очень не нравятся поисковикам и являются серьезным недочетом внутренней оптимизации. Отдельно отметим, что дубли – это не только о текстах, но и про другие виды контента: повторяющиеся видео, изображения или метатеги.

Почему появляются дубли?

В большинстве случаев они возникают не из-за прямых действий вебмастеров, а по техническим причинам: из-за особенностей настроек CMS, работы некоторых плагинов, верстки шаблона; массовые дубли часто выстреливают после изменения структуры сайта, редизайна и проведения других крупных технических работ.

Если говорить о человеческом факторе, причиной дублей часто становятся некорректно настроенные (или слетевшие и незамеченные) редиректы, страницы пагинации с непрописанным каноникалом. Дубли также могут возникать из-за однотипных title, что обычно происходит на страницах с незначительным содержимым, например, с товарными карточками, у которых заголовки массово сгенерированы через шаблон.

Чем опасны дубли?

  •             Когда на сайте есть несколько страниц-клонов, в поиске остается ранжироваться только один документ, а все остальные – вылетают из индекса. Причем нет никаких гарантий, что в этом случае пользователям будет доступна наиболее качественная и релевантная версия страницы.
  •             Дубли не только конкурируют между собой за внимание поисковиков, но и взаимно ослабляют позиции друг друга, из-за нерационально перераспределения ссылочного веса внутри сайта.
  •             На сайтах с множеством страниц (более 100к URL) из-за засилья дублей важные разделы могут долгое время не попадать в индекс, поскольку лимиты на обход (краулинговый бюджет) будут сливаться на сканирование неприоритетных URL.

Как обнаружить дубли?

Через уведомление в Вебмастере
Яндекс.Вебмастер сообщает о наличии дублей автоматически. Проверяют это оповещение в разделе «Диагностика». Подписываться на уведомления не нужно, они появляются сами, правда, это может происходить с незначительной задержкой, в два-три дня.

Вручную в Вебмастере
То же самое можно сделать по старинке: открываем вкладку «Индексирование» → «Страницы в поиске». Справа вверху нажимаем «Исключённые». Скачиваем архив в подходящем формате – в файле все проблемные URL будут иметь статус DUPLICATE.

SEO-краулерами
Просканировать сайт на предмет дублей также можно специальными программами. Вебмастера традиционно используют: Screaming Frog, Xenu`s Link Sleuth, Netpeak Spider, Ahrefs (на самом деле, софта для таких задач достаточно много). При проведении глубокого аудита лучше использовать именно сторонние программы, а не данные из вебмастерок.

Что делать с дублями (по ситуации)

— добавить rel=canonical, чтобы указать поисковикам основную страницу из перечня дублей, которую нужно показывать в результатах поиска;

— настроить 301-й редирект со второстепенной страницы на основную версию (это имеет смысл, если с дубля идет трафик или у него есть качественные обратные ссылки);

— расширить и уникализировать контент на однотипных страницах;

— удалить ненужные URL, если они не приносят трафик, не имеют обратных ссылок и бесполезны для пользователей.

В случае с дублями главное – всегда пытаться понять причину, которая приводит к генерации однотипных страниц, и своевременно решать ее.

Каннибализация ключевых слов

Технически здесь идет речь о тех же дублях, только не на уровне контента, а на уровне поисковых запросов. Если проще, так происходит, когда берут группу одинаковых (или очень похожих) ключевых слов и начинают использовать их на разных страницах сайта. Это вводит Google и Яндекс в заблуждение, и они просто не знают, какую из страниц отображать по релевантному запросу. Как и с дублями, поисковики в таком случае оставляют в индексе только одну из страниц, и никто не гарантирует, что это будет самая качественная версия.

Как результат, на сайтах с каннибализацией часто по основным запросам ранжируются второстепенные страницы, а приоритетные разделы вовсе вылетают из индекса и не получают поискового трафика. При этом визиты на некачественные версии страниц дают лишь много отказов, короткое время сеансов, низкую глубину просмотров. Итог всего этого: не просто отсутствие конверсий с целевой страницы, но и постепенная пессимизация всего сайта из-за общей просадки поведенческих. Таким образом, когда много страниц начинает конкурировать между собой – это очень плохо для внутренней оптимизации.

Как возникает каннибализация

В отличие от дублей, причины каннибализации никак не связаны с технической частью, а в абсолютном большинстве случаев возникают по недосмотру оптимизаторов. Как правило, здесь имеет место один из следующих сценариев неправильной работы с семантикой.

1. Добавление новых разделов и наполнение сайта контентом осуществляют без использования семантического ядра. Другими словами, с поисковыми запросами работают интуитивно, без четкой структуры и плана действий.

2. Семантика собрана очень поверхностно и/или неправильно произведена ее кластеризация (как вариант – этого вовсе не сделано), из-за чего ключи неэффективно распределены по посадочным страницам. Объясним на пальцах: оптимизатор может создать две страницы под запросы, например, «SEO продвижение» и «SEO раскрутка»; формально – это разные ключи, но для поисковых систем они семантически идентичны, и одна из страниц, скорее всего, вылетит из индекса. Это было бы очевидным при грамотно проведенной кластеризации.

3. Естественная каннибализация, возникающая по мере увеличения контента на сайте. Даже при условии грамотно спланированной контент-политики, на сайтах с большим объемом публикаций, часто появляются материалы, со взаимно конкурирующими ключами, что приводит к проблемам с ранжированием одной из страниц.

Как видно, каннибализация далеко не всегда всплывает из-за косяков оптимизаторов. Потому важно время от времени проверять сайт на наличие таких проблем и исправлять их. Подробнее о том, как это делать – рекомендуем почитать в отдельном материале. 

Неоптимизированные тайтлы (пустые, слетевшие или криво заполненные)

Ошибка – очень банальная. Чаще она имеет место, когда с сайтом вообще не велись какие-либо работы по оптимизации. Но есть и другие причины. Ни для кого не секрет, что тайтл – это очень важный элемент. Он подтягивается в заголовок сниппета и является первым, что видят пользователи на выдаче. Таким образом, он оказывает абсолютное влияние на CTR.

Самая грубая и банальная ошибка – это незаполненные тайтлы. Поисковики сами пофиксят проблему, и сгенерируют заголовок сниппета автоматически, но за его качество и информативность никто не будет нести ответственность; и уж точно вряд ли поисковые алгоритмы оптимизируют ваши тайтлы под ключи, что тоже очень важно.

Тайтлы могут слетать из-за технического сбоя. Часто такое происходит, когда вебмастера пытаются вставить в заголовок эмодзи – многие CMS не настроены на корректную обработку подобных спецсимволов – в результате чего слетает весь тайтл. В итоге страница публикуется с незаполненным заголовком и такая проблема обычно долгое время остается незамеченной. Аналогичное может произойти при сбоях в работе или неправильных настройках шаблонов автогенерации title, которые часто используют на сайтах с большим количеством страниц.

Как видим, проблемы с тайтлами – это не только про ошибки новичков, поэтому заголовкам нужно время от времени проводить аудит.  Коротко о том, что еще смотреть при проверке.

Типичные ошибки оптимизации title

✔ Слишком короткие/длинные описания: оптимальная длина title – 51-60 символов.

✔ Повторяющиеся тайтлы на разных страницах.

✔ Неуникальные метатеги, массово спарсенные у конкурентов.

✔ Неправильная работа с семантикой: переспам ключами (одного ВЧ-запроса вполне достаточно), наличие окружения со спамным окрасом (например, слов «лучший», «дешевый» и пр.), отсутствие ГЕО, если оно актуально.

✔ Нерелевантность title содержимому страницы.

Здесь стоит напомнить, что в 2021 году Google радикально пересмотрел свои подходы к обработке тегов Title. Если коротко: он стал намного чаще пренебрегать заполненной информацией и генерировать заголовки самостоятельно. Но даже несмотря на это, все равно очень важно продолжать оптимизировать тайтлы в соответствии с общепринятыми требованиями. Подробнее на эту тему – читайте в отдельном материале:

Как Google изменяет тайтлы. Пересказываем результаты нового (и весьма убедительного) исследования

Проблемы с внутристраничными заголовками H1

Непроработанные H1 – еще один часто встречаемый недочет внутренней оптимизации. Как правило, на сайтах эта проблема идет рука об руку с плохо оптимизированными тайтлами, но решают ее несколько иными способами. Коротко о том, какие ошибки совершают при работе с H1 и как их исправить:

Отсутствие H1

Как ни странно, такая проблема встречается часто. Страницы без H1 могут индексироваться и отображаться в результатах Google и Яндекса, но поисковики в этом недополучат ценные SEO-сигналы. При прочих равных алгоритмы всегда будут лучше ранжировать страницы с оптимизированными H1, предоставляя им более высокие позиции в выдаче.

H1 не соотносится с Title

H1 оптимизируют с оглядкой на Title: два заголовка делают разными, но не противоречащими друг другу по смыслу, чтобы поисковики не путались, с каким из запросов соотносить страницу. Это не жесткое правило, а скорее рекомендация, которая тем не менее закрепилась как общепринятая сеошная норма. В H1 вписывают второй по важности ключ из кластера запросов, под который оптимизируют страницу, а главный ВЧ-запрос отводят под тайтл. В обоих заголовках можно использовать одинаковый ключ, но в этом случае желательно вписывать его в разных словоформах. Как и с Title, при оптимизации H1 важно не спамить: одного-двух вхождений ключевого слова – вполне достаточно.

Много H1 на одной странице

В отличие от других заголовков, H1 используют на странице только один раз. Множественное повторение H1 обесценивает сигналы, которые алгоритмы получают через этот важный тег. В лучшем случае это может «распылить» SEO-ценность H1, в худшем – поисковики посчитают страницу спамной и неинформативной. Сам H1 помещают как можно ближе к началу HTML-документа и не повторяют его на других страницах.

Нарушена последовательность вложенности Н1, Н2, Н3

Работая с заголовками разного уровня, важно соблюдать их логическую иерархию. Непоследовательное расположение Н2, Н3, H4 и т. д. нельзя назвать очень серьезной ошибкой, но это может влиять на то, как поисковые алгоритмы понимают структуру документа и определяют общую релевантность страницы.

Пустые alt и другие недоработки картиночного SEO

Оптимизация картинок – самый простой способ расширить присутствие сайта в поиске и получать дополнительный трафик. То, что принято называть Image SEO, не требует от вебмастеров больших усилий и системной работы, но многие продолжают пренебрегать им. При этом, если для обычных сайтов оптимизация картинок – в большей степени рекомендация, то для тех же магазинов – это уже критически важный компонент внутристраничного SEO.

Оценить общую долю картиночного трафика и другие показатели, связанные с переходами по изображениям, можно в Google Search Console: 

Эффективность → Результаты поиска → Тип поиска: Изображение

Незаполненные атрибуты Alt

Прописанные альты с релевантными ключами – половина успеха для оптимизации картинок. Альтернативное описание должно отражать содержание фото, иметь вхождение релевантного ВЧ-запроса и не превышать 100-120 символов. Все банально, просто – и при этом действительно эффективно. Картинкам можно не прописывать тайтлы и пренебречь другими деталями оптимизации, но пустые атрибуты alt – это серьезный просчет. Отдельно отметим, что в Яндексe альты важны только для поиска по изображениям, в то время как в Google эти атрибуты дополнительно влияют на ранжирование в основной выдаче.

Другие распространенные ошибки Image SEO

  •       Наличие запрета на индексацию изображений в Robot.txt.
  •       Использование на страницах фото плохого качества.
  •       Некорректное отображение картинок на смартфонах.
  •       Нелогичная структура URL для изображений (с ненастроенными ЧПУ).
  •       Использование нерелевантных картинок. Поисковики умеют распознавать, что изображено на фото и соотносить это с содержимым страницы (в том числе и поэтому картинки рекомендуют ставить в релевантном текстовом окружении).
  •       Размещение фото и других мультимедийных файлов на стороннем хостинге (особенно очень дешевом).

Больше практических рекомендаций по SEO для изображений – читайте в отдельной статье.

Ненастроенные ЧПУ (человекопонятные урлы)

Структуру URL-адресов на любом сайте всегда приводят к удобочитаемому ЧПУ-формату. Избегайте, чтобы URL выглядели как бессодержательный набор символов — они должны иметь вид коротких, понятных и легко читаемых идентификаторов. В противном случае это затруднит обход страниц поисковыми краулерами, что, в свою очередь, повлечет проблемы с индексированием и ранжированием в поиске. 

Человекопонятные урлы также важны для обычных людей, поскольку часто они выступают в роли своего рода вспомогательной навигации, когда, смотря на адрес, пользователь понимает, на каком уровне вложенности он сейчас находится. Другими словами, работает тот же эффект, что и с «хлебными крошками». В дополнение к этому сниппет с ЧПУ выглядит более привлекательным и информативным на выдаче — и это отражается на CTR.

Таким образом, настройка ЧПУ как прямо (через индексирование), так и косвенно (через поведенческие) определяет качество поисковой оптимизации.

Ошибки в настройках индексирования

Любые страницы сайта можно закрывать от индексирования – поисковые роботы не смогут сканировать такие документы и отображать их в выдаче. Так, например, часто поступают с техническими страницами, которые не хотят делать общедоступными. Но бывают случаи, когда по незнанию или по ошибке от обхода закрывают важные разделы. Очевидно, что это критическая проблема, т. к. недоступные для индексирования страницы не приносят поискового трафика и делают все усилия по SEO-продвижению бесполезными.

Запретить Google и Яндексу индексировать документы можно разными способами:

  1. Через добавление директивы noindex в метатеге robots (в HTML-коде страницы).
  2. Путем настройки HTTP-заголовка X-Robots-Tag на сервере.
  3. Прописав запрещающие директивы в файле robots.txt.

Закрывать отдельные страницы (или целые разделы) можно не полностью, а частично, задавая более гибкие настройки индексирования. Например, иногда делают так, чтобы поисковые роботы не учитывали страницу, но индексировали ссылки на ней. Подробнее о каждом из трех способов, а также о том, какие страницы нужно закрывать от роботов Google и Яндекса – читайте здесь.

Со временем на сайте накапливается много настроек индексирования – и за ними нужно следить. Есть разные сценарии, когда что-то может пойти не так. Указанные директивы могут просто слететь. Часто такое происходит после глобальных обновлений на сайте: изменения структуры, переноса на новый движок и пр. Никто не исключает и банальных оплошностей, например, когда вебмастер по ошибке закрывает не то что нужно или забывает восстановить доступ к страницам, который был ограничен на период технических работ. Отдельно стоит сказать про настройки индексирования через Robots.txt: здесь часто бывает так, что из-за некорректно прописанной директивы, непреднамеренно закрывают доступ не к отдельным страницам, а целым разделам.

Когда такие ошибки долгое время остаются незамеченными, это приводит к печальным последствиям с поисковым трафиком. Перестраховаться от подобного рода неприятностей достаточно просто: нужно привязать сайт к Яндекс.Вебмастеру и/или Google Search Console и отслеживать все уведомления. При необходимости настройки индексирования в вебмастерках всегда можно проверить вручную. Больше об управлении индексированием – читайте в отдельной статье.

Вместо штатных инструментов Я.Вебмастер и Search Console, для проверки статуса индексирования можно использовать и сторонние SEO-краулеры. Например, такое умеют делать Ahrefs, Screaming Frog, SEMrush и много других программ. 

Неоптимизированные внутренние ссылки (перелинковка, атрибуты rel=, битые  ссылки)

В SEO уделяют много внимания обратным ссылкам, и это понятно – сигналы с других сайтов очень важны для эффективного продвижения. Вместе с тем не стоит забывать и о внутреннем ссылочном профиле, оптимизация которого также в приоритете. Среди типичных ошибок и недочетов, связанных с внутренними ссылками, можно выделить следующие ситуации.

Отсутствующая (или давно не актуализированная) перелинковка

Страницы сайта связывают внутренними ссылками. В идеале, на каждую более или менее значимую страницу должна стоять минимум одна ссылка из другого раздела. Такая система называется перелинковкой, и она является важным компонентом внутренней оптимизации сайта. Если коротко, документы на которые не ссылаются другие страницы:

  • хуже индексируются, т. к. у поисковых роботов не всегда получается их найти и начать эффективно ранжировать;
  • хуже продвигаются в поиске, поскольку им не передается PageRank, который усиливает поисковый авторитет страницы.

Создание грамотной перелинковки подчиняется некоторым правилам. Не вдаваясь в сложности: более авторитетные страницы сайта всегда должны ссылаться на менее трастовые документы. Но это далеко не все. Подробнее о том, как правильно линковать страницы – читайте в отдельной статье.

Перелинковку важно всегда поддерживать в актуальном состоянии, а чтобы найти разделы сайта, на которые не ссылаются другие страницы, используют уже упомянутые программы-краулеры: Screaming Frog, Netpeak Spider, Ahrefs и др.

Переизбыток ссылок на странице

Не стоит забывать, что внутренние ссылки – это не только перелинковка в текстах. Общее количество линков на странице зависит от особенностей верстки, а также специфики содержимого, например, листинги по умолчанию будут иметь больше ссылок, чем другие разделы. Из-за переизбытка ссылок возможны проблемы с краулинговым бюджетом, когда поисковым роботам не хватает лимитов на обход сайта. Это, в свою очередь, чревато сложностями с индексированием. Важно отметить, что подобные сценарии актуальны только для крупных сайтов: если ресурс содержит меньше 100 000 URL-адресов, о проблемах с краулинговым бюджетом можно забыть. Тем не менее, возвращаясь к основному вопросу, существует условный стандарт, что количество внутренних ссылок на странице не должно быть более 200.

Исходящие ссылки не закрыты атрибутами nofollow, sponsored, ugc

Ссылаться на чужие сайты – это абсолютно естественно для экосистемы интернета, но и здесь имеются потенциальные риски, о которых следует знать. В первую очередь нужно ссылаться только на качественные сайты и страницы с тематически релевантным контентом. Помимо этого:

  • все ссылки (даже на те ресурсы, которым вы доверяете) нужно помечать атрибутом nofollow – он препятствует перераспределению ссылочного веса и минимизирует негативные последствия, когда вы ссылаетесь на некачественные сайты;
  • ссылки, размещенные на платной основе или являющиеся частью партнерских программ, размечают атрибутом sponsored (по возможности его лучше использовать в связке с nofollow);
  • для ссылок, которые оставляют пользователи (в комментариях, отзывах, ветках форумов) обязательно используют nofollow в связке с атрибутом ugc; помимо этого, такие линки нужно по умолчанию тщательно модерировать.

Все указанные атрибуты поддерживаются как Google, так и Яндексом. Подробнее об их использовании – в официальной справке.

На сайте много неработающих ссылок

Битые ссылки, которые ведут на страницы с ошибкой 404, не нравятся ни пользователям, ни поисковым алгоритмам. При этом их появление – вполне естественный процесс для всех сайтов, особенно тех, что активно обновляются. Критическая масса неработающих ссылок может пессимизировать поисковый рейтинг и точно не пойдет на пользу поведенческим факторам. Добавим сюда уже упомянутое перераспределение ссылочного веса и проблемы краулингового бюджета (для крупных сайтов) — после этого становится очевидным, что игнорировать неработающие ссылки не стоит.

Больше о том, чем опасны битые ссылки, как их находить и что делать дальше – читайте в отдельной статье.

Проблемы с обратными ссылками 

С помощью ссылок из других источников можно быстро и эффективно раскачать поисковый авторитет своего сайта, но если не знать всех тонкостей этого процесса – неизбежны серьезные проблемы со стороны поисковиков, вплоть до самых фатальных. Линкбилдинг – это сложно и ответственно, именно поэтому он фактически выделился в отдельное направление SEO. Чтобы лучше понять его суть, рекомендуем ознакомиться с серией специальных материалов на эту тему. Здесь же мы лишь коротко перечислим те факторы, которые могут быть потенциальной проблемой и должны насторожить вебмастера при анализе ссылочного профиля:

1. Неестественно резкий рост количества обратных ссылок на сайт. Такая динамика с большой долей вероятности может свидетельствовать о ссылочном взрыве – приеме негативного SEO, с помощью которого конкуренты пытаются завести сайт под фильтр.

2. Наличие в ссылочном профиле подозрительных доноров. Здесь имеются в виду:

  • сайты серых тематик (адалт, фарма, гемблинг);
  • сайты, поднятые на сгенерированном или спарсенном контенте;
  • взломанные ресурсы (при переходе на них, срабатывает оповещение о потенциальной угрозе);
  • низкокачественные ссылочные каталоги.

3. Большое количество ссылок с тематически нерелевантных площадок.

4. Прирост анкорных бэклинков, с вхождением ключевого слова. Такие ссылки наиболее опасные с т. з. наложения фильтра, и часто именно их используют как инструмент негативного SEO.

5. Множество обратных ссылок из подозрительных доменных зон.

Подробнее о том, как отслеживать потенциально опасные ссылки и что с ними делать дальше – читайте в отдельной статье.

Отсутствие технических страниц

Очень часто по незнанию или по каким-либо другим причинам владельцы сайтов игнорируют добавление т. н. технических страниц. Речь идет о пользовательском  соглашении, политике конфиденциальности, страницах об авторах проекта. На первый взгляд, это, действительно, может показаться формальностью, но для поисковиков такие разделы являются важным сигналом доверия и качества. И это касается не только YMYL-сайтов, на которых необходимо соблюдать требования E—A—T.

Исправив этот недочет, любой ресурс может рассчитывать в среднем на +20-30% к трафику. Причем после добавления технических страниц все изменения происходят довольно резко.

Если вы используете шаблонный текст пользовательского соглашения или политики конфиденциальности, по желанию, страницы с неуникальным содержимым можно закрыть от индексации, в большинстве случаев это никак не влияет на результат.

Засилье страниц с «тонким» контентом

Речь идет о контенте, который не представляет фактической ценности для пользователей, а ориентирован в большей степени на поисковые системы. Это могут быть как просто короткие переоптимизированные тексты, которым не хватает глубины и полезности, так и технический «мусор», по недосмотру попавший в индекс. Неуникальные страницы, со скопированным и дублированным содержимым, также расцениваются как тонкий контент.

Любой из сценариев обработки такого контента поисковиками не принесет ничего хорошего. Алгоритмы либо просто посчитают страницу некачественной и удалят ее из индекса, либо отправят документ на самые далекие позиции в выдаче, т. к. не смогут правильно понять его содержания. Если страниц с тонким контентом много, в дело может вступить алгоритмическая пессимизация, которая распространяется уже не на отдельные URL, а на весь сайт.

В Google тонкий контент также часто становится причиной появления ложной ошибки 404 (soft 404). В этом случае страница физически существует (сервер помечает ее статусом OK), но для поисковика URL получает формальный статус 404 (страница не найдена). Вебмастека уведомляет об ошибке и со временем такие страницы вылетают из индекса.

Сообщение Самые распространенные SEO-ошибки на сайтах — как их найти и исправить появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>
Google Disavow Tool: как защитить сайт от вредоносных обратных ссылок. Практическое руководство по отклонению бэклинков https://scrapushka-nch.ru/blog/google-disavow-tool/ Tue, 07 Feb 2023 07:19:15 +0000 https://scrapushka-nch.ru/?p=12713 Сообщение Google Disavow Tool: как защитить сайт от вредоносных обратных ссылок. Практическое руководство по отклонению бэклинков появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

По мере того как поисковые алгоритмы становятся все более совершенными, у многих возникает уверенность, что некачественные обратные ссылки перестали быть проблемой. Отчасти в этом уверяют и в самом Google: здесь, как и в Яндексе, постоянно делают акцент на том, что алгоритмы держат все под контролем и способны эффективно противодействовать всем видам негативного SEO. Тем не менее Google Disavow Tool по-прежнему с нами, и он не просто остался в качестве инструмента-пережитка, а не так давно пережил обновление. Это косвенное, но весьма убедительное свидетельство, что владельцам сайтов еще рано расслабляться и всецело полагаться на работу алгоритмов (по крайней мере, в вопросах спамных бэклинков).

В этом материале – говорим об инструменте отклонения обратных ссылок Google Disavow Tool, типичных сценариях негативного SEO и в целом о том, как держать свой ссылочный профиль под контролем и оставаться на светлой стороне линкбилдинга.

Что такое Google Disavow Tool

Disavow Tool — это официальный инструмент, с помощью которого указывают Google, какие обратные ссылки нужно игнорировать при оценке вашего сайта. Работает это просто: на страницу Disavow Tool загружают специальным образом отформатированный txt-файл, в котором построчно перечислены нежелательные URL-адреса со спамными бэклинками на ваш сайт. Владелец ресурса может отклонять ссылки выборочно или блокировать сигналы по всему домену. Все просто.. но не совсем. 

Как только вы перейдете на страницу инструмента отклонения ссылок, вы сразу же увидите предупреждение Google о том, что это расширенная опция, которую следует применять с осторожностью. При неправильном использовании эта функция может нанести ущерб эффективности вашего сайта в результатах поиска, другими словами – ударить по позициям и трафику.

И это предупреждение на 100% уместно. Естественный ссылочный профиль любого относительно крупного сайта всегда будет содержать большое количество внешне непонятных обратных ссылок. Это, например, бэклинки из всевозможных каталогов, с сайтов на домене третьего уровня, разных топ-листов, из подозрительных статейников, поднятых на спарсеном у вас же контенте и так далее. И здесь у владельцев сайтов с недостаточным бэкграундом практического SEO обычно возникает желание открыть Disavow Tool и начать направо и налево блокировать все, что попадается под руку. Так делать не стоит, и именно об этом предупреждение Google.

Сейчас алгоритмы поисковых систем, действительно, работают достаточно эффективно, чтобы в большинстве случаев правильно оценивать ссылки и принимать решение о передаче PageRank. Применение Disavow Tool является серьезным действием. К инструменту дезавуирования стоит прибегать только в том случае, когда вы безоговорочно уверены, что существует объективный риск для авторитета вашего сайта из-за спамных сигналов. И даже в этом случае, перед тем как отклонять ссылку, нелишним будет попробовать связаться с владельцем сайта-донора и попросить его об удалении нежелательного бэклинка.

Еще раз очень коротко, почему важны обратные ссылки

Даже те, кто имеет косвенное отношение к SEO наверняка знают, что ссылки с других сайтов являются сильным фактором ранжирования для Google и Яндекса. Именно они лежат в основе эффективного поискового продвижения и часто становятся решающим фактором в конкурентной борьбе за топ выдачи. Обратными ссылками можно быстро раскачать авторитет домена, что делает их привлекательными для всевозможных SEO-манипуляций. Поэтому поисковики отслеживают все неестественные действия с бэклинками и при обнаружении недобросовестных SEO-практик – наказывают сайт.

Отсюда вытекает главная сложность, которая сводится к тому, что в профессиональном SEO без ссылок – никуда, но наращивать их нужно максимально вдумчиво и с полным осознанием всех потенциальных рисков. Хороший линкбилдинг – это сложно, и не зря он  фактически выделился в отдельное направление SEO. Больше на эту тему — в серии наших материалов:

Как работать с обратными ссылками
Как проверять ссылочных доноров? Критерии профессионального отбора
Что такое PBN-сети? Отвечаем на главные вопросы

Что изменилось в Disavow Tool + короткий FAQ

В конце 2020 года Google провел обновление Disavow Tool. До этого он был самостоятельным инструментом, теперь же является встроенным в Google Search Console. Изменения также затронули интерфейс, но общий принцип и функциональность этого сервиса остались прежними, о чем мы еще будем говорить ниже.

Инструмент Disavow не гарантирует, что сайт улучшит свой рейтинг сразу после того, как вы дезавуируете все подозрительные бэклинки. Поисковые роботы должны сначала сделать переобход указанных в txt-файле URL-адресов, и в перспективе отклонение возымеет эффект (если ссылки действительно были вредоносными). Отдельно отметим, что применение Disavow Tool – это мера первой необходимости при наложении ручных санкций, когда в присланном уведомлении Google прямо указывает на источник проблемы.

Отклоненные ссылки все еще отображаются в консоли. Это нормально?

Бэклинки, заблокированные через Disavow Tool, по-прежнему будут отображаться в Search Console в разделе «Внешние ссылки». Это нормально, и не означает, что отклонение ссылок не сработало, о чем прямо заявляют представители Google 1.

Может ли Disavow Tool стать инструментом черного SEO?

Это еще один вопрос, который беспокоит многих вебмастеров. Есть ли у механизма отклонения ссылок обратный эффект? Другими словами, если кто-то внесет ваш сайт в Disavow, не окажет ли это негативного влияния на поисковый рейтинг? В Google уверяют, что нет 2. Файл Disavow лишь указывает алгоритмам, игнорировать ссылки и не используется для сбора данных по спам-сайтам. Таким образом, инструмент невозможно применять для пессимизации конкурентов.

Алгоритмические и ручные санкции за ссылки


Ссылочные манипуляции приводят к наложению как алгоритмических, так и ручных штрафов — и здесь еще раз напомним разницу между ними.

Алгоритмические штрафы – это результат регулярной работы внутреннего ядра Google. Небезызвестный антиссылочный алгоритм Penguin является частью общего механизма Google с 2016 года – он работает в режиме реального времени и быстрее накладывает штрафы (снимает, к слову, тоже быстрее). Сами санкции могут распространяться на весь сайт или отдельные страницы. Подробнее об этом – здесь.

Ручные санкции, как несложно догадаться из названия, накладываются вручную, при обнаружении ссылочных нарушений специально обученными сотрудниками Google (асессорами). Такие штрафы более понятные, как минимум потому, о них приходит соответствующее уведомление в Search Console, в то время как о наличии алгоритмических санкций можно догадываться только по косвенным признакам. Подробнее о ручных штрафах Google здесь.


Как использовать Google Disavow Tool

Список подозрительных URL или целые домены, на которых имеются нежелательные обратные ссылки, нужно прописать в отдельном txt-файле. Когда такой документ будет готов, дальше все просто. Нужно перейти на страницу инструмента, выбрать сайт (если к консоли привязано несколько ваших ресурсов) и загрузить txt-файл с директивами в систему. 

Как правильно указать директивы в txt-файле

Документ со списком конкретных URL или целых доменов, сигналы с которых необходимо отклонить, должен соответствовать перечню требованиям.

Файл обязательно должен иметь расширение .txt, название при этом может быть любым.

В качестве кодировки txt-файла используют стандарт UTF-8 или 7-битные символы ASCII.

Каждый отклоняемый URL, на котором стоит нежелательная ссылка, прописывают в отдельной строке.

Чтобы отклонить все бэклинки с выбранного сайта, используют директиву domain:

domain:example.com

В Disavow Tool нет возможности отклонять ссылки из отдельных разделов, поэтому нельзя вводить URL, ведущий в определенную категорию, например:

example.com/blog/

Ограничения по длине для каждого URL – 2048 символов. При этом общий размер файла не должен превышать 100 000 строк или 2 МБ (на практике достичь этих лимитов очень сложно).

В Disavow предусмотрена возможность добавления комментариев, через проставление # в начале строки. Этот знак указывает Google игнорировать размеченные строки, что очень удобно, т. к. вебмастер может оставить пометку, почему он отклонил ту или иную обратную ссылку. Другими словами, эти комментарии для вас, а не для Google.

Таким образом, содержимое текстового файла может выглядеть, например, вот так:

# Две страницы со спамными анкорами

http://example.com/spampage1.html

http://example.com/spampage2.html

 

# Домен под фильтром, отклонил 29.01.22

domain:example.com

В панели инструментов можно иметь только один файл дезавуирования для каждого сайта, поэтому, если вам нужно добавить новые спамные ссылки, файл перезаливают в отредактированной версии.

Если файл подготовлен некорректно, система уведомит об этом при отправке и предложит исправить ошибки. В случае успешной загрузки, обратные ссылки, которые расположены на страницах, указанных в файле, перестанут передавать сигналы на ваш сайт. Но произойдет это не раньше, чем через несколько недель – после повторного переобхода указанных URL краулерами Google. Никаких уведомлений в этом случае не приходит. Об успешном завершении процесса можно догадаться только по косвенным признакам, в виде восстановленных позиций.

После отклонения плохие бэклинки все равно останутся в ссылочном профиле Search Console. Как уже было сказано выше, дезавуирование — это не удаление. Нежелательные доноры будут продолжать ссылаться на сайт, но алгоритмы Google начнут игнорировать эти сигналы, и они никак не навредят авторитету вашего ресурса. Но если удалить или неправильно перезалить файл в Disavow Tool, вредоносные ссылки снова начнут представлять опасность, о чем нужно помнить, внося любые изменения в txt-документ.

Какие ссылки лучше отклонять?

Мы подробно описали механику дезавуирования ссылок. Но использование Disavow Tool – это последний шаг, которому предшествует много вдумчивых действий. Поэтому вернемся немного назад и попробуем разобраться, какие бэклинки нужно отклонять и как их правильно находить в своем профиле.

Под потенциально опасными линками Google понимает любые ссылки, направленные на манипулирование PageRank и рейтингом сайта в поисковой выдаче. Более подробно об основных способах ссылочных манипуляций можно почитать здесь. Но даже если предположить, что владелец сайта осознанно строит исключительно белый линкбилдинг (насколько это возможно), это не исключает потенциальных проблем со стороны поисковиков. Появление токсичных ссылок в профиле может быть следствием негативного SEO, практикуемого недобросовестными конкурентами, а также являться результатом непродуманных действий SEO-подрядчиков. Именно поэтому владельцам сайтов нужно отслеживать внешний ссылочный профиль на постоянной основе.

Существуют разные подходы к контролю качества бэклинков. Так, некоторые считают, что если ссылка нерелевантна и не имеет отношения к тематике сайта – ей не место в профиле. Мы склонны думать, что такой подход чрезмерно радикальный. Возможно, он оправдан лишь в случае с нерелевантными анкорными ссылками, которые ведут на совсем молодые проекты, поскольку чем меньше траст сайта, тем большую опасность для него представляют сомнительные ссылочные сигналы.

Вместе с тем, есть группы источников, токсичность ссылок из которых не вызывает сомнений, и применение Disavow Tool в отношении их полностью оправдано. Речь идет о следующих категориях сайтов-доноров.

Низкокачественные ссылочные каталоги
Прогон сайта по каталогам – распространенный метод негативного SEO, который не требует больших усилий от конкурентов, как минимум потому, что для этого существует специальный софт. Иногда такая проблема остается в наследство от недобросовестных SEO-подрядчиков. Чтобы определить некачественный каталог, не прибегая к углубленному анализу сайта, достаточно задаться вопросом: будет ли проставленная здесь ссылка представлять пользу для людей и возможны ли по ней переходы. Если ответ однозначно нет — дезавуируйте такие источники.

PBN-сети
Речь идет о сетках аффилированных сайтов, которые взаимно продвигают друг друга и часто служат базой для продажи ссылок низкого качества. Такие сетки рано или поздно обнаруживаются Google и обесцениваются. Ссылки из подобных источников – потенциально опасные.

Сайты запрещенных тематик
Бэклинки с сайтов онлайн-казино, адалт-тематики и других откровенно серых ниш веба, вряд ли естественным образом появятся в ссылочном профиле нормального сайта. Почти наверняка такие ссылочные сигналы являются атакой конкурентов, и они требуют оперативного отклонения в Disavow Tool.

Ссылки со сгенерированных страниц
Потенциально опасными донорами часто становятся сайты, поднятые на сгенерированном контенте или копипасте, заимствованном с ваших же страниц.

Ссылки с 404-страниц
При анализе ссылочного профиля могут попадаться страницы или целые домены, выдающие ошибку 404. В этом случае можно попытаться оценить рейтинг удаленных URL специальными анализаторами или посмотреть предыдущее содержание страниц в вебархиве, но лучше сразу отклонять такие ссылки.

Спам в комментариях и ветках форумов
Нерелевантные ссылки из комментариев и веток форумов, которые не размечены атрибутами rel=”ugc” или rel=”nofollow” в большинстве случаев также уместно дезавуировать.

Ссылки из скрытого контента и сайтов с клоакингом
Когда вы не можете найти на странице донора видимую ссылку (хотя знаете, что она есть) или попадаете на страницу с подмененным содержимым, это по умолчанию тревожный сигнал, который не говорит ни о чем другом, кроме как, о попытках манипуляции с выдачей.

Взломанные и заспамленные сайты
На ваш сайт могут ссылаться площадки с вредоносным содержимым. При переходе на такой ресурс, браузер будет выдавать предупреждение, информирующее об опасности. В руководствах Google нет никаких комментариев, насчет нежелательности обратных ссылок с таких ресурсов, но многие вебмастера предпочитают все же отклонять эти бэклинки. В качестве компромисса можно использовать временную блокировку.

Какие ссылки самые опасные?

Каждые типы ссылок представляют разный уровень угрозы. Так наиболее опасными являются анкорные бэклинки, в текстах которых присутствуют ключевые запросы или нерелевантный спам. Именно такие ссылки чаще всего используют для пессимизации конкурентов, поэтому отслеживание внешнего анкор-листа такая же важная задача, как и сам мониторинг доменов-доноров. Подробнее, что такое анкорные ссылки и как с ними правильно взаимодействовать – читайте в отдельной статье. Безанкорные бэклинки, которые составляют большую часть любого профиля, а также ссылки в формате изображений – менее вредоносные.

Как отслеживать нежелательные ссылки

Теперь, когда мы знаем, как отклонять ссылки и какие площадки-доноры представляют наибольшую опасность, на передний план выходит грамотный аудит. На практике регулярная проверка обратных ссылок должна стать неотъемлемой частью SEO для любых сайтов, и в первую очередь тех, что продвигаются в конкурентных нишах.

Проверка ссылочного профиля в Search Console

Информацию об общем количестве бэклинков и том, какие сайты ссылаются на вас можно получить в вебмастерке Google. Как ссылочный анализатор Search Console далека от идеала, но и ее возможностей обычно хватает для поверхностного аудита.

Нужная информация доступна в разделе «Ссылки» в левом меню консоли. Здесь нас интересует таблица «Страницы, на которые чаще всего ссылаются», именно в ней собрана основная информация по бэклинкам. Нажимаем «Дополнительно» – теперь мы увидим список страниц-реципиентов (на которые ведут внешние ссылки) ↓

Кликаем на URL и смотрим список всех доменов, ссылающихся на конкретную страницу нашего сайта ↓

Теперь можем щелкнуть по выбранному донору, и посмотреть, на каких именно страницах у него стоит наша обратная ссылка ↓

Этот отчет позволяет сложить общее представление, насколько силен ссылочный профиль вашего сайта. Но на практике, чтобы проводить эффективный аудит и правильно оценивать качество бэклинков, данных из одной только консоли оказывается недостаточно. Здесь нет информации о том, когда были созданы обратные ссылки, как они размечены (dofollow, nofollow и пр.), какой текст используется для анкоров (сведения по анкорам есть в другой таблице, но в весьма упрощенном виде). Также отметим, что в Search Console есть ограничения на выгрузку, и вы не сможете скачать полный отчет с большим количеством обратных ссылок. Таким образом, сама по себе информация из Search Console вряд ли может быть использована для оптимизации линк-профиля на относительно крупных сайтах – возникает необходимость в более продвинутых инструментах.

Быстрый мониторинг обратных ссылок в Ahrefs

Среди всех SEO-анализаторов, с расширенными функциями оценки доменов-доноров, пожалуй, самым прокачанным можно считать Ahrefs. Об этом инструменте, вероятно, слышал каждый сеошник, но далеко не все в курсе, что для собственных сайтов часть его опций является общедоступной. Для этого достаточно лишь привязать сайт к сервису. Бесплатного функционала Ahrefs обычно хватает, чтобы следить за ссылочным профилем своего проекта.

Для планового мониторинга будет достаточно трех базовых отчетов в Site Explorer.

1. Графики «Домены-доноры» + «Ссылающиеся страницы»

Эти два графика, доступные в Site Explorer на вкладке «Обзор», интересуют нас в первую очередь. Благодаря им можно контролировать общую динамику профиля и быстро фиксировать подозрительный прирост ссылок.

Общее количество уникальных доменов, ссылающихся на сайт


График уникальных страниц, ссылающихся на целевой URL

Резкий всплеск ссылок может быть следствием неправильного линкбилдинга, например, если этим занимается неквалифицированный специалист или сервис автоматического размещения. С не меньшей вероятностью к этому могут быть причастны недобросовестные конкуренты. А если добавить позитива: никто не исключает, что сорван джек-пот и ваш контент завирусился среди пользователей. Как бы там ни было, резкие скачки на этих двух графиках всегда требуют внимательного изучения деталей.

2. Анкоры

Список анкоров поможет быстро определить, являются ли ссылки переоптимизированными или нет. Для этого переходим на соответствующую вкладку и отфильтровываем вложения в столбце «Найдена впервые» (если нужно посмотреть последние изменения).

Анкор-лист с преобладанием брендовых названий, а также естественных для ссылок слов (тут, по ссылке, источник) – свидетельство того, что с профилем все в порядке и нет никаких тревожных сигналов для поисковиков.

Но ситуация может быть и обратной, такой как на примере ниже – это уже типичный кейс негативного SEO.

3. Распределение ссылающихся доменов по странам

Просмотр карты распределения доменов-доноров по странам также не будет лишним в рамках быстрого аудита ссылочного профиля. Региональность бэклинков в этом отчете определяется через национальный домен верхнего уровня (CTLDs). Когда значительная доля обратных ссылок ведет из нецелевого региона, такая динамика должна насторожить и подтолкнуть к более глубокому анализу профиля.

Если в этой тройке отчетов все более или менее естественно, можно не переживать о качестве ссылочного профиля и сосредоточиться на других аспектах оптимизации. Однако, когда что-то вызывает подозрения, не поленитесь уделить время более тщательному анализу.

Детальный анализ подозрительных бэклинков

Для более тщательного аудита переходим в Site Explorer на вкладку Ссылочный профиль Бэклинки, где доступен список всех обратных ссылок, обнаруженных Ahrefs. Стоит сказать, что сюда попадают не все существующие ссылки, однако индекс Ahrefs – очень информативный и достоверный источник, который подходит для подавляющего большинства задач. В исключительных случаях для получения максимально полной картины по обратным ссылкам стоит рассмотреть возможность дополнительного использования данных из Search Console.

Для последовательного и эффективного аудита, рекомендуем начать с анализа только dofollow-ссылок — по ним в полной мере передаются ссылочные сигналы и они всегда требуют наиболее пристального внимания. Для этого нажимаем dofollow на верхней панели. В дальнейшем таким же образом нужно проанализировать и nofollow-ссылки.

Для удобства сортируем ссылки в таблице по показателю DR (рейтинг домена) от низкого к высокому. Конечно, по одному только DR еще нельзя судить, является ссылка плохой или хорошей, но это весьма удобный способ первичной сортировки, который помогает работать с большим списком.

Теперь смотрим DR в связке с другими характеристиками, которые позволяют получить более полную картину о качестве обратных ссылок:

  •       наличие анкора и спамность используемых вхождений;
  •       общее количество бэклинков со ссылающейся страницы;
  •       название самого сайта и подозрительность доменной зоны.

Если что-то вызывает вопросы, прямо из таблицы переходим на страницу донора и внимательно изучаем ее содержимое. Впрочем, иногда даже не нужно переходить на сайт, так как все предельно очевидно.


Пример вредоносной ссылки, в которой есть все перечисленные атрибуты: низкий DR, подозрительные доменная зона и заголовок страницы, а также переоптимизированный анкорный текст.

Спамные ссылки от доноров с низким DR целесообразно отклонять вместе со всем доменом. Если у сайта есть хоть какой-нибудь траст, блокируйте ссылки на уровне URL. После того как вы определили все домены и URL, которые хотите отклонить, внесите их в txt-файл (требования форматирования см. выше) и загрузите этот документ в Google Disavow Tool.

Ссылки на источники
  1. https://www.youtube.com/watch?v=GTV47fyjm5Y&t=502s
  2. https://www.seroundtable.com/google-algorithms-disavow-files-24501.html

Сообщение Google Disavow Tool: как защитить сайт от вредоносных обратных ссылок. Практическое руководство по отклонению бэклинков появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>
Как Google изменяет тайтлы. Пересказываем результаты нового (и весьма убедительного) исследования https://scrapushka-nch.ru/blog/kak-google-izmenyaet-tajtly/ Sat, 04 Feb 2023 08:44:26 +0000 https://scrapushka-nch.ru/?p=12734 Сообщение Как Google изменяет тайтлы. Пересказываем результаты нового (и весьма убедительного) исследования появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

Волга впадает в Каспийское море, трава – зеленая, а любое SEO начинается с оптимизации Title. Есть факты, не нуждающиеся в каких-либо комментариях, и именно такой банальностью до недавнего времени была тема оптимизации метатегов. Но в середине 2021 года Google раскатал весьма неоднозначный апдейт, после которого все, что мы до этого знали про оптимизацию тайтлов, стало не таким понятным и очевидным. Продолжаем разбираться с последствиями т. н. тайтлапокалипсиса, опираясь на свежее и очень убедительное исследование Сайруса Шепарда.

Title как фактор ранжирования

Поисковые системы всегда использовали тайтлы для заголовков страниц в результатах выдачи, что делало эти теги важным фактором ранжирования. Хотя, если быть точным, это не совсем фактор, а в большей степени сигнал ранжирования. Сами по себе тайтлы играют довольно незначительную роль в общем алгоритме поиска. Но они первое, что видят пользователи в результатах выдачи, соответственно от их релевантности и информативности зависит кликабельность сниппета, количество посещений и не в последнюю очередь – процент возвратов на выдачу. Все это очень важно, и в конце концов, через поведенческие, замыкается на все тех же ключевых факторах ранжирования.

Хронология Title Tag Update

Google еще с 2012 года практикует внесение изменений, когда отображает Title в сниппете, хотя все это время правки были незначительными и несистемными: менялись, как правило, слишком длинные, нерелевантные или откровенно переспамленные заголовки. Базовые же правила оптимизации этих метатегов долгое время оставались неизменными. Но в августе 2021 года многие SEO-специалисты начали замечать, что Google стал более агрессивно переписывать заголовки в сниппете, подтягивать их туда из других HTML-источников и в целом переделывать их даже в тех случаях, когда этого объективно не требовалось.

Вскоре представители Google официально подтвердили1, что обновили алгоритм формирования заголовков в сниппетах. Апдейт сразу затронул множество сайтов как в бурже, так и в рунете, при этом качество автоматических правок часто оставалось недостаточно хорошим. Все это вызвало волну негодования среди вебмастеров, а сам Title Tag Update вполне заслуженно получил неформальное название тайтлапокалипсис. Под шквалом критики в Google пошли на попятный и внесли правки2 в работу алгоритма, но полностью отказываться от него не стали.

Вам также может быть интересно:
Метатеги и заголовки — разбор популярных ошибок

В каких случаях происходит замена Title. Что говорит Google и какова ситуация на самом деле

В своих официальных комментариях Google как всегда немногословен. Учитывая, что основная цель апдейта – борьба с малоинформативными, нерелевантными и переспамленными заголовками, полной или фрагментарной замене подвергаются в первую очередь следующие категории Title:

  • пустые или частично заполненные тайтлы;
  • заголовки, с указанием неактуального года;
  • нерелевантные тайтлы, идущие вразрез с содержанием страницы;
  • конструкции, переспамленные ключевыми словами;
  • шаблонные заголовки, в которых много повторяющихся фрагментов;
  • чрезмерно длинные и слишком короткие тайтлы.

Отдельно отметим, что если раньше Google менял заголовок сниппета в зависимости от исходного поискового запроса (Яндекс делает так до сих пор), то после апдейта от этой корреляции отказались. Нынешний алгоритм использует только один неизменный заголовок (сгенерированный или прописанный по умолчанию), который максимально емко и информативно отражает содержимое страницы. Таким образом, тайтл в сниппете остается статичным вне зависимости от формулировки запроса, вводимого пользователем.

Что происходит на самом деле

Аргументы Google в пользу замены тайтлов выглядят вполне здраво, но на практике поисковик часто вносит изменения в заголовки даже в тех случаях, когда в этом нет объективной необходимости. Правки, добавленные в работу алгоритма, несколько улучшили ситуацию, но логика поисковика все еще очень часто остается непредсказуемой. По понятным причинам это сильно раздражает вебмастеров, потративших время и силы на кропотливую проработку своих заголовков.

В среде оптимизаторов с самого начала пытались понять, какие факторы реально влияют на такое поведение Google. Наиболее заметной аналитикой на эту тему стало исследование Moz3, в котором по горячим следам были подробно проанализированы основные сценарии автозамены заголовков. Независимое исследование на эту же тему недавно провел4 и Сайрус Шепард (в сеошных кругах этот человек не нуждается в представлении). Вместе с командой Zyppy он проанализировал 80 959 тайтлов на 2370 сайтах со всего мира и сравнил исходные заголовки страниц с результатами поиска десктопной выдачи. Итоги этой работы определенно заслуживают внимания. Здесь не только представлена более актуальная статистика по Title Tag Update, но и в цифрах разобраны дополнительные факторы автозамены, ускользнувшие из поля зрения предыдущих исследований, и о которых ничего не сообщает Google.

Как часто переписываются заголовки

Коротко: намного чаще, чем официально заявляет. По данным последнего исследования — в 61,6% случаев.

В своем комментарии2 Google утверждает, что, прислушавшись к отзывам, появившимся после первой раскатки Title Tag Update, он сохраняет исходный тайтл страниц в 87% случаев. То есть, если верить этим данным, поисковик сейчас переделывает только 13% заголовков, а изначально этот показатель был порядка 20%. Но эти числа слабо согласуются с реальными наблюдениями на выдаче и результатами всех независимых исследований. В частности, данные Zyppy говорят, что Google переписывает 61,6% заголовков, и эти цифры более-менее созвучны с результатами предыдущих исследований.

Сразу стоит отметить, что многие из этих изменений незначительны, но 61% — это все же очень массовая тенденция. Если Google переделывает такое количество заголовков, очевидно, он считает, что делает это лучше, чем вебмастера. И здесь полезно понять логику действий поисковика. В своем исследовании Шепард сосредотачивается на нескольких наиболее распространенных причинах, приводящим к автозамене заголовков, которые еще не были должным образом изучены. Речь идет о таких факторах, как длина тайтлов, использование разных видов скобок и текстовых разделителей; отдельно уделено внимание взаимосвязи Title и H1.

Как количество символов влияет на изменения заголовков

Коротко: Google переписывает как слишком короткие, так и чрезмерно длинные тайтлы. Золотая середина – 51-60 символов.

Во время исследования все 80 959 заголовков были проанализированы по количеству символов, чтобы определить, как длина тайтлов влияет на то, будут они переписаны или нет. Результаты этой корреляции отображены на графике. Как видно, Google одинаково сильно не нравятся как очень короткие, так и чрезмерно длинные заголовки – их он переписывает более чем в 95% случаев.

Влияние длины заголовков на процент переписываний

Ультракороткие односложные заголовки (до 5 символов) были изменены в 96,6% случаев, как правило, путем добавления большего количества информации, взятой из других тегов HTML-разметки или текста на странице. В целом, все короткие заголовки длиной до 20 символов переписывались более чем в 50% случаев.

Чрезмерно длинные заголовки, которые на практике встречаются намного чаще, также не в почете у алгоритмов. Тайтлы, содержащие более 70 символов, переписывались в невероятных 99% случаев. Здесь отдельно сделаем акцент на том, что если раньше длинные тайтлы в сниппете просто обрезались (с добавлением многоточий или же без них), то после Title Tag Update они стали именно переделываться. Google, как правило, сохраняет наиболее важную и релевантную информацию, но саму формулировку заголовка он меняет.

Оптимальная длина для тайтлов – 51-60 символов. Как видно на графике, такой диапазон значений снижает вероятность внесения изменений. По крайней мере, в представленной выборке у тайтлов такой длины был самый низкий процент переписываний, от 39 до 42%. Количество символов, вероятно, важный фактор, на основе которого алгоритмы принимают решение о необходимости изменений, но он далеко не единственный.

Как Google реагирует на разные виды скобок

Коротко: квадратные и круглые скобки в тайтле Google воспринимает как неравнозначные знаки. Квадратные скобки он удаляет чаще, причем вместе с текстом; а вот круглые – ему нравятся больше, и даже при удалении самих скобок их содержимое обычно остается.

Вы наверняка видели в результатах выдачи, что многие оптимизаторы любят использовать квадратные или круглые скобки в своих заголовках, например, так:

Это, пожалуй, самый простой способ выделиться среди однотипно отформатированных сниппетов и сделать небольшой акцент на важных посылах в своих заголовках. Круглые и квадратные скобки могут показаться равнозначными знаками, но результаты исследования говорят, что это не так. Для Google эта разница принципиальна – поисковик по-разному обрабатывает как сами скобки, так и их содержимое.

[   ] Опираясь на данные исследования, можно сделать вывод, что квадратные скобки алгоритмам нравятся меньше: Google переписывал 77,6% заголовков, содержащих такие знаки. Более того, в 32,9% случаев он полностью удалял части текста заключенные в квадратные скобки.

(   ) С круглыми скобками дела обстоят получше. Google переписывал эти тайтлы только в 61,9% случаев — почти так же, как и все остальные заголовки, а текст в круглых скобках удалялся лишь в 19.7% случаев.

Таким образом, если вы хотите минимизировать вероятность изменения своих заголовков, от любых скобок лучше отказаться вовсе. Когда они все же нужны, целесообразно использовать круглые варианты, поскольку Google с меньшей вероятностью удалит как сами скобки, так и их содержимое.

Как разделительные знаки влияют на перезапись тайтла

Коротко: заголовки с использованием тире в меньшей степени подвержены перезаписи; тайтлы с вертикальной чертой Google заменяет в два раза чаще.

Отдельное внимание в исследовании уделено разделителям – знакам пунктуации, при помощи которых тайтлы обычно делят на смысловые части. Два наиболее часто используемых разделителя – это тире, в его различных вариациях (короткое, среднее, длинное) и вертикальная черта «|». Как и скобки, разные виды разделителей не являются для Google равнозначными знаками. По крайней мере к таким выводам можно прийти, опираясь на данные исследования.

Заголовки, в которых использовалось тире, Google переделывал, полностью удаляя разделитель, в 19,7% случаев. Для сравнения, тайтлы с вертикальной чертой Google заменял в 41,0% случаев, т. е. фактически вносил изменения в два раза чаще. О том, что тире для Google является более привычным, свидетельствует и тот факт, что часто он просто менял другие разделители именно на дефис. В целом, нельзя сказать, что использование вертикальной черты как-то повредит заголовкам, но если вы ищите формат тайтла, наименее подверженный перезаписи, старайтесь ставить именно тире.

Как «стабилизировать» Title с помощью H1

Коротко: если вы хотите существенно снизить вероятность, что Title будет переписан, делайте его похожим на внутристраничный заголовок H1.

Как уже упоминалось ранее, при перезаписи заголовков, Google часто подтягивает фрагменты текста из других источников, и главным из них традиционно остается H1. Во время исследования был сделан вывод, что грамотное использование H1 может помочь ограничить количество перезаписей Title. В частности, довольно четко прослеживается тенденция, что создание одинаковых заголовков H1 и Title значительно снижает вероятность автозамены сниппета на выдаче.

С одной стороны, такая практика противоречит общепринятому SEO-принципу, согласно которому Title и H1 лучше делать отличными друг от друга. С другой стороны, не стоит забывать, что это лишь рекомендация, и ей всегда можно пренебречь, если в приоритете «стабильность» заголовка в сниппете. К слову, вовсе не обязательно делать полные дубли по схеме Title=H1. Частичное сопоставление H1 с тегом Title также кажется эффективной стратегией, чтобы снизить вероятность автозамены сниппета. По крайней мере, об этом говорят наблюдения Сайруса Шепарда. Например, когда в тайтле были прописаны цифры, но их не указывали в H1, такие сниппеты Google переделывал в 25,8% случаев (цифры при этом удалялись). Эта же логика работала и в обратном направлении: если H1 содержал число, но его не было в Title, Гугл почти всегда (97,3% случаев) подтягивал цифры в заголовок сниппета. Это весьма убедительно иллюстрирует сильную корреляцию между Title и H1.

Ссылки на источники
  1. https://developers.google.com/search/blog/2021/08/update-to-generating-page-titles
  2. https://developers.google.com/search/blog/2021/09/more-info-about-titles
  3. https://moz.com/blog/ways-google-rewrites-title-tags
  4. https://zyppy.com/blog/google-title-rewrite-study/

Сообщение Как Google изменяет тайтлы. Пересказываем результаты нового (и весьма убедительного) исследования появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>
Управление индексированием в Google Search Console — обзор всех возможностей https://scrapushka-nch.ru/blog/indeksirovanie-v-google-search-console/ Mon, 31 Jan 2022 08:49:01 +0000 https://scrapushka-nch.ru/?p=12692 Сообщение Управление индексированием в Google Search Console — обзор всех возможностей появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

Search Console — основной опорный инструмент для продвижения сайтов в Google (и не только). По функциональности консоль может уступать некоторым более продвинутым SEO-инструментам, но у нее есть три ключевых преимущества: она бесплатная, интуитивно понятная и самое важное – предоставляет данные прямо от Google. Через GSC, не опираясь на гипотезы, можно узнать, как алгоритмы оценивают ваш сайт, при этом все  рекомендации по улучшению технической части вебмастер получает напрямую от первого лица, т. е. Google. И в этом плане Search Console вряд ли когда-нибудь превзойдет какой-либо коммерческий SEO-инструмент.

Используя функциональность одной лишь консоли, можно выполнить базовую поисковую оптимизацию сайта, что особенно удобно для проектов с небольшим бюджетом и тех, кто продвигает свои проекты самостоятельно. В одной из предыдущих статей мы говорили о возможностях GSC при работе с поисковыми запросами, подробно разобрав:

  • как проанализировать запросы, по которым сайт получает трафик, и узнать их позиции;
  • как точечно исследовать ключи, по которым ранжируются конкретные страницы, и отслеживать показатели их эффективности;
  • как использовать данные из GSC на практике, для расширения присутствия в выдаче (поиск упущенной семантики, доработка потенциально сильных ключей и т. д.).

Работа с запросами, безусловно, важна для эффективного продвижения сайта в поиске, но семантика – далеко не все, на чем держится успех в SEO. Прежде чем страницы начнут ранжироваться по релевантным запросам, они должны быть правильно просканированы и проиндексированы поисковыми роботами. Это очень важный процесс, и здесь Google Search Console является самым надежным информатором и техническим помощником. В вебмастерке всегда можно узнать, какие из документов были проиндексированы, а какие нет, когда совершался последний обход сайта, на каких страницах есть проблемы и как их лучше всего устранить по мнению Google. Об этих и других функциях индексирования в GSC – рассказываем в представленном материале.

Отслеживаем индексацию страниц и исправляем ошибки

Индексирование – это процесс, во время которого поисковые боты Google (краулеры) последовательно посещают все страницы сайта и сканируют их содержимое. Если просканированные документы соответствуют требованиям Google о качестве сайтов, они попадают в индекс поисковой системы и начинают отображаться в результатах поиска. В некоторых случаях краулеры могут совершать обходы и добавлять страницы в индекс, даже если сайт закрыт от индексации (подробнее об этом – ниже).

Первое, что смотрят при проведении любого SEO-аудита, — получает ли Google доступ ко всем страницам, которые следует отображать в поиске. Вся нужная информация на этот счет доступна в разделе «Покрытие». Здесь можно посмотреть URL всех страниц, которые попали в поисковый индекс, а также другие документы, например, PDF-файлы, ранжирующиеся в поиске.

Есть много причин, по которым обход Google может быть заблокирован на определенных страницах. Иногда это происходит случайно, иногда проблемы возникают после проведения технических работ или передаются в наследство от предыдущих SEO-подрядчиков. Такие ошибки являются критичными: недоступные для индексирования страницы будут простаивать, не принося поискового трафика и делая ваши усилия по SEO бесполезными. Данные из раздела «Покрытие» позволяют своевременно обнаруживать и исправлять подобного рода недоработки.

Чтобы проверить, имеются ли на сайте проблемы с индексацией, откройте Google Search Console и перейдите на вкладку Индекс → Покрытие – здесь будет доступен статус всех страниц сайта.

В первую очередь обратите внимание на разделы «Ошибка» и «Без ошибок, есть предупреждения», чтобы выяснить, что не так с указанными страницами и как устранить имеющиеся проблемы.

Ошибки. Типичные проблемы и как их исправить

В отчет об ошибках в GSC попадают все страницы, которые НЕ удалось проиндексировать поисковым роботам Google. Как правило, это происходит, поскольку конкретные URL-адреса имеют ограничения доступа или же потому, что их больше не существует. Такие проблемы являются критичными, и их следует решать в первую очередь.

Под графиком в разделе «Сведения» система уведомляет, какая именно проблема с индексированием присутствует на сайте, например:

Вы можете кликнуть на каждую ошибку, чтобы перейти на вкладку с расширенным списком всех затронутых URL-адресов. Здесь можно посмотреть детали по каждому URL в отдельности и проверить конкретный адрес на предмет текущего статуса индексации и других проблем.

Теперь поговорим о наиболее распространенных ошибках индексации и том, как их лучше всего исправить.

URL-адреса недоступны для индексирования 

Эта группа ошибок возникает, когда Google дают указание проиндексировать конкретный URL-адрес, но сама страница по каким-то причинам недоступна для обхода поисковыми роботами. Вот наиболее типичный пример такой ситуации:

Первое, что нужно проверить в этом случае: действительно ли вы хотите, чтобы страница отображалась в поиске. Если речь идет о URL, который не должен индексироваться – такие страницы есть на любом сайте и о них можно почитать здесь – тогда нужно отозвать свой запрос на обход, чтобы Google прекратил безуспешные попытки отправить страницу в индекс. Наиболее вероятная причина подобных ошибок заключается в том, что нежелательный URL-адрес по недосмотру был добавлен в карту сайта. В этом случае необходимо просто отредактировать файл Sitemap.xml, удалив из него проблемный URL-адрес (подробнее об этом – ниже).

Если же вы хотите, чтобы страница с красным уведомлением, отображалась в поиске, необходимо разобраться, почему ей отказано в индексировании и устранить ошибку. Как правило, это происходит по следующим причинам:

Неиндексируемая страница закрыта директивой noindex. Решение: удалить тег noindex из HTML-кода или из заголовка ответа HTTP X-Robots-Tag.

Страница запрещена к индексированию в robots.txt. Решение: проверить файл robots.txt специальным инструментом Google, после чего удалить или изменить все ненужные запрещающие директивы и исправить найденные ошибки.

При обращении к URL возникает ошибка 404. Подобное происходит, когда страница удалена или изменен ее изначальный URL-адрес. Решение: восстановить исходный URL или настроить 301-редирект на новую версию страницы.

URL возвращает ложную ошибку (soft 404). Такое происходит, когда страница физически существует (сервер помечает ее статусом OK), но Google решил, что URL имеет статус 404 (страница не найдена). Как правило, это происходит при отсутствии контента на странице (или его незначительности), а также из-за манипуляций с редиректами, когда внутренняя переадресация ведется на тематически НЕблизкую страницу. Решение: проверить страницу на предмет «тонкого» контента или нерелевантных редиректов.

URL возвращает ошибку 401 (неавторизованный запрос). Это значит, что робот Google не может получить доступ к нужной странице из-за запрашиваемой авторизации. Решение: отменить требование авторизации либо разрешить Googlebot доступ к странице.

URL возвращает ошибку 403. Googlebot выполняет вход на сервер, но ему не предоставлен доступ к контенту. Решение: если вы хотите, чтобы страница попала в индекс, откройте к ней доступ анонимным посетителям.

После того как найдены и исправлены причины, препятствующие индексации, страницу отправляют на переобход с помощью инструмента проверки URL-адресов (подробнее об этом — немного ниже).

Наличие ошибок переадресации

Иногда нужная страница не может быть проиндексирована по причине некорректно работающего редиректа. Выше мы уже описали, как это происходит в случае с перенаправлением на нерелевантную страницу (ошибка soft 404), но на практике существуют и другие ошибки переадресации. Страница может не попадать в индекс по причине слишком длинной связки перенаправлений, из-за циклических редиректов или битых URL в цепочке переадресаций.

Решение: проверьте URL на предмет некорректно работающих 301- или 302-редиректов и примите меры по их отладке.

Подробнее по теме:
FAQ по 301-редиректу. Как перенаправления соотносятся с SEO: настройка, отслеживание проблем, сценарии использования редиректов

Проблемы на стороне хостера

Ошибка 5xx возникает, когда поисковым роботам Google не удается получить доступ к серверу. Возможно, сервер вышел из строя, истекло время ожидания или он был недоступен, когда Googlebot проводил обход сайта (скорее всего, причина именно  в этом).
Решение: проверьте URL с помощью инструмента «Проверка URL-адреса», отображается ли ошибка в настоящее время. Если сервер в порядке, отправьте страницу на переобход, в противном случае внимательно ознакомьтесь с тем, что предлагает Google для решения этой проблемы  или свяжитесь со своим хостинг-провайдером.

Без ошибок, есть предупреждения

Если Google проиндексировал содержимое сайта, но до конца не уверен, что это было необходимо, то консоль пометит эти страницы как действительные с предупреждением, и они будут выглядеть вот так:

С точки зрения SEO страницы с такими предупреждениями могут принести даже больше проблем, чем ошибки, поскольку в поиск в этом случае часто попадают документы, которые владелец сайта не хотел делать общедоступными. Поэтому все URL, попавшие в желтую категорию, требуют особенно пристального внимания со стороны вебмастера.

Проиндексировано, несмотря на блокировку в файле robots.txt

Это, пожалуй, самая распространенная причина, по которой страницы сайта попадают в желтую категорию проблем индексирования. Многие, как правило, еще неопытные вебмастера и SEO-специалисты ошибочно полагают, что robots.txt — это правильный механизм для сокрытия страниц от попадания в индекс Google. Это не так. Добавление директив в служебный файл robots.txt полностью не запрещает индексирование указанных URL. Вебмастера используют этот способ в основном, чтобы избежать лишних запросов со стороны краулеров и не перегружать сайт.

Чтобы гарантированно исключить попадание нежелательных страниц в индекс, используют другие механизмы: добавление noindex в HTML-код страницы или настройку HTTP-заголовка X-Robots-Tag. Запреты в robots.txt поисковик же расценивает исключительно  как рекомендации: он не будет сканировать страницу, отклоненную в роботс, во время обхода сайта, но эта же страница может быть проиндексирована, если на нее ведут другие ссылки. Отсюда следует один очень важный момент: из-за запрета в robots.txt, страницы могут попадать в индекс в неполной версии, поскольку поисковые роботы смогли просканировать лишь отдельные фрагменты «закрытого» документа.

Как решить такую проблему? В первую очередь следует внимательно изучить все «желтые» URL и определиться, нужно ли блокировать конкретную страницу или нет. Если вы уверены, что странице не место в индексе – ограничиваем к ней доступ поисковых ботов с помощью noindex или X-Robots-Tag. От страниц, не представляющих ценности ни для пользователей, ни для поисковых лучше избавиться вовсе. Как правильно удалять страницы из индекса Google и Яндекса без вреда для SEO – читайте в отдельной статье.

Страница проиндексирована без контента

Такое предупреждение означает, что страница проиндексирована, но по какой-то причине Google не смог распознать ее контент. Это определенно плохо для SEO и нередко служит предвестником ручных санкций. Проблема может возникнуть из-за преднамеренных манипуляций, когда вебмастера используют разные методы клоакинга (маскировки и подмены содержимого), или когда формат страницы не распознается Google. Отдельно отметим, что такие ошибки не связаны с блокировкой доступа в robots.txt, о чем говорилось выше на примере частичного индексирования страниц.

Чтобы устранить эту проблему, необходимо внимательно ознакомиться со всеми рекомендациями в разделе «Покрытие» и внедрить предложенные правки. В некоторых случаях может потребоваться дополнительная проверка кода страницы, поскольку отчеты Search Console далеко не всегда способны обнаруживать недочеты, связанные с указанной проблемой. Более глубокий технический SEO-аудит, проведенный с использованием специальных программ, поможет обнаружить битые изображения или видео, повторяющиеся заголовки и метаописания, проблемы с локализацией и другие недочеты, из-за которых страницы могут индексироваться без контента.

Исключено

Google Search Console также уведомляет о страницах, которые не попали в индекс, но присутствуют на сайте. Эта информация отображается в красном блоке «Исключено».

Большинство страниц попадает сюда, по указанию вебмастера и это не связано с техническими проблемами. Например, такое происходит когда:

  • обход страниц запрещен через noindex или X-Robots-Tag;
  • прописаны запрещающие директивы в файле robots.txt;
  •     страница является неканонической, т. е. дублем, правильно размеченным атрибутом rel=«canonical».

Но иногда попадание страниц в блок «Исключено» может свидетельствовать о наличии технических проблем или недоработок, например:

  • страница не проиндексирована из-за неавторизованного запроса (ошибка 401), переноса в другое место или удаления (404), запрета доступа (403), ложной ошибки (soft 404);
  • присутствие на странице некорректно настроенного редиректа;
  •     страница является дублем, без указания канонического URL.
  • Google выбрал канонический вариант страницы не таким, как его указал вебмастер (соответственно, из индекса вылетели важные URL).

Таким образом, отслеживая все, что попадает в блок «Исключено», можно получать сигналы о недоработках в техническом SEO и своевременно устранять недочеты. Отдельно отметим, что сюда иногда залетают и полностью «здоровые» страницы, например, те, что были просканированы, но пока не попали в индекс. Отправлять на принудительную переиндексацию такие URL не нужно.

Ускоряем индексирование приоритетных страниц

Принудительный переобход позволяет страницам попадать в индекс значительно быстрее. В этом случае не нужно ждать, пока краулеры найдут и просканируют документ в плановом порядке. Таким образом, страница сможет быстрее появляться в результатах поиска и вся SEO-стратегия будет реализовываться без лишних простоев. В дополнение к этому, привычка отправлять только что опубликованные материалы на переобход, поможет уменьшить риски при воровстве или копипасте вашего контента. Подробнее на эту тему – читайте здесь.

Делайте запрос на переиндексацию каждый раз после публикации новой страницы или существенного обновления старого контента. Для этого нужно ввести исходный адрес в верхнее поле поиска Google Search Console и нажать Enter. Через несколько секунд система предоставит информацию о текущем статусе URL, после нужно нажать «Запросить индексирование».

Инструмент быстро просканирует страницу на предмет проблем, и при отсутствии таковых добавит URL в очередь на приоритетный обход. Запрос на ускоренную индексацию или переобход большого количества страниц делают через отправку файла Sitemap (об этом – в следующем пункте).

Об успешном попадании страницы в индекс сообщит такое уведомление. Оно будет доступно не сразу. На практике переобход документа может занять от нескольких минут до нескольких дней, но в любом случае это будет быстрее, чем если бы происходила органическая индексация. Не стоит пытаться подгонять поисковых ботов Google: множественные запросы на сканирование одного и того же URL никак не повлияют на скорость переобхода.

Оптимизируем индексацию с помощью Sitemap

Карта сайта — это специальный файл (sitemap.xml), который размещают в корневой папке, чтобы помочь поисковым роботам Google лучше ориентироваться в структуре ресурса. В хml-файле содержится перечень всех URL сайта с информацией об их последнем обновлении и указанием, какие из страниц нужно сканировать в первую очередь. Таким образом хml-карта упрощает краулерам поиск URL для индексирования, выступая в роли вспомогательной навигации по сайту.

Файл sitemap.xml можно создать одним из нескольких способов:

  • Написать вручную, в соответствии с правилами синтаксиса (сегодня почти никто так уже не делает).
  • Сгенерировать автоматически при помощи специальных программ или онлайн-сервисов.
  • Воспользоваться встроенным функционалом некоторых CMS (например, такая опция предусмотрена в Битрикс).
  • Сгенерировать и настроить XML-карту при помощи WP-плагинов (эта опция доступна в двух популярных SEO-плагинах: All in One SEO и Yoast).

Два последних способа являются самыми популярными, главным образом потому, что позволяют полностью автоматизировать процесс обновления sitemap; другими словами, вам не придется вносить изменения в карту сайта, каждый раз, когда будет добавляться новая страница.

Чтобы передать созданную карту сайта в Search Console и/или проверить ее на наличие ошибок, достаточно перейти в раздел «Файлы Sitemap», ввести путь доступа к xml-файлу и нажать «Отправить».

В плане технических требований файл Sitemap должен:

  • соответствовать правилам синтаксиса (ошибки в файле можно проверить специальными валидаторами);
  • иметь размер, не превышающий 50 МБ;
  • содержать не более 50 000 URL-адресов, а если количество URL на сайте превышает указанный лимит, необходимо добавить несколько файлов sitemap.xml.

Без Sitemap содержимое сайта все равно будет попадать в индекс. В этом случае Google станет самостоятельно сканировать URL и проверять их на наличие обновлений, но он будет делать это так часто и в такой приоритетности URL, как посчитает нужным. Очевидно, что это не лучшим образом отразится на скорости индексирования важных страниц. В то же время возлагать на sitemap большие ожидания тоже не стоит. Карта сайта – это в первую очередь рекомендация, которую поисковик может брать во внимание, а может и не учитывать.

Так ли важна карта сайта?

С учетом всего вышесказанного может возникнуть вопрос: нужна ли вообще карта сайта? Ответ однозначный: да нужна. Хотя Google утверждает, что относительно небольшим сайтам (до 500 страниц) можно пренебречь Sitemap, этого лучше не делать. В первую очередь потому что любой молодой проект по умолчанию имеет слабый ссылочный профиль, а этот фактор важен в том числе и для краулеров. Поэтому, если на сайт ведет мало ссылок, его сложнее найти – отсюда проблемы с органической индексацией.

Во время сканирования роботы Google переходят во все важные разделы ресурса, следуя по ссылкам с главной страницы, поэтому логичная и оптимизированная структура сайта – залог успешной органической индексации. Но идеальной структурой способны похвастаться далеко не все сайты. Разделы могут иметь нелогичную иерархию или же вовсе оказаться не связанными друг с другом. Если не перечислить такие URL в файле Sitemap, успешность их самостоятельного сканирования — под большим вопросом.

Отдельно отметим, что на многих сайтах есть проблемы с перелинковкой. Внутренняя система ссылок может быть не проработанной по естественным причинам, когда просто не хватает страниц для линкования, или же являться не оптимизированной из-за банального непонимания ее важности. Это также вносит свою лепту в плохое качество органической индексации, и является еще одним аргументом в пользу Sitemap.

Для каких сайтов Sitemap является обязательным

Для некоторых проектов значимость карты сайтов не вызывает сомнений, в первую очередь это:

  • Ресурсы, у которых много страниц (500+ URL).
  • Сайты с большим архивом документов, иерархически не связанных друг с другом.
  • Крупные сайты с логичной, но сложноорганизованной структурой.
  • Площадки с большой долей мультимедийного контента (видео/изображения).
  • Часто обновляемые ресурсы (магазины, новостники и т. д.).

Для указанной категории сайтов Sitemap является не только инструментом оптимизации индексирования, но и дополнительным источником информации о потенциальных проблемах. Чтобы обнаруживать возможные недочеты, связанные с индексированием, сканированием или дублированием контента, сравнивайте количество страниц, отправленных через файл Sitemap, с фактическим числом URL, проиндексированных в поиске Google.

Отслеживаем индексирование AMP-страниц

Если на сайте внедрена технология быстрых AMP-страниц, в Search Console будет доступен специальный отчет для мониторинга их эффективности. В этом разделе можно посмотреть, какие AMP-страницы попали в индекс, а также узнать текущие ошибки, из-за которых ускоренные версии отображаются в поиске Google как обычные.

Структура отчета здесь в целом такая же, как и для стандартных страниц на вкладке «Покрытие». Вверху на графике показано общее количество URL с ошибками, предупреждениями и без ошибок.

Уведомления об ошибках являются наиболее важными, и на них нужно обращать внимание в первую очередь. Все «красные» оповещения сгруппированы по типу проблем. Кликнув по той или иной строке внизу отчета, будут доступны расширенные сведения о конкретной ошибке, а также рекомендуемые способы ее устранения. В этом отчете консоль уведомляет не только о стандартных ошибках индексации, но и специфических проблемах, присущих исключительно AMP-страницам (с их полным перечнем можно ознакомиться здесь).

Ошибки на AMP-страницах часто носят массовый характер. Поэтому в первую очередь имеет смысл устранять проблемы, которые встречаются на множестве страниц, а затем фиксить единичные неполадки. В целом GSC выстраивает уведомления об ошибках в порядке приоритетности, и именно в такой последовательности их лучше исправлять. Внеся технические правки, рекомендуемые системой, нужно сообщить о принятых мерах и отправить AMP-страницу на переобход.

Предупреждения – это не ошибки. Они носят характер рекомендации и не препятствуют индексированию ускоренной версии URL. Однако следует знать, что АMP-страницам из желтого блока могут быть недоступны определенные опции на выдаче, например, они не попадают в некоторые колдунщики, а отображаются простым сниппетом.

Для своевременного обнаружения проблем с индексацией, следите за тем, чтобы фактическое число созданных AMP-страниц на сайте сильно не отличалось от суммарного количества URL из всех трех блоков в отчете.

Сообщение Управление индексированием в Google Search Console — обзор всех возможностей появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>
Как узнать запросы, по которым страницы получают трафик https://scrapushka-nch.ru/blog/kak-proverit-zaprosy-stranitsy/ Sun, 26 Dec 2021 17:40:17 +0000 https://scrapushka-nch.ru/?p=12644 Сообщение Как узнать запросы, по которым страницы получают трафик появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

Понимание того, по каким ключевым словам конкретные страницы отображаются в поиске и приносят органический трафик – один из базовых моментов в работе над продвижением сайта.  В вебмастерках и штатных системах поисковой аналитики нет отчетов, в которых такая информация доступна по умолчанию в готовом виде. Чтобы узнать ее, нужно внести незначительные изменения в базовые конфигурации отчетов. На самом деле в этом нет ничего сложно. Мы расскажем, как при помощи стандартных инструментов проверять поисковые запросы, по которым ранжируются конкретные страницы сайта, и как использовать эти сведения на практике, для эффективного продвижения своих проектов. 

Зачем анализировать ключи, по которым ранжируется собственный сайт

Для начала – коротко о том, зачем вообще владельцам сайтов отслеживать основные запросы своих страниц.

Общий анализ эффективности

Самым убедительным показателем эффективности сайта принято считать объем поискового трафика — от него в наибольшей степени зависят процент конверсий, клики по рекламе и другие аспекты, определяющие доходность. При этом органический трафик — это не что иное, как переходы из поиска по определенным ключевым словам. Таким образом, владелец сайта должен знать свои самые важные поисковые фразы и отслеживать их динамику, т. е.  знать, по каким запросам сайт удерживает топ, а по каким —  проседает в выдаче или перестает ранжироваться вовсе.

Отдельно отметим, что на объем поискового трафика влияет множество факторов. В этой ситуации проверка позиций по самым важным запросам (для конкретного сайта) становится лучшим способом выяснить, какие из страниц являются эффективными, а какие — проблемными, и какова причина такой ситуации. Именно отслеживание позиций является основным средством мониторинга качества SEO для подавляющей части оптимизаторов. 

Актуализация контента и улучшение структуры сайта

Если понимать, по каким поисковым запросам ранжируется конкретная страница, можно наметить эффективные пути ее улучшения. Например, часто имеет смысл убрать со страницы слова и фразы, не ранжирующиеся в поиске, и вместо них использовать новые ключи, которые более релевантны хорошо работающему кластеру запросов. Удаленной семантике, в расширенном и доработанном виде, всегда найдется место на новых посадочных страницах.

Такой подход к расширению структуры сайта является наиболее грамотным с точки зрения SEO. Он позволяет минимизировать вероятность каннибализации ключевых слов, когда разные страницы сайта оказываются оптимизированными под одни и те же запросы, из-за чего один из документов перестает ранжироваться в поиске.

Нередко бывает так, что по определенному ключевому слову в поиске отображается не самая подходящая страница сайта. Особенно часто такое случается на площадках коммерческой направленности, например, где предлагается множество разных услуг. В таких случаях имеет смысл доработать содержание страницы, чтобы она в большей степени соответствовала интенту поискового запроса.

Естественно, это лишь часть сценариев, когда понимание актуальной ситуации по ключевым словам играет решающую роль для эффективной SEO-оптимизации сайта. На практике к этой информации приходится обращаться очень часто. Тем более что все данные, касающиеся поисковых запросов, непостоянны и нуждаются в периодической актуализации.

Отдельно отметим, что в Google и Яндексе страницы, как правило, ранжируются по разным запросам, и иногда эта разница может быть очень существенной. Поэтому, если ваш сайт получает органический трафик сразу из двух поисковых систем, эффективные запросы страниц целесообразно снимать для каждой из ПС отдельно. Теперь о том, как это делать штатными инструментами поисковиков.

Как узнать поисковые запросы страницы в Яндекс.Метрике

В Яндекс.Метрике есть специальный отчет «Поисковые запросы», в котором можно посмотреть, по каким ключам сайт получает органический трафик. В исходном виде в отчете доступны все поисковые фразы, по которым ранжируется сайт [1]. Рядом указаны базовые метрики [2], благодаря им можно сразу узнать, какие запросы дают наибольшее количество переходов, насколько трафик по конкретным ключам эффективен в плане поведенческих (отказы/глубина/время на сайте) и т. д. Блок с метриками можно настраивать под разные задачи, для этого достаточно нажать на соответствующую кнопку [3] и добавить/убрать вывод нужных параметров.


Источники → Поисковые запросы

Чтобы детализировать информацию и изучить поисковые фразы по конкретной странице, необходимо перенастроить отчет. Сделать это можно двумя способами: через сегментирование или добавление соответствующей группировки.

Способ 1. Открываем базовый отчет «Поисковые запросы» и выбираем период, за который мы хотим получить информацию. В нашем случае лучше, если это будет срез за относительно продолжительный период, например, месяц и более.

Теперь выделяем сегмент с адресом нужной нам страницы. Для этого нажимаем на плюсик рядом с «Визиты, в которых» и выбираем условие Поведение → Страница входа. В открывшемся окне вводим полный URL-адрес нужной страницы и нажимаем применить.

Теперь в таблице с метриками будут отображаться поисковые  фразы, по которым был трафик на указанную страницу. Отдельно отметим, что сюда подтягиваются только те запросы, по которым было не менее 10 переходов на сайт за указанный период. Таким образом, если установить относительно небольшой временной срез – возникнут сложности с получением достоверной статистики по низкочастотным запросам.

Способ 2. Посмотреть запросы по конкретной странице также можно через отчет «Страницы входа». Для этого аналогичным образом выбираем относительно продолжительный период и внизу добавляем нужную нам группировку: Источники → Поиск → Поисковая фраза.


Содержание → Страницы входа

Переключаем отображение данных в формат древовидного списка. Теперь по клику на плюсик напротив каждой страницы, будет разворачиваться перечень поисковых запросов, по которым URL собирал органический трафик из Яндекса. Для быстрого поиска конкретной страницы можно использовать стандартную комбинацию Ctrl+F. 

Этот способ больше подходит для тех ситуаций, когда нужно работать с большим количеством страниц и анализировать запросы на каждой из них.

Больше о том, как использовать Яндекс.Метрику для продвижения сайтов – читайте в серии наших материалов:

  Отчеты Яндекс.Метрики для SEO-специалиста

 «Источники, сводка» — разбираем возможности самого важного отчета

Внутренние переходы в Яндекс.Метрике. Как работать с самым непонятным источником трафика

Как постранично проверить запросы в Google Search Console

Когда нужно проанализировать запросы, по которым страницы получают переходы из Google, используют возможности Search Console. Нужная информация здесь доступна на вкладке «Эффективность» → «Результаты поиска». Перейдя в этот раздел, первым делом нужно убедиться, что установлен правильный тип поиска (Веб) и оптимальный диапазон дат (данные по запросам здесь также желательно снимать за относительно продолжительный период).

Как и в случае с Метрикой, в исходном виде отчет не предлагает постраничную сводку по запросам. По умолчанию здесь собраны все ключевые слова, по которым ресурс отображается в поиске Google. Чтобы расширить информативность отчета, рекомендуем сразу поставить галочки напротив «Средний CTR» и «Средняя позиция» – теперь соответствующие метрики отобразятся не только на графике, но и напротив каждого запроса.

При переключении на вкладку «страницы», консоль отображает все URL-адреса сайта, которые ранжируются в поиске. Выбираем из списка интересующий нас URL, кликаем по нему и переключаемся обратно на вкладку запросы – теперь Search Console покажет все поисковые запросы, через которые пользователи находят выбранную страницу. Это и есть список ключей, по которым поиск ранжирует страницу – и с ним мы будем дальше работать.

                                                                                  ↓

                                                                                  ↓

Перейти к списку запросов конкретной страницы можно и другим, более быстрым способом. Для этого используют фильтр вверху отчета. Нажимаем на «+ Новый» → Страница → вводим URL → применить.

В отчете отображен перечень всех слов и фраз, по которым страница показывалась в поиске – как правило, это очень большой список, и с ним нужно дополнительно поработать. Перечень фраз можно отсортировать по конкретным показателям, например, кликнув на метрику «позиция» – запросы выстроятся от наиболее эффективных к наименее полезным; таким же образом можно быстро отсортировать топ ключей по конкретной странице.

При этом намного больше возможностей для анализа запросов дает дополнительная фильтрация. Например, в один клик здесь можно быстро выделить популярные ключи, которые не просто занимают топовую позицию, но и имеют «прокачанные» CTR, показы и большое количество переходов (клики). Как правило, именно эти запросы являются опорными для мониторинга эффективности страниц (проверки позиций).

Дополнительно для каждой метрики можно устанавливать тонкие критерии фильтрации, задавая параметры в указанном диапазоне значений. Например, через такое условие можно быстро отсортировать все запросы, которые ранжируются ниже третьей позиции:

Аналогичным образом решают и другие точечные задачи веб-аналитики. Например, с помощью фильтрации легко узнать, по каким поисковым запросам сайт отображается на низких позициях в выдаче, но при этом получает стабильную долю кликов. Это значит, что такие ключи эффективны для сайта, но в настоящее время конкуренты значительно опережают вас в поисковой выдаче. Если принять необходимые меры по оптимизации страниц с такими перспективными запросами, есть неплохой шанс усилить их позиции и значительно увеличить долю поискового трафика.

Здесь мы описали лишь часть тех возможностей, которые предоставляет гугловская консоль при работе с ключами. Больше о том, как комплексно анализировать позиции сайта в Google Search Console – читайте в отдельной статье.

Как снять запросы страницы через Google Analytics

Список запросов, по которым ранжируется конкретная страница, также можно посмотреть в Google Analytics. Чтобы воспользоваться этой опцией, для начала сервис нужно связать с Search Console. Как это сделать – можно узнать в официальной справке.

После того как настроен обмен данными, переходим на вкладку «Источники трафика» Search Console   «Страницы входа». В левом верхнем углу выбираем период, за который будет подтягиваться статистика. Так же как и в консоли, для большей информативности лучше задавать относительно продолжительный период. Теперь опускаемся к списку всех страниц сайта и кликаем по нужному URL. Если страниц много – используйте поиск (искомый URL вводят в виде относительного адреса, т. е. без доменного имени – так как он отображается в таблице).

Все поисковые запросы, по которым страница собирает трафик из Google, будут отображены отдельным списком. Структура отчета аналогична данным из Search Console: здесь базово отображаются показы, клики, CTR и средняя позиция по каждому из запросов.

Основное отличие Google Analytics от Search Console заключается в том, что GA – это сервис статистики посетителей, который сфокусирован на поведении юзеров внутри сайта. Базовые метрики Google Analytics показывают, как пользователи взаимодействовали с ресурсом, в то время как Search Console больше сосредоточена на органическом поиске – ее метрики и отчеты предоставляют информацию, которая помогает повысить видимость сайта в поисковой выдаче и таким образом увеличить количество трафика.

Сообщение Как узнать запросы, по которым страницы получают трафик появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>
Как использовать метки (теги), чтобы не навредить SEO https://scrapushka-nch.ru/blog/kak-ispolzovat-metki/ Mon, 20 Dec 2021 11:51:56 +0000 https://scrapushka-nch.ru/?p=12626 Сообщение Как использовать метки (теги), чтобы не навредить SEO появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

Внутренняя организация сайта имеет решающее значение для SEO. По мере того как сайт расширяется, одной из важных задач становится сохранение логичности и удобства его структуры. Многое в этом вопросе зависит от того, насколько архитектура ресурса была грамотно спланирована изначально. В то же время сохранение адекватной структуры оказывается не такой уж простой задачей, особенно когда речь идет о контентных проектах, с большим количеством страниц. Для этих целей предусмотрены различные вспомогательные средства организации контента. Таковыми, например, являются рубрики и метки.

Метки или как их еще часто называют теги (не путать с метатегами, которые являются важной seo-составляющей HTML-кода) — самые простые навигационные элементы в структуре сайта, и несмотря на свою кажущуюся незначительность, они способны помочь в упорядочивании контента. Но с метками не все так просто. Их нелогичное и бесконтрольное использование может не только ударить по юзабилити (качеству навигации и поведенческим), но и напрямую привести к проблемам с ранжированием, которые имеют свойство долгое время оставаться незамеченными.

В этом материале – говорим о метках с точки зрения SEO: разбираем преимущества и потенциальные риски, к которым может привести бездумное использование этих элементов на сайте. Дополнительно поговорим о практических аспектах использования тегов: как их правильно выбирать, оптимизировать и актуализировать по мере роста сайта.

Что такое метки и чем они отличаются от рубрик?

Метки или теги (очень редко их также называют ярлыками) – это вспомогательные элементы внутренней навигации, которые используют для тематической группировки страниц на сайте.

Каждая контентная страница, будь то пост в блоге, карточка товара и т. д., могут содержать определенный набор таких тематических тегов. Щелкнув по одному из них, пользователь попадет на отдельную страницу-хаб, где собраны похожие материалы (с таким же тегом).

Например, так могут выглядеть метки в блоге:

На инфосайтах метки обычно используют как дополнительный поиск похожих статей по ключевым словам

А вот так теги могут выглядеть в карточках товаров eCommerce-сайтов:

Интернет-магазины часто используют теги для группировки товаров по узким признакам

Что происходит на сайте при добавлении тегов?

На техническом уровне метка – это сгенерированный документ. Каждый раз, когда на сайте добавляют отдельный тег, происходит генерирование новой страницы, на которую в дальнейшем будут группироваться материалы с соответствующей меткой. Забегая вперед, отметим, что для поисковиков содержание таких страниц может показаться малополезным, именно поэтому бесконтрольное тегирование нередко влечет проблемы с ранжированием.

Чем метки отличаются от рубрик?

Рубрики и метки – два основных способа группировки контента для сайтов на движке WordPress. Логика их работы и назначение в целом похожи, но есть принципиальное отличие. Если не вдаваться в детали, рубрики – более общий метод группировки материалов, в то время как метки – предельно конкретный элемент категоризации. Метки используют там, где возникает необходимость в дополнительной, более точной группировке контента, не такой обширной, как в рубриках. Если еще проще, рубрики – это про условный поиск по темам, в то время как метки – это в первую очередь про навигацию по ключевым словам.

В отличие от базовых элементов структуры – категорий и подкатегорий – метки считаются необязательной составляющей архитектуры сайта. Также они не являются иерархическими элементами. Другими словами, у них нет связи с родительскими категориями и дочерними подкатегориями. К слову, рубрики в WordPress, в отличие от меток, также могут иметь иерархию. Каждая теговая страница является 100% автономным объектом в структуре сайта. Это отражается на ее независимости в плане семантики: здесь нет необходимости в соблюдении древовидной иерархии, с подъемом от НЧ-запросов к СЧ- или ВЧ-запросам. В дополнение к этому URL-адреса страниц, на которых группируются метки, отличаются большей гибкостью – и их можно свободно видоизменять без жесткой привязки к иерархическому синтаксису.

Таким образом, по своему назначению теги имеют достаточно много общего с рубриками, категориями и подкатегориями. Главным образом их также используют для группировки контента и быстрого поиска необходимых материалов. Но эта схожесть только внешняя. Метки все же нельзя сравнивать с полноценными составляющими навигации сайта, особенно, когда речь идет о SEO.

Преимущества от использования меток

Улучшение навигации

Мы уже выяснили, что теги выполняют четкую навигационную функцию: они систематизируют контент на сайте и помогают посетителям быстрее находить нужные материалы. В отличие от рубрик, которые предназначены для широкой тематической группировки содержимого, использование тегов – отличный способ провести более тонкую организацию контента и предельно точно попасть в интересы пользователя. Например, если человек прочитал статью, велика вероятность, что его заинтересуют и другие материалы на сайте – и здесь очень важно предложить ему быструю и максимально понятную навигацию. Теги, которые благодаря коротким ключевым словам предельно точно нацелены на интересы пользователя, являются идеальным решением.

Оптимизация поведенческих факторов

Грамотно отлаженная навигация улучшает пользовательский опыт при взаимодействии с сайтом – люди могут эффективнее перемещаться по страницам и просматривать большее количество материалов. Таким образом, наличие грамотно организованных навигационных меток положительно отражается на ключевых поведенческих метриках: глубине просмотров, времени на сайте и пр. Поисковые алгоритмы принимают к сведению этот факт, и предоставляют сайту определенные преимущества в ранжировании. Таким образом, здесь мы уже начинаем говорить об опосредованном влиянии меток на SEO.

Дополнительный трафик по низкочастотным запросам

Сами по себе теги лишь косвенно влияют на SEO (через оптимизацию навигации и поведенческих факторов). Прямой корреляции здесь нет. Другими словами, если вы просто разметите статьи тегами с ключевыми фразами, это никак не повлияет на ранжирование документов. Тем не менее, если подходить к оптимизации со знанием дела, то метки могут помочь в привлечении органического трафика из Google и Яндекса.

В этом случае речь идет не об отдельно взятых тегах, а о сгенерированных страницах, на которых группируются метки. Их также называют теговыми или хабовыми страницами. Если минимально доработать такой документ, оптимизировать его под релевантный низкочастотный запрос и сделать доступным для индексирования, есть вероятность, что он начнет собирать трафик из поиска.

Похожую механику оптимизации обычно используют при продвижении интернет-магазинов, когда создают отдельные теговые страницы (псевдокатегории) под товары, объединенные по узким признакам, например: «короткие платья красного цвета», «желтые блузки с длинным рукавом» и т. д.

Читайте по теме:
Создание тегированных страниц, или как небольшим магазинам выбороть свое место в выдаче?

Как метки могут навредить поисковой оптимизации

Метки – полезный инструмент, который систематизирует контент на сайте (без увеличения вложенности страниц) и помогает пользователям находить то, что им нужно, а поисковикам – лучше понимать содержание сайта. Но этот эффект работает и в обратную сторону. Поэтому бездумное нагромождение тегов способно негативно влиять на пользовательский опыт и, в конечном итоге, не лучшим образом сказываться на SEO.

Мы уже знаем, что каждая добавляемая метка влечет генерацию новой посадочной страницы в структуре сайта. Таким образом, маркировка материалов бессвязными тегами приводит лишь к тому, что на сайте появляется массив бесполезных страниц. Типичный пример подобного UX-тупика: пользователь доскроливает статью, хочет почитать связанный контент по теме, нажимает на метку  – и оказывается на странице, где ему предлагают одну-единственную статью, которую он только что смотрел. Подобное происходит на большинстве контентных проектов, и это не нравится не только людям, которые взаимодействуют с сайтом, но и поисковым системам.

Для роботов, совершающих обход сайта, такие страницы выглядят подозрительными: по сути – это пустой документ с одной или несколькими внутренними ссылками (по которым нет никакой активности). В западном SEO это называется «тонким контентом», в то время как у нас прижился термин мусорные страницы. Поисковые системы такого не любят, из-за чего сайты с большим количеством «тонкого контента» не получают хорошего ранжирования.

Таким образом, если вы используете слишком много бессвязных тегов, это может навредить не только пользовательскому опыту (UX), но и поисковому рейтингу всего сайта. Конечно, теговые страницы всегда можно закрыть от индексации и исключить их влияние на SEO, но тогда возникает вопрос: зачем вообще их создавать, если они не представляют никакой ценности, ни для пользователей, ни для поисковиков.

Дополнительно отметим и то, что загромождение сайта бесполезными страницами может приводить к нерациональному расходу краулингового бюджета. Речь идет о лимитах на количество документов, которые поисковые роботы могут просканировать за один обход сайта. Таким образом, тратя лимиты на обработку «мусора», важные страницы могут долгое время не попадать в поисковый индекс. Эта проблема актуальна главным образом для активно обновляемых сайтов с большим количеством страниц, например, крупных интернет-магазинов, а также тех площадок, которые используют автоматическое генерирование тегов.

Непродуманное использование тегов также может привести к проблемам с дублированием контента и вылетом из индекса важных страниц, особенно если на сайте есть метки, которые пересекаются с названиями разделов и подразделов.

Как избежать SEO-проблем, связанных с метками

Мы попытались собрать все самые важные практические рекомендации по работе с тегами, которые помогут сделать их оптимизированными для SEO и удобными для пользователей.

Главный совет: если вы не готовы уделять время меткам каждый раз, когда добавляете новую страницу на сайте – откажитесь от них вовсе. Вопреки расхожему мнению, это необязательный атрибут, и, как мы выяснили, без должного внимания к проработке теги приносят несопоставимо больше проблем, чем пользы. 

Не создавайте теги в большом количестве. Правило хорошего UX-тона — использование не более 5-6 меток для одной публикации. Если их будет одна или две – это тоже абсолютно нормально, главное, чтоб они были релевантные и связывали исходную страницу хотя бы с двумя-тремя другими публикациями. При этом общее соотношение тегов к опубликованному контенту должно быть где-то 1:3. К примеру, если на сайте 90 публикаций, суммарное количество тегов не должно превышать 30.

Откажитесь от любых форм автогенерации тегов. Полезные и релевантные метки – это всегда результат пусть и несложной, но вдумчивой ручной работы. Автоматизация данного процесса обычно приводит только к появлению мусора в структуре сайта и нагромождению меток, которые не соответствуют смыслу страницы. Когда пользователь видит абсурдные облака тегов, состоящие из слов «потому», «зеленый», «которые» и т. п. – это сразу формирует соответствующее представление о качестве сайта.

Избегайте использования меток, которые дублируют или очень похожи на названия категорий/подкатегорий. Это может запутать поисковые системы и привести к проблемам с ранжированием.

 ✓ Не стоит брать названия тегов, что называется, с потолка. Это должны быть хорошо продуманные слова или фразы, которые ищут люди. Другими словами, речь идет о ключах, по которым есть частотность. В идеале структуру тегов лучше разрабатывать с оглядкой на имеющееся семантическое ядро сайта.

При создании меток, думайте о них, как о ключевых словах, которые описывают конкретные детали контента на странице. Это поможет создать хорошо организованную иерархию для всего сайта, в которой категории отвечают за широкую группировку контента, рубрики – конкретизируют темы, а метки выполняют функции точечной навигации.

Не нужно использовать теги, которые не связывают текущую страницу/публикацию с каким-либо другим контентом на сайте. Каждый раз, когда вы создаете в админке новый тег и уж тем более рубрику, не ленитесь поискать уже опубликованный контент, в котором добавленная метка также будет уместной. Чтобы сделать это максимально быстро, используйте операторы расширенного поиска Google.

Например, мы создали метку wordpress и хотим добавить ее к уже опубликованным статьям в блоге. Ищем подходящие варианты на выдаче через такой поисковый запрос:

Оператор site: ограничивает результаты поиска нужным сайтом, а оператор intitle: ищет страницы с указанным ключевым словом в тайтле.

Таким образом, мы быстро нашли статью, в которой метка wordpress будет на 100% уместной:

Если метка состоит из двух и более слов, подходящие заголовки ищут через оператор allintitle:

Оператор allintitle: находит страницы с определенной фразой (!) в заголовке

Аналогичным образом можно искать контент, в котором упоминаются нужные слова. Для этого используют операторы intext: (ищет страницы, по конкретным словам) или allintext: (ищет страницы по указанным фразам).

Google нашел более 40 внутренних страниц, на которых упоминается слово wordpress – это потенциальные кандидаты для проставления соответствующей метки

Привычка добавлять новые метки в старые статьи, позволит на 100% раскрыть потенциал этих навигационных элементов. По клику на тег, пользователь будет попадать не на унылую страницу, с одной-двумя статьями, а в полноценную псевдокатегорию, с подборкой релевантных материалов.

Закрывать ли страницы с тегами от индексации?

Это во многом зависит от того, как вы организовали структуру сайта, какую тему WordPress используете и какой стратегии продвижения придерживаетесь. В большинстве случаев страницы-хабы, на которых сгруппированы метки, принято закрывать от индексирования поисковыми системами. Как это сделать разными способами – можно почитать здесь. Также упомянем про наличие специальных плагинов, которые существенно упрощают эту задачу. Например, такая опция предусмотрена в базовом функционале плагина Yoast SEO.

Если же вы организовали грамотную структуру тегов и хотите превратить страницы, на которых сгруппирован размеченный контент, в дополнительные точки входа на сайт – закрывать такие документы от обхода, конечно же, не стоит. Также бывают случаи, когда хабы с тегами начинают сами по себе давать долю поискового  трафика. Проверить это можно, если внимательно проанализировать страницы входа.

В этом случае первым делом нужно удостовериться, что такое ранжирование не идет во вред основному контенту, например, что теговая страница не потеснила из индекса категорию или подкатегорию. Как вариант, можно протестировать сценарий расширенной оптимизации страниц-хабов, например, дополнить их более подробным описанием, прописать заголовки и пр. Другими словами, довести теговые страницы до уровня своеобразных псевдокатегорий.

Сообщение Как использовать метки (теги), чтобы не навредить SEO появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>
Что такое интент поискового запроса? Практическое SEO-руководство для начинающих https://scrapushka-nch.ru/blog/intent-poiskovyh-zaprosov/ Mon, 13 Dec 2021 18:17:02 +0000 https://scrapushka-nch.ru/?p=12608 Сообщение Что такое интент поискового запроса? Практическое SEO-руководство для начинающих появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

Почему по запросу «суши» вся первая страница Google занята предложениями о доставке, а по запросу «пироги» выдаются только рецепты. Хотя, казалось бы, если не вдаваться в детали, и то и другое в целом-то довольно близкие понятия. А какой будет структура топа выдачи по запросу «бургер» – интуитивно ответить уже не так-то просто (спойлер: там все еще сложнее). Дело в том, что во всех трех случаях поисковик по-разному понимает интент поискового запроса, и в соответствии с ним формирует результаты выдачи.

О том, что такое поисковый интент и как его правильно использовать в стратегиях SEO-продвижения – рассказываем в нашем материале.

Что такое поисковый интент и почему его так важно учитывать в SEO?

Интент поискового запроса – это намерение, которое вкладывает пользователь в свой запрос. Это своего рода цель поиска или, если угодно, его мотив. Google и Яндекс постоянно учатся определять эти самые намерения (что именно хочет пользователь, вбивая запрос), чтобы предложить наиболее релевантные результаты выдачи. Следовательно, чтобы рассчитывать на топ выдачи по тем или иным ключевым словам, контент на странице должен соответствовать поисковому намерению.

Все это может звучать довольно абстрактно, но на деле напрямую определяет эффективность стратегии продвижения в поиске. Если вернуться к нашему упрощенному примеру с суши и пирогами, то очевидно, что для продвижения запроса «лучшие пироги» целесообразно делать информационный контент: рецепты, подборки, рейтинг пирогов из мировой кухни и пр. Аналогичным образом не имеет смысла пытаться попасть в топ по запросу «суши» с информационным контентом. Google и Яндекс знают, что пользователи хотят видеть по конкретным запросам, и это нужно учитывать при работе с семантикой и в контент-планировании. Здесь можно повторить избитую истину: релевантность – основа успеха в SEO.

Отдельно отметим, что Google и Яндекс могут по-разному интерпретировать интент одного и того же пользовательского запроса. Поэтому семантику обычно прорабатывают под каждую из поисковых систем. В некоторых случаях, когда Google и Яндекс по-разному интерпретируют суть запроса, приходится расставлять приоритеты и определяться, под логику какой из ПС оптимизировать свои страницы.

Четыре типа поискового интента

Многие привыкли делить интент на коммерческий и информационный. Такой подход хоть и работает, но на деле является весьма топорным. В современной SEO-практике обычно прибегают к другой, более гибкой классификации. Так, отталкиваясь от целей пользователей, которые взаимодействуют с поиском, принято выделять четыре типа интента для поисковых запросов.

Информационный интент

По запросам с таким интентом пользователь просто ищет информацию, без привязки к конкретному действию. Поскольку поиск информации продолжает оставаться основной функцией интернета, доля запросов с таким интентом самая большая: по общим прикидкам она составляет порядка 2/3 от всех обращений к Google и Яндексу.

Большая часть поисковых фраз, ориентированных на информационный интент, содержит слова: как, кто, что, почему, где, когда и могут заканчиваться вопросительным знаком. Здесь, как нам кажется, все более или менее понятно: когда человек не хочет ничего покупать, а ему нужно получить информацию – это информационный интент.

Однако не всегда все лежит на поверхности. Информационные намерения не обязательно могут формулироваться в виде вопроса. Вышеупомянутый пример с запросом «суши» очень показательный: информационный по форме, он является коммерческим по своей сути. Все потому, что, обработав огромный массив данных, поисковые алгоритмы пришли к выводу, что большинство пользователей, которые вводили запрос суши, были заинтересованы именно в заказе или доставке.

Коммерческий интент (подготовка к конверсии)

Если говорить о намерении, здесь речь еще не идет о покупке или заказе, другими словами, о конверсии. Пользователь вкладывает в запрос такой интент, когда ищет продукт или услугу, но еще не принял окончательного решения, какой именно вариант ему подходит, и находится на стадии обдумывания.

Разница между запросами с таким интентом и классическими информационниками часто весьма размыта. Вот типичные примеры запросов с коммерческим интентом:

  • «лучшие вакуумные блютус наушники»;
  • «бюджетные смартфоны на 108 Мп»;
  • «отзывы на Fujifilm Instax Mini»;
  • «какое авто лучше выбрать для семьи» и т. п.

Даже в тех запросах, которые являются сугубо информационными по своей сути, интуитивно улавливается потенциально конверсионное намерение. Человек, который ищет такие запросы, вероятнее всего, обдумывает варианты будущей покупки, и его будут интересовать обзоры, сравнения, отзывы по поводу того или иного продукта/услуги.

Транзакционный интент (совершение конверсии)

Это намерение определившегося пользователя, который хочет совершить покупку или выполнить другое конверсионное действие, например, установить приложение. Вероятнее всего, человек уже четко понимает, что именно хочет приобрести и ищет, где это лучше всего сделать. Запрос с транзакционным интернетом может выглядеть, например, так: «купить Xiaomi 11T Pro», «iron maiden забронировать билет», «суши с бесплатной доставкой» и т. д.

Отдельно отметим, что в случае с транзакционным интентом речь может идти не только о коммерческих намерениях, а, например, о загрузке файла или просмотре фильма онлайн. Хотя в абсолютном большинстве случаев, когда говорят о транзакционных запросах, подразумевают именно конверсионные действия.

Навигационный интент

Навигационное намерение поиска определяется наличием брендового запроса. В этом случае пользователь ищет конкретный сайт или название компании. Цели такого визита могут быть разными: как коммерческими, так и информационными. Например, если кто-то вводит запрос netflix, очевидно, что это информационный поиск, и пользователь наверняка ищет главную страницу Netflix. А если взять запрос «iphone 12 amazon», то несложно догадаться о коммерческом мотиве этой поисковой фразы: пользователь ищет конкретный товар, и, вероятно, уже решил, где будет его покупать.

Об интентах локального поиска

К четырем основным типам поисковых намерений также принято добавлять еще один — интент локального поиска. Иногда его выделяют в самостоятельный вид, но чаще рассматривают как подтип коммерчески ориентированных интентов. Здесь речь идет прежде всего о геозависымых запросах, в которых пользователи уточняют город, район или просто свое местоположение.

Читайте по теме:
Локальное SEO. Как продвигаться в региональной выдаче

Как использовать поисковый интент на практике

Разобравшись с основными типами интента, может возникнуть вопрос, зачем вообще это нужно. Оптимизатору всегда важно понимать, какое намерение стоит за поисковыми запросами, с которым он работает. Это поможет определиться со следующими очень важными аспектами оптимизации:

  • как правильно группировать семантику;
  • на какой тип страниц ее пристраивать (коммерческие/информационные);
  • какой формат контента лучше использовать (пошаговые инструкции, статьи-подборки, сравнения и т.д.).

Особенно важны последние два момента — поисковый интент запроса должен определять тип используемых посадочных страниц и их содержание. На первый взгляд, здесь все кажется интуитивно понятным. Например, статьи в блоге – это оптимальный формат контента для запросов с информационным интентом. В то время как карточки товаров и страницы разделов – подходящее место для семантики с конверсионным намерением. Тем не менее работая с разными запросами, иногда все это оказывается не таким очевидным, и чтобы посадить семантику на правильные страницы, нужно углубиться в логику ранжирования и проанализировать результаты поиска более подробно.

Как определять интент поисковых запросов

Цель поиска не всегда очевидна из формулировки запроса, поэтому здесь сложно полагаться на одну только интуицию. Выше мы уже приводили примеры, как Big data может идти вразрез со стандартной логикой. Интент поискового запроса всегда нуждается в проверке — это является отправной точкой при работе с семантикой.

Автоматические способы проверки интента 

Под рунет

Большинство оптимизаторов наверняка интересует вопрос, как проверять интент запросов автоматически. На этот счет, скорее, плохие новости: на 100% рабочего тулза для автоматизации подобной задачи пока не существует (по крайней мере, под обработку русскоязычных запросов). Насколько мы в курсе, наиболее близко к этому приблизился сервис Пиксель Тулс. Его инструмент «Комплексная оценка запросов» умеет определять интент конкретного запроса через степень его коммерциализации. Другими словами, он показывает процент коммерческих сайтов в выдаче по конкретному ключевому слову.

Дополнительно инструмент умеет показывать степень локализации выдачи, т. е. процент региональных площадок в поиске по нужному запросу, что помогает навскидку определить интент локального поиска.

Подробная раскладка по типам сайтов в выдаче, также вносит свою долю ясности: очевидно, что если по ключевому слову преобладают агрегаторы, интернет-магазины, бизнесы и организации, то речь идет о коммерческой направленности анализируемого запроса. Наконец, указание слов, задающих тематику, также может быть полезным для тех, кто сфокусирован на определении интента ключевого слова.

Использование этого инструмента вполне оправдано, если вы постоянно работаете с большим объемом русскоязычной семантики. Хотя когда речь идет о проработке самых важных запросов, их интент всегда лучше перепроверять вручную, вводя запрос в поисковик и оценивая специфику результатов на выдаче.

А вот к тому, как этот инструмент обрабатывает англоязычные запросы, пока остается немало вопросов.

Под бурж

Среди SEO-инструментов для англоязычного поиска есть более показательные примеры, у которых анализ интента является уже не побочной функцией, а одной из основных. Сразу скажем, у нас не было цели сделать исчерпывающую подборку SEO-софта для подобных задач, просто для наглядности рассмотрим возможности одного из них. Например, панель инструментов сервиса SISTRIX содержит раздел, который полностью ориентирован на анализ интента ключевых слов.

Четыре блока показывают интент поисковых запросов, по которым ранжируется конкретный сайт. Это помогает понять, какое поисковое намерение является преобладающим для ключевых слов всего домена. Аналогичным образом можно провести более точечный анализ: проверить запросы отдельных разделов сайта или страницы.

Типы интента здесь несколько отличаются от той классификации, которую мы предложили выше, но основная суть остается более-менее такой же: Intent:Know (информационный), Intent:Do (коммерческий/транзакционный), Intent:Website (навигационный), Intent:Visit (интент локального поиска).

Дополнительно инструмент умеет анализировать интент отдельных ключевых слов. Указав конкретную фразу, система определит, какой вид поискового намерения в большей или меньшей степени присущ этому запросу, и наглядно отобразит данные в виде столбчатых диаграмм.

Полуавтоматические способы проверки интента

К частично автоматизированным методам проверки интента, как правило, относят разного рода схемы, основанные на обработке слов-маркеров. Под последними понимают отдельные вхождения в запросах, которые могут указывать на определенный тип поискового намерения. Например, слова купить, цена, стоимость, недорого, дешево, заказ, доставка и т. д., явно отражают коммерческое намерение. Равно как и вопросительные формулировки, начинающиеся с  зачем, сколько, почему, что такое, как подчеркивают информационный характер запроса.

Вот несколько примеров часто встречаемых маркеров, которые обычно указывают на определенный тип поискового интента:

Информационный: что | какой | как | сколько | кто | где | куда | почему | зачем | отчего | руководство | инструкция | гайд | идеи | совет | пример и др.

Коммерческий (подготовка к конверсии): лучший | топ | обзор | отзывы | сравнение и др.

Транзакционный (конверсионный): купить | цена | стоимость | стоит | недорого | дешево | заказ | доставка | оплата и др.

Навигационный: название домена, бренда, продукта/услуги, имя руководителя и др.

Опираясь на эти слова-идентификаторы, точнее понимают характер поискового интента того или иного запроса. Все собранные ключи, содержащие конкретные слова-маркеры, можно быстро выделить в отдельные списки, отсортировав их при помощи дополнительных инструментов. Также эти слова помогают напрямую при сборе семантики. Например, в Вордстате их можно использовать следующим образом.

1. Чтобы собрать только коммерческие запросы по интересующей теме, водим основной ВЧ запрос и при помощи операторов конкретизируем условия поиска. В нашем случае в круглых скобках через вертикальную черту перечисляем уточняющие коммерческие слова.

2. Аналогичным образом можно собрать только информационные запросы. Для этого в связке с основным ключом по той же схеме прописывают уже другие идентификаторы.

Можно пойти обратным путем, и исключить из условий поиска коммерческие слова-маркеры, таким образом – получим сводку только по информационным ключам, в которых фигурируют пластиковые окна.

Читайте по теме:
Яндекс.Вордстат: обзор возможностей. Для маркетологов и SEO-оптимизаторов

Слова-маркеры удобны для поверхностного определения интента и быстрой сортировки семантики, но далеко не всегда они являются точным идентификатором. Во-первых, перечень коммерческих или информационных уточняющих слов намного больше, чем тот список, который мы дали выше. Во-вторых, как мы уже убедились, критерии поисковиков часто идут вразрез со стандартной логикой. Здесь можно в который раз вспомнить пример с суши: когда интуитивно информационный запрос полностью коммерциализирован.

Лучший ответ – в поисковой выдаче

Если вы хотите максимально точно определить интент того или запроса, нужно пойти на выдачу и посмотреть, какие результаты отображаются по искомой фразе на первой странице поиска. Возможно, это не очень удобно, особенно когда нужно работать с большим объемом семантики, но это наиболее эффективный способ понять логику поисковой машины.

Такой подход предполагает много ручной работы и его обычно используют только для самой важной семантики. Как это происходит на практике, думаем, понятно: необходимо ввести запрос в поиск, а затем последовательно проверить содержимое каждого сайта на первой странице выдачи. Исходя из этого делают вывод, страницам с каким интентом ПС отдает предпочтение по конкретному запросу.

Здесь самое время упомянуть, что многие поисковые фразы имеют смешанный интент, когда по запросу часть результатов условно коммерческая, а часть – информационная. В этом случае оптимизатору нужно принять решение, на какой интент делать ставку, другими словами – какие ключи собирать и какой формат контента использовать для посадочной страницы.

Отдельно отметим, что Google и Яндекс могут совершенно по-разному интерпретировать намерение поискового запроса. Соответственно, тем, кто получает трафик из обеих поисковых систем, нужно отдельно «пробивать» интент в каждой из ПС. Если по одной и той же фразе в топе Google и Яндексе выдаются разные типы страниц – нужно будет определиться с приоритетами и решить, по чьим правилам играть.

Вам также может быть интересно:
Отличия технической оптимизации под Google и Яндекс

Как могут помочь поисковые колдунщики

Помимо основных результатов поиска (сниппетов) на выдаче часто представлены разного рода колдунщики и вспомогательные блоки с информацией. И Google, и Яндекс имеют тенденцию отображать те или иные расширенные сниппеты в зависимости от намерения поиска. Например, блок с быстрыми ответами отображается в основном для информационных запросов, тогда как карусели с товарами выводятся для поисковых фраз с четким транзакционным намерением.

Таким образом, через дополнительные блоки можно быстро «зацепиться» за интент того или иного запроса. Вот приблизительное соответствие, как разные элементы на выдаче соотносятся с теми или иными поисковыми интентами в Google:

Информационное намерение: быстрый ответ, блок знаний, похожие запросы, блок с видео.

Коммерческое намерение: быстрый ответ, контекстная реклама, блок похожие запросы.

Транзакционное намерение: карусель с товарами, контекстная реклама.

Навигационное намерение: расширенный боковой сниппет с данными об организации.

Основываясь на этом принципе, можно частично автоматизировать определение поискового интента для разных запросов. Чтобы находить ключевые слова с определенными типами расширенных сниппетов, можно использовать Ahrefs Keywords Explorer. Например, если мы возьмем список ключей и отфильтруем его так, чтобы оставить только запросы, по которым в выдаче отображается карусель с товарами, очевидно, что большая часть из этих поисковых фраз будет иметь коммерческий или транзакционный интент.

Если бы мы искали ключевые слова с информационным намерением, можно было бы сосредоточиться на результатах, в которых на выдаче подтягивается верхний блок быстрых ответов.

Схема далеко не идеальная, как минимум потому, что существует большое количество запросов, которые ранжируются без каких-либо дополнительных элементов на выдаче. Тем не менее такой подход можно использовать как вспомогательную технику определения интента при работе с большим объемом семантики, конечно, если есть доступ к Ahrefs Keywords Explorer.

 

Фокус на поисковый интент принято считать одним из самых недооцененных факторов в SEO-оптимизации, в то время как грамотная работа в этом направлении может быстро давать заметную отдачу и ощутимый прирост по трафику. Помимо улучшения общей релевантности и попадания контента в топ по конкретным ключам, учет и раскрытие интента влияют на хорошие поведенческие, рост узнаваемости бренда и качество сайта в целом.

Сообщение Что такое интент поискового запроса? Практическое SEO-руководство для начинающих появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>
Внутренние переходы в Яндекс.Метрике. Как работать с самым непонятным источником трафика https://scrapushka-nch.ru/blog/vnutrennie-perehody-v-metrike/ Wed, 08 Dec 2021 18:34:53 +0000 https://scrapushka-nch.ru/?p=12591 Сообщение Внутренние переходы в Яндекс.Метрике. Как работать с самым непонятным источником трафика появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

Отслеживание эффективности сайта в Яндекс.Метрике чаще всего начинают с изучения отчета «Источники, сводка». Он является опорным для любого сеошника, маркетолога и просто владельца сайта – здесь собрана информация по всем каналам, которые дают суммарный объем трафика. Благодаря этим данным, можно узнать, откуда и в каком количестве люди приходят на сайт, проанализировать портрет ЦА по каждому каналу и в целом понять, как разные категории пользователей взаимодействовали со страницами. Подробнее обо всех возможностях этого незаменимого отчета – можно почитать здесь.

Что касается самих источников, здесь в целом все понятно: мы видим статистику по трафику из поиска, переходам по рекламе, визитам из социальных сетей и другим каналам. Данные можно сегментировать и добавлять нужные группировки. Самым непонятным из всего этого набора, пожалуй, является отчет источник «Внутренние переходы». Обычно к нему относятся очень формально или же вовсе не до конца понимают его назначение. Вместе с тем данные по этому источнику играют не последнюю роль в оценке эффективности ресурса, а в ряде случаев – могут свидетельствовать о неочевидных проблемах на сайте.

В этой статье будем говорить о том, откуда берутся внутренние переходы, о чем может свидетельствовать их аномальный рост: когда подобная динамика – это хорошо, а когда – не очень.

Просмотры и визиты. Как их рассчитывает Метрика

Для начала вкратце напомним, как Яндекс.Метрика формирует данные о посещаемости в своих отчетах. Здесь все упирается в два базовых понятия:

Просмотры – они засчитываются при загрузке пользователем каждой страницы сайта, т. е. один уникальный пользователь = множество просмотров.

Визиты – это совокупность просмотров в рамках одной пользовательской сессии, другими словами: один уникальный пользователь = один визит (спойлер: не всегда).

Когда речь идет об источниках трафика, привязку осуществляют именно к визитам. Кратко о том, как они обрабатываются. Визит засчитывается, когда юзер попадает на сайт и выполняет последовательность разных действий, т. е. совершает просмотры. В этом случае Метрика анализирует дополнительные параметры (utm-метки и рефереры), и благодаря им понимает, какой канал привел пользователя: будь то переход из поиска, соцсетей, клик по рекламе и т. д.

Как уже было сказано, визит – это совокупность просмотров, которых часто бывает несколько в рамках одной сессии. Но источник трафика в этом случае определяется на основе данных, полученных во время первого просмотра. Представим такой сценарий: пользователь приходит на сайт из поиска, бегло знакомится со статьей и закрывает вкладку. Затем, спустя 15 минут, возвращается на ту же страницу, но уже не из поиска, а, например, из закладок. Источником визита при таком сценарии все равно будет оставаться поисковая система, а не прямые заходы.

Сам визит оканчивается, когда страницу закрывают и не возвращаются к ней в течение получаса (30 минут – это тайм-аут, установленный по умолчанию, и его можно сделать больше или меньше в настройках Я.Метрики). А вот если посетитель покинет сайт, но вернется в течение стандартных 30 минут, новый визит засчитываться не будет.

Помимо этого, визит обнуляется, если в течение установленного тайм-аута на открытой в браузере странице не происходит никакой активности: никто не кликает по ссылкам, не скроллит документ и не совершает никаких других действий. Также визит сбрасывается и засчитывается как новый, когда во время сессии юзер переходит по ссылкам с UTM-метками.

Понимая, как Яндекс.Метрика рассчитывает визиты, можно более предметно говорить непосредственно о внутренних переходах.

Причины роста внутренних переходов

Засчитывание внутреннего перехода происходит, когда визит осуществляется не через внешний источник (из поиска, рекомендательной системы, через внешние ссылки и пр.), а со страницы самого сайта. Это может происходить по нескольким причинам.

Возобновление сессии на забытой вкладке

Это самая распространенная и наиболее естественная причина роста внутренних переходов. Если пользователь не закрывал вкладку браузера, но при этом никак не взаимодействовал со страницей и тайм-аут закончился, то при возобновлении активности, Метрика засчитает этот формально новый визит как внутренний переход. Такое бывает очень часто, достаточно чтоб у пользователя вкладка провисела неактивной в течение 30 минут, как мы уже говорили, именно столько установлен тайм-аут визита в Метрике по умолчанию.

Отсутствие/неработоспособность счетчика на одной из страниц

Переход со страницы, с неустановленным счетчиком Метрики, в другие разделы сайта будет учитываться как внутренний переход. Например, если пользователь попал из поиска на страницу example.com/page1, на которой некорректно работает счетчик, а потом перешел на example.com/page2 (другую страницу того же сайта) – второе действие будет учтено Метрикой как новый визит через внутренний переход.

Наличие внутреннего редиректа

Причиной роста внутренних переходов может быть активный редирект, который выполняется до загрузки скрипта счетчика Метрики. В этом случае перенаправление на другой URL-адрес того же сайта будет засчитан как отдельный визит, а его источником станет внутренний переход. Внешне такой редирект может быть незаметен, поскольку часто речь идет о перенаправлении на физически идентичную версию страницы, но с небольшими отличиями в параметрах URL. Например, адрес страницы может отличаться незначительными «хвостами» в виде меток, используемых для аналитики или других целей. Рост внутренних переходов в отчетах Метрики также может происходить из-за слетевших или неправильно настроенных плагинов редиректа. В этих случаях внутренним переходам свойственна резкая динамика, которую трудно не заметить на графике.

Защита от DDoS на стороне хостера

Абсолютное большинство сайтов разворачивают на внешних серверах. Известны случаи, когда хостеры из лучших побуждений подключали для своих абонентов защиту от DDoS-атак, которая выполняла редирект еще до перехода на сам сайт, из-за чего внешние визиты засчитывались Метрикой как внутренние.

Что делать с аномальным ростом внутренних переходов

Умеренная доля внутренних переходов в статистике Метрики – это абсолютно нормально. Всегда есть часть пользователей, которая работает с множеством открытых вкладок, из-за чего часто возвращаются к взаимодействию с сайтом после большого перерыва. Такая модель поведения особенно характерна, например, для новостных сайтов или онлайн-сервисов.

Когда же процент внутренних переходов весьма значителен и/или демонстрирует взрывной рост – это повод уделить проблеме больше внимания. Как мы уже выяснили, подобная динамика с большой долей вероятности может свидетельствовать о технических ошибках на сайте. При этом сами внутренние переходы только замыливают общую статистику и ничем не полезны для аналитики. Более того, такие искажения в данных могут привести к принятию ошибочных решений, касательно продвижения или seo-оптимизации сайта.

Если доля внутренних переходов аномально большая, первым делом проверяют, присутствует ли счетчик на конкретных страницах. Собственно, для этого сначала нужно определить, какие именно страницы накручивают нежелательную статистику. Это можно сделать следующим образом:

1. Открываем отчет «Источники, сводка» и создаем условие: Визиты, в которых: Тип последнего значимого источника > Внутренние переходы.

2. Убираем все активные группировки, и добавляем свои. Сначала — «Страница входа», затем еще одну — «Реферер». Первая группировка покажет страницы, с которых начинался визит, а вторая – укажет источник внутреннего перехода по каждому документу. Для удобства их меняют местами: сначала располагают «Реферер», после него – «Страница входа».

В измененном отчете будут доступны все страницы сайта, с которых осуществлялись внутренние переходы. Чтобы посмотреть источники самих переходов, необходимо нажать на плюсик возле каждой ссылки.

Метрика не показывает страницы, на которых могут быть проблемы со счетчиком. Каждую из них следует проверить самостоятельно. Это можно сделать разными способами. Пожалуй, самый простой из них – открыть нужную страницу в браузере, перейти в режим просмотра исходного кода (Ctrl+U) и проверить содержимое на предмет соответствующего кода Метрики, например, чекнув через Ctrl+F идентификатор счетчика (его ID).

Если со счетчиком все в порядке, необходимо проверить сайт на наличие скрипта, который выполняет редирект и таким образом накручивает нежелательную статистику. Самый простой способ это сделать – вручную посмотреть перенаправление со страниц, которые фигурируют в отчетах как источники внутренних переходов. Для этого достаточно ввести адрес в браузерную строку и обновить страницу. URL должен оставаться без изменений, в том числе самых незначительных. После обновления в структуре URL-адреса не должно появляться никаких меток или лишних знаков, например, слешей.

Читайте по теме:
FAQ по 301-редиректу: настройка, отслеживание проблем, сценарии использования редиректов в SEO

Наконец, не следует списывать со счетов такой, пусть и весьма маловероятный сценарий, как описанная выше защита от DDoS на стороне хостера, которая также способна накручивать внутренние переходы. В этом случае можно попробовать связаться с провайдером, выяснить детали и при необходимости попросить отключить эту опцию для вашего сайта.

Если же по каким-то причинам из статистики нужно вычистить естественные внутренние переходы (которые засчитываются из-за бездействия пользователей), можно попробовать увеличить тайм-аут, с базовых 30 минут до более высоких значений (максимум – 360 минут).

В  то же время без четкого понимания, чего именно вы ходите добиться этими действиями, менять настройки не рекомендует сам Яндекс. В противном случае есть риск получить общее искажение статистики по источникам трафика. В качестве альтернативного решения можно использовать поп-ап, который будет всплывать на странице спустя нужный промежуток времени и таким образом сможет напоминать об открытой вкладке своим звуковым сигналом. Такая опция доступна, например, во многих чатах с онлайн-консультантом.

Внутренние переходы в группе отчетов «Контентная аналитика»

Разговор о внутренних переходах будет неполным без упоминания одной очень важной особенности Яндекс.Метрики. С 2019 года здесь доступен целый блок отчетов «Контентная аналитика», которые предоставляют расширенные возможности для сбора статистики и анализа текстовых материалов на сайте. Более подробно об этом мы рассказывали в отдельной статье.

Тем, кто использует эту группу отчетов, важно знать, что внутренние переходы здесь рассчитываются по другой модели – их показатель в «Контентной аналитике» всегда будет больше, чем в стандартных отчетах. Это связано с тем, что источники трафика в контентной аналитике определяются на основе просмотров, а не визитов, как это происходит в стандартных отчетах, о чем подробно говорилось выше.

Представим, что пользователь перешел из поиска на страницу example.com/page1, а затем по внутренней ссылке – на другую страницу (example.com/page2). В стандартных отчетах источником трафика для двух страниц был бы органический поиск. В контентных отчетах, где привязка осуществляется не к визитам, а просмотрам, источником переходов для example.com/page1 будет органика, а для example.com/page2 – внутренний переход. Таким образом, мы получаем более достоверную картину по каналам трафика, которая очень важна для точечного анализа контента.

Учитывая эту особенность, увеличение количества внутренних переходов в отчетах контентной аналитики Метрики – это положительный сигнал. Он свидетельствует о том, что материалы на сайте хорошо вовлекают пользователей: читатели переходят от одной статьи к другой и генерируют качественные поведенческие.

Сообщение Внутренние переходы в Яндекс.Метрике. Как работать с самым непонятным источником трафика появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>
Ручные санкции Google. Что нужно знать о мерах, принятых вручную, даже если вы не нарушаете правил https://scrapushka-nch.ru/blog/ruchnye-sanktsii-v-google/ Wed, 10 Nov 2021 11:38:16 +0000 https://scrapushka-nch.ru/?p=12544 Сообщение Ручные санкции Google. Что нужно знать о мерах, принятых вручную, даже если вы не нарушаете правил появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>

Продолжаем разговор о том, за какие нарушения Google наказывает современные сайты. Теперь, когда мы подробно разобрали механизм применения алгоритмических штрафов, а также сопутствующие факторы, которые приводят к пессимизации и деиндексации страниц, поговорим о ручных санкциях.

Помимо автоматизированных алгоритмов, в Google есть большая команда, которая занимается оценкой сайтов. Асессоры вручную смотрят площадки с признаками плохого качества или недобросовестной оптимизации, и по итогам проверки принимают решение о применении ручных мер. Некоторые из санкций накладывают за те же нарушения, что и алгоритмические штрафы, например, такое происходит при ссылочных манипуляциях или переоптимизации контента.

Тем не менее ручные санкции более понятные, и их принципиальное отличие – возможность напрямую взаимодействовать с Google. В этом случае сайт, подвергшийся наказанию со стороны поисковика, получает соответствующее уведомление в Search Console, в разделе «Проблемы безопасности» «Меры, принятые вручную». В нем сообщают о причине наложения штрафа и, если речь идет о конкретных страницах/разделах, указывают перечень проблемных URL.

Вебмастеру нужно устранить (действительно исправить, а не сделать видимость) указанные проблемы и запросить повторную проверку. По ее итогам Google примет решение о снятии санкций. Все это происходит небыстро и не дает никаких гарантий, что страницы восстановят свои на прежние позиции в выдаче.

Далее мы перечислим основные ситуации, за которые Google наказывает в ручном режиме. Важно понимать, что от таких штрафов не застрахованы даже те, кто используют исключительно белые методы продвижения и следят за качеством публикуемого контента. Многие из нарушений, за которые прилетают ручные санкции, нередко связаны с действиями третьих лиц, о чем владелец сайта часто не догадывается до последнего момента.

Заспамленность сайта

Сайт могут пессимизировать в ручном режиме из-за размещения спама. Под спамом Google понимает нерелевантный контент, который не представляет интереса для пользователей, вводит его в заблуждение или преследует корыстные цели. Формы спама могут быть самыми разными, от откровенно бесполезного сгенерированного текста на страницах до незаметных ссылочных инъекций. Активное продвижение сторонних площадок, не связанных с основной тематикой сайта, также может быть расценено как спам. Обычно в этом случае Google наказывает отдельные страницы и реже – сайт целиком.

Виды спама

Спам, размещенный владельцем сайта
Это нерелевантные ссылки, агрессивная баннерная реклама, навязчивая нетематическая нативка и т. д.

Спам, созданный посетителями
Самый распространенный тип вредоносного контента, который обычно оставляют в комментариях, ветках форумов, в разделах для загрузки файлов.

Спам на бесплатном хостинге
Чужие баннеры, нерелевантные сквозные ссылки на страницах сайта, сомнительные соседи по IP – таковые реалии всех бесплатных хостингов, и это не оставляет шансов для эффективного продвижения, как бы добросовестно вы не занимались сайтом.

Читайте по теме:
Все, что нужно знать о влиянии хостинга на SEO

Спам, появившийся в результате взлома
Последствия атак могут быть самыми разными: от добавления многочисленных сгенерированных страниц со спамными линками, до размещения скрытых ссылочных инъекций, которые долгое время остаются незамеченными.

Чтобы обезопасить себя от таких уведомлений, на всех страницах, где предусмотрена возможность загрузки пользовательского контента, должны применяться антиспам-системы или ручная модерация. Сам ресурс нужно размещать у надежных хостинг-провайдеров, периодически сканировать сайт антивирусом и внимательно изучать ссылочный профиль на предмет подозрительных внутренних ссылок. Придерживаться такой профилактики намного проще, чем вычищать запущенный сайт от спама и пытаться вернуть URL в индекс после получения ручных санкций.

Продажа ссылок и агрессивное наращивание бэклинков

За манипуляции с входящими и исходящими ссылками наказывают не только алгоритмы, но и асессоры после ручной проверки. В этом случае в вебмастерку приходит соответствующее уведомление, в котором обычно указывают список URL, оцененных поисковой системой как проблемные по ссылочному признаку. В целом ручные и алгоритмические санкции накладывают за одни и те же ссылочные нарушения, их мы подробно расписали в первой части статьи. Ограничения в этом случае такие же: под пессимизацию, как правило, залетают конкретные страницы, в отдельных случаях — проседает или деиндексируется весь сайт.

Если мы говорим о штрафах за исходящие ссылки, для снятия санкций необходимо либо удалить проблемные ссылки, либо разметить их атрибутом rel=”nofollow”. На сайтах с множеством исходящих ссылок обычно приходится прибегать к компромиссам, когда часть элементов размечают nofollow, а часть – удаляют. Чтобы сделать профиль сайта более естественным, некоторые исходящие линки можно разметить атрибутом rel=”sponsored”. Также не помешает проредить откровенно спамные анкоры.

Если мы говорим о бэклинках, за которые в основном и прилетают ссылочные штрафы, для выхода из-под ручного фильтра потребуется основательно почистить профиль. Придется убрать большую часть купленных ссылок, оставив лишь самые трастовые и тематически релевантные. По каким критериям отсеивать доноров — читайте здесь. Также можно попробовать связаться с владельцами площадок, где стоят бэклинки, и попросить их добавить атрибуты “nofollow” или” sponsored”. Но в любом случае, чтобы пройти проверку на снятие санкций, придется удалить большую часть ссылочных вложений. Это можно сделать, связавшись с админами напрямую или отклонив обратные ссылки самостоятельно, через инструмент Disavow tool.

Манипуляции с микроразметкой

Данные из микроразметки помогают поисковым алгоритмам лучше понять содержимое сайта, за это страницы получают определенные преимущества в выдаче. Речь идет главным образом о расширенном сниппете, с которым улучшается показатель кликабельности (CTR), благодаря чему сайт может давать ощутимый прирост трафика. Выгода от микроразметки подталкивает многих вебмастеров на разного рода манипуляции, и Google это очень не любит. Отдельно отметим, что проблемы со структурированными данными могут объясняться и элементарным незнанием, как правильно работать с этими атрибутами.

Типичные проблемы с микроразметкой, за которые наказывает Google:

✔ Контент на странице не соответствует данным в микроразметке: например, размечены одни цены, а на сайте – другие.

✔ Данные из микроразметки есть на странице, но скрыты от пользователя.

✔ Микроразметка не соответствует функционалу, доступному на странице: например, нет возможности написать отзыв.

✔ Использован нерелевантный тип микроразметки: например, когда организация размечена как товар.

✔ Контент не соответствует типу микроразметки: например, статья не кулинарной тематики размечена как рецепт.

✔ В разметке указаны частичные данные: например, неполное описание вакансии.

Контент, не представляющий ценности для пользователя

Ручные санкции накладывают на сайты, где обнаружен некачественный или малоинформативный контент. Под таковым Google понимает страницы с плагиатом, копипастом, авторерайтом. Речь может идти и об откровенно спамном и потенциально опасном для пользователей содержимом, например, если это страница-линкопомойка, поднятая на сгенерированном контенте, или дорвей, перенаправляющий на другой сайт. Такие страницы оперативно попадают под ручные санкции и вылетают из индекса. Если они представляют ценность, их можно попробовать вернуть в поиск, наполнив нормальным содержимым и запросив перепроверку. За откровенно черные методы оптимизации фильтр обычно накрывает не отдельные страницы, а весь сайт.

Клоакинг и скрытые переадресации

Эти два приема черной оптимизации какое-то время могут обводить вокруг пальца алгоритмы Google, но ровно до первой асессорской проверки – после этого сайт сразу попадает под санкции. Клоакинг, или подмена содержимого – это техника черного SEO, суть которой заключается в том, что реальным пользователям и поисковым роботам представляют разный контент на одной и той же странице. Самый простой пример, когда посетителям выводится один текст, а поисковым роботам – другой, обычно запрещенной тематики или переспамленный запросами.

Скрытые переадресации также являются грубым нарушением правил Google. Речь идет о ситуациях, когда пользователи автоматически перенаправляются с одной страницы на другую, закрытую от сканирования поисковыми роботами. За внедрение таких механик в поиске Google применяют ручные санкции. Важно отметить, эти меры могут затронуть и тех вебмастеров, которые не нарушают правил и продвигают сайты по-белому — и клоакинг, и скрытые переадресации часто являются результатом взломов.

Для тех, кто осознанно использует такие SEO-манипуляции, наложение санкций будет вопросом времени. Тем же, кто пострадал от предположительного взлома, первым делом следует проверить редиректы на сайте. Сначала нужно посмотреть все изменения в настройках файла .htaccess, поскольку несанкционированные переадресации наиболее часто настраивают именно через взломанный сервер. Далее проверяют скрипты в коде страниц, а также настройки в плагинах переадресации, при использовании таковых.

Существуют ситуации, когда ручные санкции за клоакинг могут быть наложены без фактического нарушения правил Google. Например, поисковик можно ввести в заблуждение контентом, доступным по платной подписке. Чтобы материалы, скрытые пэйволом, не были расценены как замаскированный контент, их обязательно нужно разметить соответствующей микроразметкой. Также санкции за подмену содержимого могут прилетать из-за использования плагинов и скриптов для динамического изменения контента.

Агрессивный спам

Существует довольно большой список нарушений, которые Google расценивает как агрессивный спам. В эту собирательную категорию часто попадают многие из уже описанных действий. Типичными признаками агрессивного спама является использование на страницах автоматически сгенерированного контента или копипаста с других сайтов, клоакинг, агрессивная монетизация и т. д. Обычно такие уведомления приходят, когда на сайте есть сразу несколько грубых нарушений или же, если владелец уже обвинялся в несоблюдении требований к качеству сайтов. Санкции этой категории довольно «жесткие» и зачастую распространяются не на отдельные страницы, а на весь сайт.

 Риск наложения санкций за агрессивный спам выше, если:

  • сайт размещен на бесплатном хостинге;
  • ресурс является частью сетки аффилированных сайтов;
  • на сайте используют сразу нескольких методов запрещенной SEO-оптимизации;
  • на страницах присутствует подозрительная реклама.

Качество контента

Контент может расцениваться Google как агрессивно спамный, если это:

  • автоматически сгенерированный текст;
  • некачественный автоперевод;
  • автоматический рерайт;
  • текст с множеством орфографических ошибок, написанный не носителем языка.

Парсинг контента

Речь идет о техниках автонаполнения сайта, когда контент получают из других источников в интернете. Сам парсинг может быть реализован по-разному:

  • контент копируют/копипастят без изменений напрямую с других сайтов.
  • контент переопубликовывают с небольшими изменениями, например, автоматически заменяя отдельные слова синонимами.
  • контент, подтягивают из RSS-каналов, не привнося в него дополнительной ценности для пользователей.

На сайты, которые наполняют по такой модели, рано или поздно накладывают санкции.

Если не сразу понятно, почему сайт получил «ручник» за агрессивный спам, причина может быть, например, в аффилированности нескольких проектов. Часто такое случается, когда создают серию однотипных eCommerce-сайтов, не представляющих уникальной ценности. В отдельных случаях санкции за агрессивный спам могут быть следствием взлома.

Замаскированные изображения

Из всех уведомлений Google о мерах, принятых вручную, штрафы за замаскированные изображения выглядят наименее понятными. Под маскировкой картинок Google понимает одну из разновидностей клоакинга, когда посетителям и поисковым системам представляют неодинаковые версии изображений.

Вот основные ситуации, которые Google расценивает как маскировку картинок:

  • Содержание изображения скрыто наложенным сверху текстом.
  • По клику на фото, пользователь редиректится на нерелевантные страницы.
  • Для сканирования отдают изображения, отличающиеся от тех, что доступны пользователям.

Но далеко не во всех случаях маскировка в понимании Google является манипуляцией со стороны владельца сайта. Например, штрафы за скрытые изображения могут прилетать вебмастерам, установившим защиту от хоткликинга. Обычно такое случается при использовании плагинов и скриптов, которые препятствуют вставке картинок на чужих сайтах, с целью минимизировать нагрузки на свой сервер. Для этих целей Google рекомендует использовать другие техники.

Скрытый текст и переспам ключевыми словами

Размещение скрытого текста – старая техника серого SEO, которую используют с целью влияния на поисковый рейтинг ресурса и реже — для классического клоакинга, когда продвигают запрещенный контент. Тексты могут скрывать от пользователей и показывать только поисковым системам или, наоборот, прятать их от обхода краулерами, но оставлять доступными для читателей. Оба сценария сильно не нравятся Google, поэтому сайты, использующие эти приемы, рано или поздно попадают под ручной фильтр.

С переспамом ключевыми словами все вроде бы ясно, и эта тема не нуждается в каких-либо комментариях. Единственное, что стоит отметить, при получении таких штрафов, на предмет переоптимизации важно проверять (и исправлять) не только тексты на страницах, но и содержимое <title>, а также альтов к картинкам. Если вы не использовали такие спамные техники, но все равно получили уведомление, нужно тщательно проверить страницы (они могут быть указаны в сообщении) на предмет внедренного скрытого текста.

Несоответствие AMP-версий каноническим версиям страниц

Accelerated Mobile Pages, или просто AMP, представляют собой отдельные облегченные форматы страниц, которые связаны со своими основными (каноническими) версиями. В них необязательно размещать дублирующееся содержимое, например, одинаковые тексты или фото, но тематика обеих версий страниц должна быть идентичной, в противном случае возможно применение штрафов. Это же касается и заголовков. Также в ускоренных и обычных страницах должен быть доступен один и тот же функционал. За нарушение этих требований Google исключает из выдачи AMP-версии, отображая вместо них полноформатные канонические страницы.

Скрытая переадресация с мобильных устройств

Использование автоматических перенаправлений на скрытые или подозрительные страницы противоречит правилам Google и приводит к удалению из индекса, о чем уже говорилось выше. Тем не менее данную проблему стоит отдельно рассмотреть в контексте мобильного трафика. Google не имеет ничего против, когда пользователей перенаправляют с десктопной версии сайта на мобильную, развернутую на поддомене. Проблемы возникают из-за редиректов на нерелевантные и/или закрытые от поисковых роботов страницы.

Скрытые перенаправления в большей степени характерны для мобайла. Чаще всего мобильный трафик перенаправляют на WAP-click партнерки или сайты серых тематик (фарма, адалт, гемблинг), на которых предлагают выполнить то или иное целевое действие. В большинстве случаев такие перенаправления происходят без ведома владельца сайта и быстро приводят к применению ручных санкций. Причинами появления несанкционированных редиректов могут быть:

  • бесплатные мобильные виджеты с вредоносным кодом;
  • недобросовестные рекламодатели, использующие несогласованные методы рекламы через блоки, размещенные  на вашем сайте.
  • скрипты или элементы, скрытно размещенные третьими лицами в результате взлома.

Как проверить сайт на скрытую переадресацию

Об использовании скрытого редиректа обычно узнают постфактум, после получения соответствующего уведомления в вебмастерке Google. Самый простой способ проверить, есть ли на сайте скрытое перенаправление – ручная проверка. Для этого достаточно перейти на сайт из результатов мобильного поиска и убедиться, что вас не перебрасывает на другой ресурс. Важно использовать именно смартфоны, т. к. на компьютере  мобильные редиректы не срабатывают. При желании провести такую проверку можно и без смартфона, открыв эмулятор устройств в десктопной версии браузера.

В десктопных браузерах Chrome, Firefox или Safari можно имитировать просмотр страниц с разных устройств

Скрытые редиректы также отслеживают через системы аналитики, изучая подозрительное поведение посетителей на сайте. Резкое изменение динамики отказов и/или уменьшение времени на сайте пользователями мобильных устройств может быть признаком несанкционированных перенаправлений. Даже если такая динамика не связана с редиректами, все равно важно понять ее причину и по возможности оперативно устранить.

Для автоматизации процесса отслеживания в Google Аналитике настраивают специальные оповещения. Их можно создать на вкладке Специальные отчеты → Специальные оповещения. Нужно выбрать канал, по которому отслеживают показатели (в нашем случае это «Мобильные устройства»), установить необходимые метрики и задать параметры изменений.

Например, если средняя длительность сеансов у мобильных пользователей снизится на указанное количество процентов (в сравнении с предыдущим днем), на почту придет соответствующее уведомление. Такая модель отслеживания позволяет максимально оперативно выявлять скрытую переадресацию, до того как Google примет меры.

Сообщение Ручные санкции Google. Что нужно знать о мерах, принятых вручную, даже если вы не нарушаете правил появились сначала на Умный интернет-маркетинг от команды Артизан-тим.

]]>