Открыт бесплатный доступ к Яндексу и другим популярным сайтам

Соответствующий приказ на прошлой неделе появился на сайте Минкомсвязи. В документе говорится, что ведомство запускает эксперимент, согласно которому отечественные операторы связи будут обеспечивать бесплатный доступ к веб-ресурсам, которые представляют особую социальную значимость для общества.

Регулятор определил 391 такой сайт. В их число среди прочих вошли Яндекс, Mail.ru, Рамблер, ВКонтакте, Одноклассники, Яндекс.Новости, Сбербанк, Альфа-Банк и другие популярные порталы. С полным списком можно ознакомиться здесь.

В эксперименте, который продлится до 1 июля 2020 года, принимают участие такие провайдеры, как МТС, Мегафон, Билайн, Эр-телеком и Ростелеком.

В условиях карантина и падения платежеспособности определенной части населения такой «бонус» выглядит весьма своевременным, не так ли?

Источник

Каннибализация в SEO: как не соперничать с самим собой

В SEO соперники повсюду, но веб-мастер сам себе главный конкурент. В материале разбираемся, как можно мешать своему же проекту бороться за позиции в топе по ключевым запросам.

В статье:

  1. Что такое каннибализация запросов и почему это проблема

  2. Как бороться с каннибализацией

  3. Как не допустить каннибализацию запросов

  4. Кейс: успешная работа с каннибализацией

Что такое каннибализация запросов и почему это проблема

Каннибализация запросов — это ситуация, когда несколько страниц одного сайта оптимизированы под одно и то же приоритетное ключевое слово и соперничают за место в топе. Поисковые системы должны определить, какая из этих страниц качественнее и релевантнее поисковому запросу.

Было бы здорово оптимизировать, например, пять страниц под один запрос и занять ими пять строчек выдачи. Но скорее всего поисковик выберет одну страницу, причем это может быть не та, какую вы бы хотели видеть в топе.

Почему каннибализация запросов — это проблема:

  • Поисковик будет выбирать самую релевантную из ваших страниц, оптимизированных под запрос, и вероятнее выберет одну.
  • Одна страница со всей важной информацией и удобной навигацией лучше, чем несколько менее сильных страниц, до которых пользователь может и не дойти.
  • Внешние ссылки, которые рассредоточились между несколькими страницами одного сайта, могла бы получить одна страница. Чем больше тематических ссылок, тем лучше.
  • Внутренние ссылки также будут разделены на несколько одинаковых страниц, это усложняет схему перелинковки.
  • Наверняка страницы заточены под какое-то конверсионное действие — ведут к регистрации, покупке, ознакомлению с тарифами или другому типу конверсии. Если они разные, то по-разному конвертируются — какие-то лучше, какие-то хуже. Логично направлять пользователей на ту страницу, которая показывает лучшую конверсию, и действие на которой наиболее ценно для бизнеса.

Выходит, что эффективнее не распылять силы на нескольких страниц, заточенных под один ключ, а выбрать лучшую и продвигать ее. Но тогда зачем держать на сайте остальные страницы, оптимизированные под тот же запрос? Разберем, как их найти и что с ними делать.

Как бороться с каннибализацией

Может быть сложно найти и исправить все случаи каннибализации у большого сайта с ветвистой структурой, для которого собрана обширная семантика. Лучше изначально строить архитектуру сайта так, чтобы не допустить каннибализации. Об этом в следующем пункте, а в этом разберем, как исправить проблему, если она уже есть.

1. Найти страницы, оптимизированные под один и тот же запрос

Придется найти страницы, которые соперничают друг с другом. Оцените контент на сайте, чтобы понять, где может быть каннибализация.

Ручная проверка

Для сайтов с небольшой семантикой может подойти ручная проверка. Введите в поисковик основной ключ и оператор site:вашсайт.ру, чтобы ограничить поиск вашим ресурсом.

Признак каннибализации — в выдаче по одному запросу вышло несколько страниц, которые закрывают один и тот же пользовательский интент. У них могут быть разные title, но они оптимизированы под один главный запрос.

Проверка сервисами

Проверьте позиции сайта по приоритетным запросам из семантики и посмотрите, какие страницы по ним ранжируются, вам нужны страницы, релевантные одному и тому же ключу. Для этого подойдут сервисы SEMrush, SE Ranking или другие для съема позиций со схожей функциональностью.

Еще можно использовать веб-сканер, к примеру, Screaming Frog, чтобы найти дубликаты. Обычно сканеры могут собрать файл с URL страниц и мета-тегами, чтобы веб-мастер мог отсортировать данные по тегам заголовков и найти дубликаты.

Сканер метатеговПример таблицы, blogs.perficient.com

Либо можно использовать фильтрацию и найти страницы, которые заточены под одну тему.

2. Исправить каннибализацию

Когда вы нашли проблемные страницы, релевантные одному ключу, соперничество между ними можно устранить несколькими способами.

Как исправить каннибализацию запросов

  1. Объединить страницы в одну
    Если несколько конкурирующих страниц несут ценный контент и имеют свои ссылки, перенесите важный контент на самую сильную из них, и настройте на нее 301 редирект с остальных.
  2. Удалить неважные
    Если страницы не полезны аудитории и не имеют своих ссылок, оставьте одну самую сильную, а остальные удалите.
  3. Сосредоточьтесь на целевой
    Если не хочется ничего удалять, выберите одну целевую страницу, а на остальных уменьшите число вхождений в тексте и мета-тегах, поставьте с них ссылки на целевую страницу. Их можно заточить под низкочастотные запросы и обновить контент, чтобы страницы были полезны для клиентов.

Как разграничить интенты

В одном из выпусков рубрики «Спроси PR-CY» пользователь спросил, как разграничить коммерческие и информационные запросы в рамках одного сайта, чтобы не было каннибализма индексируемых страниц в SERP.

Эксперт Ксения Пескова, SEO-TeamLead Siteclinic, дала совет, как разграничить интенты:

  1. Не смешивайте запросы разных интентов на одной странице.
  2. Следите за текстом анкора при размещении внешних и внутренних ссылок.

Например, страницу услуг можно оптимизировать под одну группу запросов, которая будет включать ключевые слова «вывоз мусора Москва», «вывоз мусора», «вывоз мусора цена». А под информационную группу запросов «куда вывозят мусор из Москвы» можно оптимизировать отдельную посадочную информационную страницу.

Чтобы не сталкиваться с такой проблемой и не искать каннибализационные страницы, лучше изначально следить за структурой сайта и релевантностью страниц запросам. Если у вас много страниц дублируют друг друга, пересмотрите подход к созданию нового контента.

Как не допустить каннибализации запросов

Избежать каннибализации ключевых слов поможет строгая архитектура сайта. Создать каркас для будущей структуры поможет семантика, разбитая на кластеры: составьте майндмап или другую удобную схему с разделами по тематическим кластерам запросов. Эти кластеры помогут понять, какие страницы нужно создать. Отмечайте там существующие, чтобы не дублировать контент.

Если вы уже развиваете сайт и хотите реорганизовать структуру, придется составить схему из имеющихся страниц, и сопоставить страницы с кластерами семантики. Это будет сложно, если сайт большой и ветвистый с множеством разделов и подтем. Есть сервисы-помощники, к примеру, Balsalmiq поможет составить схему сайта.

Оптимизаторы обычно советуют выстраивать структуру по системе SILO — это многоуровневая система, с помощью которой легко управлять внутренним ссылочным весом. На сайте есть общие страницы категорий, в них есть отдельные темы, которые делятся на конкретные страницы.

Схема SEO архитектуры сайтаСхема SILO-структуры

Почитать по теме:
15 советов по seo-архитектуре сайта

Такая структура помогает поисковикам и пользователям ориентироваться в страницах и находить нужный релевантный контент.

Кейс: успешная работа с каннибализацией

В блоге robbierichards.com мы подсмотрели интересный клиентский кейс по успешной работе с каннибализационными страницами, которым поделился один оптимизатор.

У его клиента была статья, релевантная запросу «marketing technology stack». Все было хорошо, она занимала четвертую строчку в топе Google, но внезапно позиции упали до четвертой страницы выдачи.

Клиент подумал на санкции на уровне страницы. Вместе с оптимизатором они посмотрели позиции сайта в SEMrush и релевантность страниц сайта ключевым словам. Оказалось, пять разных статей конкурируют за релевантность запросу «marketing technology stack».

Из этих пяти статей они выбрали лучшую с самым высоким рейтингом и дополнили ее интересным контентом с остальных страниц. Удалять было жалко, потому что на них были ссылки, поэтому они настроили с этих страниц 301 редирект на основную статью.

В итоге основная статья стала еще лучше, потому что они дополнили ее новой информацией, поисковый алгоритм получил сигнал, что контент обновили, плюс она получила новые ссылки.

График просмотров статьиПросмотры статьи

По итогу просмотры выросли с 200 до почти 1000 в месяц, а статья поднялась на первое место топа органики по целевому запросу.

Статья подняла в топ выдачиСтатья в топе

Веб-мастеру не пришлось писать новую статью и закупать ссылки, все сделали теми ресурсами, которые у них уже были. Если таких конкурирующих друг с другом страниц много, можно также объединить их в канонические, выбрав сильнейшие.

Расскажите в комментариях, был ли у вас опыт работы с каннибализацией на сайте?

Источник

Google категорически против линкбилдинга Web 2.0

Продолжаем разбирать высказывания представителя Google в ходе недавнего SEO-вебинара. Один из участников видеоконференции поинтересовался, как поисковик относится к стратегии построения ссылочного профиля Web 2.0. Напомним, такой подход предполагает регистрацию чаще всего в блогосферах или соцсетях, других сайтах, которые позволяют вести свои корпоративные/индивидуальные страницы и проставлять с них любое количество ссылок на основной, продвигаемый ресурс.

Вопрос звучал примерно так:

«Насколько эффективным остается старый-добрый линкбилдинг? Многие SEO-агентства продолжают заниматься искусственным построением ссылочного профиля: распространяют картинки с обратными ссылками, добавляют статьи на такие сайты, как Tumblr, доски объявления и другие бесплатные площадки. Причем большинство таких постов отличаются низким качеством и вряд ли их вообще кто-то читает».

Реакция Джона Мюллера не оставила никаких сомнений в том, как Google относится к такому линкбилдингу:

«Все приведенные вами примеры получения внешних ссылок – ужасный способ продвинуть свой сайт в интернете. Скажу больше, если вы обращаетесь за помощью в SEO-агентство, которое пытается нарастить вашу ссылочную базу за счет размещения бэклинков на сайтах вроде Tumblr, досках объявления или подобных площадках, то мой вам совет – срочно меняйте такого сеошника. Тем более, если вас убеждают, что такой линкбилдинг непременно поможет в раскрутке вашего проекта.

Можно еще короче – такие ссылочные действия не представляют абсолютно никакой ценности для поисковой оптимизации!

Не нужно думать, что такой линкбилдинг поможет вам раскрутить проект. Этот подход превращает вас в банального ссылочного спамера.

Учитывая сказанное, я бы настоятельно рекомендовал воздержаться от такого рода спамных акций».

Вместе с тем эксперт допустил возможность, когда сайт создает по-настоящему качественный контент и стремится разместить его на сторонних ресурсах для обсуждения. В этом нет ничего зазорного, поисковик не против. Главное, чтобы у веб-мастера не было навязчивой идеи оставлять бэклинки везде, где только можно. 

Ранее сотрудник Google высказался о роли nofollow-ссылок в раскрутке новых сайтов.

Источник

Google обязали заплатить сайтам за их контент в выдаче

Таким образом, имеется важный прецедент в Европе. До этого дальше разговоров о том, что поисковики нужно заставить делиться прибылью с издателями контента, дело долгое время сдвинуться не могло.

На решение антимонопольного ведомства, которое было принято 9 апреля, повлияли многочисленные жалобы профсоюзов, представляющих французскую прессу. Изучив их аргументы, регулятор пришел к выводу, что деятельность американской поисковой системы нанесла местным новостным издателям серьезный ущерб, тем самым усугубив их и без того не самое стабильное экономическое положение.

В Google уважают решение антимонопольного органа и обещают его выполнять. В частности, в Google News уже заявили, что с момента вступления в силу закона об авторском праве на территории Франции, поисковик прикладывает максимум усилий, чтобы материально поддерживать и стимулировать издателей веб-контента.

Кому и как именно будет платить Google – пока неясно. Остается непонятным и то, поддержат ли такую практику в отношении поисковика другие европейские государства. Думается, многие веб-мастера рунета тоже не отказались бы от прямых выплат со стороны Google.

Источник

Google: мы почти уже не следим за PageRank

К такому выводу подталкивает недавний разговор с Гари Илшем, следующий вопрос которому задал Барри Шварц:

«Сохранилась ли внутренняя возможность у сотрудников Google посмотреть на тулбарный PageRank?»

В ответ работник поисковой системы заявил:

«Нет, значение этого показателя для счетчика больше не рассчитывается в принципе. Если не ошибаюсь, мы отказались от него с 2014 года.

Что касается самой пузомерки, оригинального показателя, а не его тулбарной версии, то он все еще существует. И мы, по крайне мере, я и Джон Мюллер, имеем к нему доступ в случае необходимости. Впрочем, такой возможностью мы практически не пользуемся».

Напомним, в экспертном кругу частных сеошников сохраняется убеждение, что PageRank все еще важен для продвижения сайта.

Источник

10 популярных ошибок настройки Google Analytics и способы их исправить

При работе с сайтом веб-мастеры ориентируются на данные статистики по трафику, ссылкам, конверсиям и другим параметрам. Если полагаться на неверные данные из Google Analytics, есть риск принять решения, которые навредят сайту.

К примеру, у падения трафика в аккаунте системы Google Analytics может быть много причин. Возможно, ваши SEO-работы не приносят ожидаемого результата: что делать в этом случае, разбирали в посте «SEO не работает: что делать, когда все сделано, а результатов нет».

Но может быть, что веб-мастер все делает правильно, с сайтом порядок, а Google Analytics ошибается и искажает картину. Этот материал поможет разобраться, как минимизировать факторы перекоса данных и не допускать ошибок в настройке. В статье не разбирали очевидные ошибки, к примеру, некорректное время или несовпадение ID ресурса в коде и настройках GA. Часть ошибок мы подсмотрели в статье Ahrefs «13 Google Analytics Tracking Mistakes (and How to Fix Them)».

Итак, в чем можно ошибиться при настройке Google Analytics?

Неправильно настроить события взаимодействия

Отказы на сайте — это нормально, пользователи уходят с сайта по разным причинам, не всегда это вина сайта. Если Google Analytics показывает неестественно низкие отказы, скорее всего они есть, но из-за настройки считаются неправильно.

Покупки, отправка форм — это примеры действий пользователей на сайте, они отмечаются как события взаимодействия. Они конверсионные и важны для бизнеса. Обычно если пользователь выполнил какое-то целевое действие на странице, а потом ушел с нее, это не засчитывается в системе статистики как отказ.

Но если настраивать любые события как события взаимодействия, и не засчитывать их как отказы, отказов будет неестественно мало. К примеру, автовоспроизведение видео или клик по поп-апу не стоит относить к событиям взаимодействия.

Если отказов подозрительно мало, добавьте еще одну строку кода во фрагмент события GA. Для этого в объекте fieldsObject команды send присвойте полю nonInteraction значение true. Пример для видео:

ga(‘send’, ‘event’, ‘Videos’, ‘play’, ‘Fall Campaign’, {

nonInteraction: true

});

Если вы используете Google Tag Manager, измените настройку «Событие без взаимодействия» с false на true:

Настройка Диспетчера теговИзменение настройки в Google Tag Manager

Почитать по теме:
Руководство по Google Tag Manager

Отслеживать статистику с других доменов

Код отслеживания Google Analytics и Google Tag Manager виден любому, кто открывает ваш исходный код. Если не настроить фильтр просмотра, кто-то может использовать ваш код отслеживания и испортить вам сбор данных.

Настроить фильтр просмотра можно в Пользовательских фильтрах. Не соответствующие настройке обращения система будет игнорировать, информация по ним не появится в отчетах.

С помощью этого фильтра можно отобрать трафик для определенного имени хоста:

Настройка Гугл АналитиксНастройка фильтра

Шаблон фильтра регулярных выражений имени хоста: (^|.)example.com.

Отслеживать ваши собственные сессии

С сайтом компании может работать большая команда специалистов — сотрудников компании. Они не входят в аудиторию покупателей, так что их отслеживать не нужно, чтобы не смещать результаты статистики. Для этого нужно настроить фильтр по IP, исключающий внутренний трафик.

Настройка Гугл АналитиксНастройка фильтра по IP

Если вам нужно исключить больше IP-адресов, обратитесь к руководству от Google.

Не отфильтровывать ботов

Значительная часть трафика может приходиться на ботов, которых тоже не нужно отслеживать. Все, что нужно сделать — установить один флажок в настройках представления:

Фильтр ботов в АналитикеНастройка фильтрации ботов

Отслеживать спамеров

Популярные сайты привлекают спамные ссылки. Посмотрите на трафик, если вы увидите резкий скачок, которому нет причины, скорее всего это наплыв ботов с сайтов спама.

Нужно отсечь ботов из статистики, чтобы анализировать реальные показатели. У ботов обычно нулевое время пребывания на странице, так что настройте отсечение трафика по времени пребывания и 100% отказов.

Теневые домены с большим количеством рефералов можно найти в разделе с реферальным трафиком:

Фильтр доменовДомены с большим количеством рефералов, скриншот ahrefs.com

Лучше не переходить по ссылкам, могут быть вирусы. Создайте список с такими доменами и исключите их с помощью фильтрации: установите поле фильтра как «Источник кампании», затем перечислите домены в поле «Шаблон фильтра», разделив символом «|»

Исправление ошибок в Гугл АналитиксНастройка фильтров

Под фильтрами есть кнопка, которая позволяет увидеть, как фильтры влияют на ваши данные.

Неправильно настроить соответствие цели

В настройке целей выбирают тип соответствия, их три: «равно», «начинается с» и «регулярное выражение». Если ошибиться и указать не тот тип, данные будут собираться некорректно.

  • Равно — цель соответствует конкретному адресу ссылки.
  • Начинается с — при выполнении действия к URL добавляется параметр, ID сессии или транзакция.
  • Регулярное выражение — нужно учесть условия.

Настройка целей в Гугл АналитиксВыбор соответствия цели

Небрежно настраивать параметры UTM

Параметры UTM — это теги, которые добавляют к URL-адресам, чтобы обозначить конкретные источники трафика и удобно отслеживать переходы в Аналитике. В основном эти метки используют с платной рекламой, покупными и партнерскими ссылками.

При составлении ссылки с меткой обязательно нужно указать поля:

  • utm_source — источник трафика, рекламная площадка (рекламодатель, сайт, социальная сеть);
  • utm_medium — тип трафика (соцсети, баннерная реклама или другой);
  • utm_campaign — обозначение рекламной кампании, продукта или предложения.

Составлять ссылки с UTM вручную неудобно, быстрее использовать сервисы:

  • URL кампании в Google Analytics для ссылок на сайты;
  • URL для приложений Google Play;
  • URL для отслеживания кампаний для iOS в Apple App Store.

Допустим, запускаем рекламу в Twitter. По умолчанию трафик попадает под «twitter.com / referral», кампанию отслеживать неудобно. Поэтому можно добавить параметры UTM к URL-адресам, которые используем в рекламе.

Как сделать ссылки с UTM-меткамиЗаполнение UTM-меток

Эти параметры UTM затем отправляются на серверы GA и используются в соответствующих измерениях.

Ссылки с UTM в аналитикеОтслеживание ссылок с UTM

Если вы связали аккаунт Google Аналитики с активным аккаунтом Google Рекламы и включили функцию автоматической пометки ссылок, то дополнительно прописывать UTM не нужно.

Почитать по теме:
Настройка и анализ UTM меток: полное руководство

С отслеживанием ссылок с метками могут быть проблемы, на которые сложно повлиять. К примеру, если пользователь сохранил ссылку с UTM и открывает ее из закладок, переход засчитается рекламному источнику, хотя это будет прямой заход.

Не исключать параметры страницы

В URL страницы могут быть параметры и уникальные идентификаторы сеансов как sessionid, yclid, _openstat и другие. Из-за того, что Google Analytics распознает ссылки с параметрами как разные URL, одна страница будет занимать несколько строк в отчете:

Отслеживание ссылок с меткамиОдна страница и несколько URL с параметрами в Аналитике, скриншот ahrefs.com

Исключите из отчетов параметры и идентификаторы, чтобы GA воспринимала одну страницу.

Найдите страницы с параметрами:

Поиск страниц с параметрамиИспользуйте ? в поиске

В Google Analytics отобразите все URL с параметрами и в настройках просмотра исключите параметры, которые вы не хотите видеть в своих отчетах.

Исправление ошибок Гугл АналитиксИсключение параметров

Убедитесь, что вы не исключили:

  • параметры поискового запроса, иначе система заблокирует данные по внутреннему поиску;
  • параметры UTM;
  • отдельные параметры, которые вы хотите отслеживать, к примеру, для разных продуктов интернет-магазина.

Не объединять одни и те же источники трафика

Некоторые из каналов трафика повторяются, потому что система распознает их как разные источники. Частый пример — реферальный трафик с Facebook:

Объединение источников трафика в АналитикеПовторяющиеся источники, скриншот ahrefs.com

Эти реферальные ссылки Facebook использует в целях безопасности и конфиденциальности, но они усложняют аналитику трафика по источникам.

Это можно исправить фильтрами, этот объединяет реферальный трафик с разных каналов, относящихся к Facebook:

Настройка объединения каналов трафикаНастройка фильтра

Ниже есть проверка фильтра, убедитесь, что он работает правильно:

Фильтрация каналов трафика в АналитикеРабота фильтра, скриншот ahrefs.com

Google Analytics не применяет фильтры задним числом, поэтому вам все равно придется иметь дело со старыми данными без объединения источников.

Почитать по теме:
Колдуем над Google Analytics: как настроить учет реферального трафика

Не пользоваться списком исключений

Некоторые домены стоит внести в список исключаемых источников перехода, чтобы трафик из них не отмечался отдельно в качестве новых пользовательских сеансов.

Это особенно полезно в трех случаях:

  • Сторонние платежные системы
    Если вы используете сторонние платежные системы, клиенты с сайта перенаправляются в систему для оплаты и обратно на сайт по завершению платежа. Если не исключить платежную систему из источников, система засчитает возвращение клиента на сайт как новую сессию.
  • Отслеживание поддоменов
    С помощью списка исключаемых источников перехода можно исключить трафик с доменов и их поддоменов. В списке используют вариант соответствия «содержит»: если добавить example.com, трафик с поддомена sales.example.com также будет исключен, потому что доменное имя содержит example.com.
  • Междоменное отслеживание
    Междоменное отслеживание Google Analytics позволяет объединить данные с нескольких доменов. Это бывает нужно, если веб-мастер хочет объединить несколько сайтов в рамках одного бизнеса.

Список исключаемых источников перехода находится в разделе Отслеживание. Укажите домены, которые вы не хотите видеть как источники переходов в отчете. Введите домены в формате example.com, чтобы охватить все субдомены.

Настройка исключений для доменовДобавление доменов в исключения

Настройка Google Analytics зависит от сложности ваших требований к предоставляемой информации. Если вы видите что-то неладное в статистике, возможно, дело не в сайте, а в сборе данных, так что советуем проверить, как у вас настроен сервис аналитики.

Разбор ошибок настройки Метрики есть в отдельном материале «Популярные ошибки настройки Яндекс.Метрики»

Источник

Adblock
detector