Как оптимизировать CLS: сдвиги макета страницы, которые мешают пользователям

В статье:

  1. Причины внезапных сдвигов на странице

  2. CLS — показатель визуальной стабильности сайта

  3. Как измерить CLS

  4. Не все сдвиги макета — это плохо

  5. Что делать, чтобы улучшить CLS и избавиться от внезапных сдвигов

Представьте, что вы читаете статью онлайн, но на странице что-то внезапно меняется и вы теряете место, на котором остановились. Или еще хуже — хотите нажать на кнопку и отказаться от предложения, как страница сама сдвигается и вы попадаете на кнопку «Скачать».

Из-за сместившихся кнопок пользователь промахнулся

В большинстве случаев это раздражает, а в некоторых может и нанести ущерб — к примеру, если из-за сдвига кнопки вы соглашаетесь что-то купить или оформить ненужную подписку.

Такой нестабильный сайт может потерять часть пользователей, потому что с ним невозможно удобно работать. И, к сожалению, это частая проблема сайтов. Разберемся, как ее решать.

Причины внезапных сдвигов на странице

Неожиданные сдвиги содержимого обычно случаются из-за асинхронной загрузки ресурсов или динамического добавления элементов DOM над существующими на странице элементами.

Если добавить до расположения контента, который смотрит пользователь, асинхронно загружающееся видео, изображение, шрифт, который отображается больше или меньше, чем его запасной вариант, или сторонний виджет, меняющий размер, при загрузке этих элементов контент ниже может сдвинуться.

Дело в том, что функционирование сайта в процессе разработки отличается от того, что в итоге воспринимают пользователи. Персонализированный и сторонний контент часто ведет себя по-разному. При разработке тестовые изображения часто уже находятся в кэше браузера разработчика, а локальные вызовы API выполняются быстро и задержки незаметны.

Решить проблему поможет измерение того, как часто сдвиги макета происходят у реальных пользователей.

CLS — показатель визуальной стабильности сайта

Сдвиг макета происходит каждый раз, когда видимый элемент изменяет свое положение от одного визуализируемого кадра к другому.

Визуальная стабильность сайта количественно измеряется показателем Cumulative Layout Shift. CLS — это совокупный сдвиг макета. Показатель входит в перечень трех главных метрик оценки пользовательского опыта — Core Web Vitals. 

CLS помогает оценить, как часто пользователи сталкиваются с неожиданными сдвигами. Он измеряет общую сумму всех индивидуальных оценок сдвига макета для каждого неожиданного сдвига, который происходит в течение всего срока службы страницы.

Чем ниже показатель CLS, тем лучше.

Сайты должны стремиться к тому, чтобы CLS не превышал значение 0,1. Хороший показатель, если не меньше 75% сессий, сегментированных по мобильным и настольным устройствам, не превышают это значение.

Шкала CLS

Как измерить CLS

Инструмент Chrome User Experience Report собирает данные по пользователям для метрик Core Web Vitals, включая CLS. Эти данные используют два инструмента, которые доступны рядовому пользователю:

  • PageSpeed ​​Insights

Проверить визуальные сдвиги страницыОтчет в PageSpeed ​​Insights

  • Search Console (отчет Core Web Vitals в Отчете об основных интернет-показателях)

Проверить показатель CLSОтчет в консоли

Есть еще вариант — проверить скорость сайта в инструменте от PR-CY. Он проанализирует процесс загрузки, разложит его по этапам и даст советы по улучшению каждого. Работает бесплатно онлайн.

Бесплатный анализ загрузки сайтаФрагмент результатов

Не все сдвиги макета — это плохо

На сайтах и в приложениях элементы меняются в зависимости от действий пользователя. Он ввел данные в поисковую строку и появились подсказки, кликнул по ссылке в названии и подгрузилась карточка с описанием, щелкнул по кнопке и появилась дополнительная кнопка для окончательного согласия. Если ожидаемые пользователей окна и кнопки появляются сразу в ответ на действие — сдвиг макета допустим.

Если действие пользователя запускает какой-то сетевой запрос, требующий времени на загрузку, лучше освободить место под элементы, которые должны появиться, и отобразить значок загрузки. Так пользователь поймет, что сейчас что-то появится, и не будет пытаться кликать куда-то еще во время ожидания.

Полезно по теме:
Юзабилити и психология: почему ваши клиенты не замечают изменений на сайте

Как отобразить новые элементы и не сбить с толку пользователя

Контент, который резко и неожиданно появляется на странице, может сбить с толку, ведь пользователь уже решил куда-то кликнуть. Анимация и переходы — хороший способ отобразить новые элементы на странице так, чтобы пользователь понял, что происходит, и был к ним готов.

Свойство CSS позволяет анимировать элементы, не вызывая сдвигов макета:

  • вместо изменений height и width свойства, можно использовать transform: scale();
  • для перемещения элементов можно не менять top, right, bottom или left свойства и использовать вместо этого transform: translate().

Что делать, чтобы улучшить CLS и избавиться от внезапных сдвигов

На большинстве сайтов можно избежать всех неожиданных сдвигов макета благодаря этим правилам:

  • Всегда включайте атрибуты размера в свои изображения и видео. Либо как-то по-другому резервируйте нужное им пространство, к примеру, с помощью полей соотношения сторон CSS. Так браузер сможет выделить правильный объем места в документе во время загрузки изображения.
  • Не вставляйте контент поверх загруженного контента, за исключением ответа на взаимодействие пользователя. Тогда все изменения на странице будут ожидаемы для него.
  • Используйте анимацию и плавные переходы, чтобы подготовить пользователя к изменениям на странице.

На основе статьи «Cumulative Layout Shift (CLS)»

Расскажите в комментариях, о чем еще вам было бы интересно почитать в блоге по теме навигации и юзабилити или по другим темам о развитии сайтов.

Источник

Google Core Vitals — новый инструмент для оценки качественного сайта

В мае Google анонсировал запуск сервиса, объединяющего все инструменты, которые измеряют производительность сайтов. Lighthouse, Chrome DevTools, PageSpeed Insights и Search Console’s Speed Report буду обновлены и интегрированы друг в друга.

Основными показателями ядра Google Core Vitals станут три фактора: LCP, FID и CLS:

  • Largest Contentful Paint — определяет время, за которое браузер отрисовывает самый крупный видимый объект в области просмотра.
  • First Input Delay — время между первым взаимодействием пользователя со страницей и ответом бразуера.
  • Cumulative Layout Shift — показатель смещения элементов во время загрузки страницы.

Факторы дают показатель пользовательского удовлетворения сайтом. Уже сейчас их можно отслеживать в Google Search Console в отчёте Enhancements.

Как обычно, более подробно ознакомиться с темой можно в справочном центре Google.

А мы напоминаем, что в новой версии браузера Chrome у DevTools появятся новые функции отладки и аудита.

Источник

3 способа монетизировать сайт с минимальным количеством посетителей без РСЯ и AdSense

Партнерский материал

ProTraffic пишет о том, как зарабатывать на партнерском маркетинге, делать сайты под CPA и использовать все доступные источники трафика на максимум. 

Все, что вам понадобится для заработка способами из этой статьи — это свой информационный проект и какой-никакой трафик, хотя бы 400-500 уников в месяц.

⭐️ Эти методы не зайдут на старых инфосайтах, собранных из рерайтов рерайта, такие годятся только ссылки продавать. Речь о нормальных СДЛ-ах, пусть даже и с небольшим трафиком. Ресурс должен быть для людей — тогда и деньги появятся.

Почему не РСЯ и не Adsense

Те, кто работает с инфосайтами, уже в курсе, как резко рухнул доход в период пандемии. И если Adsense не вызывает особых нареканий, то РСЯ все еще не может оправиться от коронавирусного удара. Многие вебмастера закругляются, продают сайты или уходят в Adsense. Это, конечно, хорошо: рекламная сеть Google все еще стабильный и неплохой источник дохода.

Однако суть истории с РСЯ и AdSense в том, что веб-мастер никак не может повлиять на уровень заработка. Разве что менять местами блоки и делать больше контента. На деле же выжать из сайта максимум гораздо проще и на это не потребуется много времени. Например, можно зарегистрироваться в партнерских программах и продвигать тематические офферы на своем ресурсе. Чтобы не быть голословными, разберемся на реальном примере. 

Ситуация: есть сайт про мобильные и компьютерные игры. Аудитория у нас достаточно дешевая и с РСЯ капают совсем копейки. Посещаемость — 300 уников в день, владелец сайта любит свой проект, пишет в него интересные, хорошенько оптимизированные материалы с уникальными картинками и видео. При этом и аудитория откликается неплохо — людям нравится читать, они добавляют сайт в закладки и качают поведенческие факторы.

Проблема: из-за дешевизны ЦА сайт не приносит желаемого дохода. А ты ведь душу в него вкладываешь!

Ниже — все варианты решения этих проблем.

Баннеры

Получать по 10-15 рублей в сутки с баннеров РСЯ — такое себе удовольствие. А что, если заменить парочку блоков на собственные баннеры? Например, рекламу какой-нибудь популярной или только появившейся игрушки. Мы потестировали такую историю на сайте с обзорами и хинтами по мобильным и компьютерным играм.

  • Оффер: MMORPG Astellia
  • ГЕО: СНГ
  • Срок: месяц

Не смотрите на кол-во кликов — там вперемешку с другими источниками

Сайт принес 17 регистраций и 0 рублей. А все потому, что мы выбрали неправильный оффер — с оплатой за активного игрока.

Совет#1: Для информационных сайтов выбирайте офферы с простым целевым действием — регистрация, единовременная покупка, скачивание. Их еще называют SOI-офферы. Такие будут конвертить лучше. В нашем случае мы взяли DOI — с оплатой за каждого юзера, который зарегистрируется, скачает и зайдет в игру. И облажались.

Теперь берем на тест оффер с оплатой за регистрацию: пользователю достаточно лишь оставить свою почту и придумать пароль.

  • Оффер: World of Tanks
  • ГЕО: СНГ
  • Срок: 10 дней

Получаем 1154 рублей чистыми и еще немного в холде. Выходит, что сайт с 300 униками в день может приносить по 4500 рублей в месяц с одного баннера на главной и одного сайдбара.

В общем, можно с уверенностью сказать, что даже самые простые баннеры принесут деньги, если информационный проект классный и делается для людей. Пусть и не для такой большой аудитории, как хотелось бы.

Офферная монетизация контента

Вы наверняка видели разного качества нативные материалы в больших изданиях: «5 способов не подавиться чаем» и марка чая, которой точно никто не давится, и все в таком духе. Большинство веб-мастеров считают, что это история крупных медиа, и на инфосайтах такое не зайдет. Отчасти они правы.

Если ресурс построен на древнейшем прототипе «Нарерайчу и возьму количеством», нативка действительно окажется бесполезна. Ведь все эти статьи читать не интересно, и пользователь не станет тратить на них свое драгоценное время. Но есть и другие инфосайты, цель которых — помочь людям, и уже потом заработать на этом. В таких проектах нативка может выстрелить даже при наших 300 униках в день.

И самое главное — у нас есть партнерские программы, а значит не нужно искать рекламодателей, их нам предоставят. Возникает вопрос: какую нативку делать на сайте про компьютерные игры? Несколько идей:

  • 10 смартфонов до 9999 рублей, которые потянут современные игрушки;
  • Лучшие гаджеты для комфортной игры на AliExpress дешевле 1000 рублей;
  • Выбираем компьютерную мышь: чем пользуются киберспортсмены и сколько это стоит на самом деле.

Ну и так далее. Схема простая: пишем интересный материал → добавляем в него ссылки, которые мы взяли в партнерке → публикуем → ставим линки на этот материал с наиболее читаемых статей на сайте.

В целом, все. Можно даже не оптимизировать эти подборки под SEO: достаточно того, что все материалы на вашем сайте полезные и написаны для людей. Только в таком случае все эти пользователи будут переходить и читать другие статьи, доверять вам, оформлять заказы по вашим ссылкам.

Протестировать такое за 10 дней, как в случае с баннерами, не выйдет. Однако предлагаем вдохновиться примером коллег из издания «Лайфхакер»:

Лайфхакер со временем стали цеплять не только Алиэкспресс, но и другие топовые маркетплейсы. Даже целую рубрику под это дело отвели

А масштабироваться еще проще: ставьте производство контента на поток, актуализируйте старые статьи с партнерскими ссылками и добавляйте новые. Но не будьте назойливы, а то останетесь без дохода. 

Почитать по теме:
5 фатальных ошибок монетизации сайта и как их избежать 💰

Рейтинги и обзоры

Вариант номер три не менее бодрый и нативный, но немного отличается от предыдущего. Объяснять на пальцах слишком долго, давайте вернемся к нашему сайту:

На повестке достаточно высокочастотная тема про MMORPG. Таких запросов очень много каждый год, внутри статьи — 10 игр с обзорами, комментариями игроков, трейлерами, системными требованиями и так далее. То есть в материале есть все, чтобы потенциальный геймер принял решение: качать и пробовать игру или нет.

Как эта же статья выглядит с нашей стороны: большинство MMORPG есть в партнерках, где можно подключить себе офферы и получать деньги за каждую регистрацию. Выходит, у владельца сайта двойная мотивация — и людям приятно сделать, и на все вопросы ответить, чтобы получить деньги за каждую регистрацию.

И таких примеров множество: рейтинги сайтов знакомств (дейтинг), подборки онлайн-курсов (образование), ТОПы ножеточек (товарка). Если заморочиться, вполне возможно адаптировать этот вид контента под свою нишу и аудиторию. Более упрощенный пример — это подробный разбор одного конкретного оффера (в нашем случае — компьютерной игры). Главное здесь не переборщить с описаниями и «‎продающим текстом» и не дать читателю заскучать.

По деньгам тоже по-разному: за регистрации в браузерных или MMORPG платят по 1-2 долларов, за ножеточку можно получить сразу 10 долларов, а за покупку онлайн-курса все 20000 рублей. И вновь повторимся, что для такой монетизации нам не нужна аудитория — мы работаем не на количество, а на качество.

Хотите узнать больше?

Приходите на ProTraffic Marathon — это бесплатный ивент для владельцев сайтов, арбитражников, веб-мастеров и тех, кто только постигает азы заработка на партнерском маркетинге и SEO. В течение 10 дней мы вместе научимся делать такие сайты, которые берут качеством и приносят доход. Для тех же, у кого есть свои проекты, выступят Денис Нарижный и Степа WebNavoz с практическими докладами по монетизации и созданию информационных проектов в 2020 году. То, о чем мы рассказали выше, только более наглядно и с пошаговой инструкцией к действию.

А еще у всех участников марафона есть шанс выиграть 100+ призов общей суммой в 7000 долларов, брендированный кальян, секретные подарки от спикеров и много полезных ништяков, которые пригодятся в работе и на отдыхе!

Регистрируйся на лучший практический ивент уходящего лета!

Источник

Instagram-продвижение обособляется от Facebook

На данный момент уже существующие компании будут существовать в привычном режиме за тем лишь исключением, что исчезнет необходимость использовать Facebook Ads Manager. Управлять рекламной компанией и отслеживать её эффективность теперь можно прямо через приложение. А для всех новых пользователей, продвигающих свой аккаунт в Instagram, привязка к аккаунту Facebook исчезнет вовсе.

Для того, чтобы проверить, связан ли ваш бизнес-аккаунт Instagram и Facebook нужно сделать следующее:

  1. Перейти в свой профиль, нажать значок в правом верхнем углу.
  2. Перейти в Настройки .
  3. Затем в Платежи.
  4. В разделе «Ваш Аккаунт» отобразится номер или имя.

В случае, если указан номер, ваш аккаунт не связан с профилем Facebook. Если же там указано имя, то скорее всего, вы уже их связали.

Для всех новых аккаунтов, не связанных с Facebook действует следующий способ продвижения публикаций:

  1. Перейти в свой профиль.
  2. Выбрать нужную публикацию.
  3. Нажать кнопку Продвигать.
  4. Задать настройки продвижения (целевую страницу, аудиторию, бюджет и продолжительность).
  5. В разделе «Проверка» нажать кнопку Создать промоакцию.

После этого объявление проходит проверку Правил рекламной деятельности Instagram. В среднем, она занимает около 60 минут. Реклама будет запущена, как только администрация одобрит её.

Напоминаем, что в прошлом месяце Instagram запустил новый раздел с товарами.

Источник

Как ускорить индексацию сайта в Яндексе и Google

В статье:

  1. Проблемы с индексацией сайта в ПС

  2. Как ускорить индексацию страниц

  3. FAQ: что влияет на скорость индексации сайта

Быстрое индексирование страниц — это хорошо. Чем быстрее страница займет место в выдаче поисковой системы, тем быстрее ее смогут увидеть пользователи. А также эта страница с большей вероятностью будет считаться первоисточником контента, который на ней находится.

К сожалению, нельзя точно сказать, когда боты поисковых систем просканируют страницу и она появится в выдаче — это зависит от размера и оптимизации сайта.

Частые проблемы с индексацией сайта в ПС

Страницы вообще не индексируются

Если роботы и Яндекса, и Google игнорируют страницы сайта, нужно убедиться, что ботам не запретили обход. Проверьте настройки хостинга и файл robots.txt — там не должно быть запрета на индексацию.

Страницы не индексируются одним из поисковиков

Если либо Google, либо Яндекс не индексируют страницы сайта, проблема может быть в санкциях от этого поисковика. Нужно определить, какие санкции лежат на сайте, и исправить ошибки. Помогут материалы о санкциях Яндекса и фильтрах Google.

Страницы индексируются, но долго

Если приходится долго ждать индексации новых страниц, вариантов может быть много: контент редко обновляется и поэтому боты редко его посещают, страницы не оптимизированы, не участвуют в перелинковке или что-то еще.

Посмотреть динамику индексации страниц и наличие фильтров можно в Анализе сайта:

Проверить индексирование страницИндексация и санкции ПС в Анализе сайта

Итак, если страницы не индексируются, то проверьте ограничения, если игнор от одного из ПС, то возможны санкции, а если индексирование идет, но долго, это повод попытаться его ускорить. Посмотрим, что можно сделать.

Как ускорить индексацию страниц

Представитель Google Джон Мюллер на вопрос об индексировании ответил так:

«Лучший способ улучшить процесс индексирования – создавать превосходный, а значит уникальный и убедительный контент. Именно в нем должны нуждаться пользователи, именно его они затем будут рекомендовать другим. Нужно также понимать, что поисковые системы не индексируют абсолютно все, что выложено в сети».

Создавайте превосходный контент, а если ваш контент плохо индексируется, то он недостаточно превосходный 🙂 Это все, конечно, хорошо, но давайте посмотрим, что конкретно можно сделать, чтобы ускорить процесс.

Отправить страницу на переобход

Можно дополнительно обратить внимание поисковиков на конкретные URL. В Google Search Console и Яндекс.Вебмастер найдите переобход страниц и отправьте нужные URL на индексацию.

В Яндекс.Вебмастере это раздел Индексирование — Переобход страниц. В консоли Google это Инструмент проверки URL.

Проверить разрешения в robots.txt

В файле robots.txt веб-мастер прописывает рекомендации для поисковых ботов Яндекса и Google. Можно запретить ботам посещать некоторые страницы, для этого есть директива «disallow», «nofollow», можно использовать мета-тег «noindex» или «none». Тогда при следующем посещении сайта бот увидит запрет и может к нему прислушаться. А может и не прислушаться.

Как говорит Ксения Пескова, SEO-TeamLead в Siteclinic:

«Если вы закроете сканирование в файле robots.txt — это всё равно может не уберечь от индексации страницы, так как в файле мы запрещаем сканирование, и это всего лишь рекомендации, а не прямое указание».

В любом случае, лучше проверить файл robots, вдруг там стоят запреты, к которым прислушались боты поисковых систем.

Создать Sitemap — Карту сайта

Карта сайта помогает поисковым ботам понять структуру ресурса и обнаруживать обновления контента.

Почитать по теме:
Карта сайта (файл Sitemap) от А до Я

Для ускорения индексации карту можно сделать динамической, то есть по мере создания новых страниц она сама будет обновляться. Для проектов на конструкторах сайтов, например, на WIX и Tilda, карта по умолчанию динамическая, для других CMS есть плагины и отдельные сервисы. К примеру, на WordPress с этой задачей справится All in One SEO Pack.

Можно обновить файл Sitemap вручную. Обновленные страницы Google рекомендует отметить в Карте тегом . Обновленный файл отправьте с помощью специального отчета. Не стоит загружать один и тот же файл повторно: если вы ничего не поменяли в Карте сайта, никаких изменений не будет.

Но опять же, ссылки в Карте сайта — это рекомендации, важнее создать грамотную структуру сайта и организовать внутреннюю перелинковку.

Проверить структуру и перелинковку разделов

На сайте не должно быть страниц, оторванных от других. Если на страницу не ведут ссылки с категорий, разделов и других страниц, поисковикам сложнее определить ее релевантность и неоткуда перейти на нее для сканирования. Такие страницы называют сиротами.

Страница без ссылок в структуреСтраница-сирота в структуре сайта

Нужно встроить их в структуру сайта. К примеру, в этой схеме каждая страница имеет ссылку с родительской категории, но они вполне могут линковаться и между собой:

Грамотная структура сайтаУпрощенный пример структуры сайта, подходит для меню

Еще один момент, который влияет на поведение бота — это Click Distance from Index (DFI), то есть количество кликов от главной до текущей страницы. Чем оно меньше, тем важнее считается страница, тем больший приоритет она получит с точки зрения бота. Приоритетные страницы он смотрит первее остальных.

DFI не определяется по числу директорий в URL, они могут не совпадать. Например, если на главной странице будет ссылка на хит продаж — конкретную модель холодильника Atlant, то DFI будет равен двум. Но при этом карточка модели может находиться в каталоге и подразделе каталога, тогда директорий будет больше — site.com/shop/refrigerator/one_chamber_refrigerators/atlant/h_1401_100.

Если страница не индексируется, проверьте ее расположение в структуре сайта и количество кликов до нее с главной.

Взять за правило обновлять контент

Поисковики ценят, когда веб-мастер следит за актуальностью контента, исправляет его и добавляет что-то новое. Регулярно обновляющийся сайт бот будет чаще сканировать. Чем реже обновлять контент, тем реже боту понадобится его перепроверять.

Сотрудник Google советовал добавлять на страницу видео с Youtube, если странице нечего добавить и содержание еще актуально. Поведенческие улучшатся за счет просмотра видео, на странице появится новый формат контента — это тоже хороший сигнал для поисковика.

Публиковать ссылки в соцсетях и на других площадках

Если вы ведете страницы в социальных сетях, размещайте на них анонсы ваших новых материалов. С помощью разметки OpenGraph можно задать ссылке красивое превью с нужной картинкой и заголовком, и получить переходы пользователей на страницу.

Сссылка с сайта в соцсетяхПревью поста с сайта на Фейсбуке

Найдите сторонние площадки по вашей тематике, где можно оставлять ссылки или публиковать посты, и размещайте таким образом ссылки на новые материалы. Ссылки должны быть естественными и подходить по теме. Используйте пресс-релизы, форумы, другие соцсети, отзовики, сервисы вопросов и ответов и другие площадки.

Ускорить загрузку сайта

Ограничивать индексацию может долгий ответ сервера. По словам Джона Мюллера из Google, сли в среднем это время составляет больше одной секунды, Google не будет сканировать столько страниц, сколько мог бы.

Медленная загрузка страниц вредит им по всем параметрам: пользователи не ждут, ПС считают некачественными, могут даже понизить сайт в выдаче, если сайт в принципе медленный.

По ускорению у нас есть подробные материалы о том, как оптимизировать код верхней части страницы, использовать сжатие gzip, brotli и минификацию кода, оптимизировать изображения.

Многое из перечисленного можно проверить на сайте автоматически. Поможет сервис «Анализ сайта»: проверит сайт по 70+ тестам, оценит и главную, и внутренние страницы, найдет ошибки и даст советы по исправлению.

Проверить сайтФрагмент анализа сайта

Многие функции сервиса и графики доступны на платных тарифах Анализа, но вы можете попробовать неделю бесплатно и оценить все возможности.

До конца лета на любой тариф «Анализа сайта» действует скидка 30% по промокоду LAST_DAYS.
Промокод сработает сразу при переходе на страницу —> Купить со скидкой

FAQ: что еще влияет на скорость индексации сайта

Как страницы вне индекса могут повлиять на отношение поисковика к сайту?

Качество контента на сайте поисковики оценивают только по проиндексированным страницам.

Тег noindex может влиять на индексацию страницы после его снятия?

По словам Джона Мюллера из Google, у веб-мастера не будет проблем с реиндексацией URL, на которых когда-то был noindex.

Как редирект влияет на индексацию страниц?

Джон Мюллер утверждает, что поисковик скорее всего не проиндексирует конечный URL при использовании ссылок с 301 редиректом.

Как ускорить индексацию страниц, которые были 404?

Если адрес страницы отдавал 404 и не был индексирован, на индексирование может потребоваться некоторое время. Как советуют Seroundtable, можно создать новый URL для этого контента и настроить 301 редирект со старого адреса, либо запросить повторное сканирование URL.

Как поисковики относятся к URL c хэшами?

URL с хешами поисковик не проиндексирует. То есть ссылка https://site.ru/news/p/statya проиндексируется, а ссылка на конкретную часть статьи — https://site.ru/news/p/statya#step — нет.

Расскажите в комментариях, что мы упустили в материале, какие способы ускорить попадание в индекс используете вы.

Источник

Большое интервью с Джоном Мюллером (часть первая)

К Джону Мюллеру, SEO-аналитику из Google, веб-мастера и сеошники относятся по-разному (не пропустите вторую часть, где мы представим любопытную статистику по этому поводу). Одни следуют его подсказкам безоговорочно, полагая, что сотрудник Google плохого не посоветует. Другие, наоборот, игнорируют его рекомендации, считая Джона недостоверным источником, который либо не знает, что говорит, либо не говорит, что знает.

Мы принадлежим к третьей группе слушателей, убежденных, что спикер Google заслуживает должного внимания. Знать позицию Google по тем или иным вопросам поисковой оптимизации нужно. Не только знать, но и критически переосмысливать, делать собственные выводы, которые в итоге пойдут на пользу сайту.

Недавно Гуглмен стал гостем Мари Хейнс, известной канадской сеошницы, которой в интервью рассказал много познавательного о поиске и не только. Сегодня предлагаем вашему вниманию адаптированный перевод первой части подкаста.

Итак, Джон, все мы знаем, что вы работаете аналитиком в Google Webmaster Trends. Как долго вы с поисковой системой?

Джон: Что-то около 12-13 лет, если мне не изменяет память.

Да, я помню, как в 2008 году зависала на разных SEO-форумах и в какой-то момент впервые наткнулась на ваши ролики помощи веб-мастерам. Уже тогда Google пытался просвещать SEO-сообщество. Примите от всех нас слова огромной благодарности за все эти годы содействия в нашем нелегком деле.

Но ближе к делу. Предлагаю начать нашу предметную беседу с несерьезного вопроса – что это за история с сыром и бананами?

Джон: Хм, это то, чем меня время от времени до сих пор подкалывают коллеги. История следующая. Мое сообщение про сыр было одним из первых в Твиттере. Кажется, мы тогда с Гари Илшем пили кофе и он вдруг сказал, что появилась новая социальная сеть – Twitter. И как бы надо было протестировать… Он отлучился и сделал это от моего имени, запостив пробный твит о том, что я люблю сыр. К слову, в этом нет ничего удивительного, так как я живу и работаю в Швейцарии.

Что касается бананов, то дело было так. Я планировал впервые протестировать работу сервиса Google Trends. Какое слово выбрать для анализа? Первое, что пришло на ум – бананы. После такого решения я начал получать кучу писем на почту о всех взлетах и падениях запроса «бананы» в нашем поиске. Кстати, они до сих пор мне приходят.

Забавная история! А теперь о серьезном – с прошлого года, когда вы представили новые ссылочные атрибуты, SEO-комьюнити не может найти себе покоя. Многие мои клиенты задаются вопросом, как теперь вы относитесь к nofollow-бэклинкам? Человек, например, переживает, что будет, если какой-то донор поставил на его сайт спамный линк, но при этом использовал атрибут rel=»nofollow»?

Джон: Здесь не о чем беспокоиться в принципе, поскольку мы не используем внешние ссылки с nofollow для каких-то негативных действий. Да, иногда они помогают нам найти и проиндексировать новый контент в сети. Однако нет такого, чтобы мы посмотрели на бэклинк с rel=»nofollow» и сказали, что он соответствует каким-то критериям, а потому мы будем учитывать его вес полностью. Равно как нет и обратной ситуации, когда нам такой линк не понравился, а потому это будет иметь для сайта какие-то плачевные последствия.

Вывод: если есть какие-то обратные ссылки на ваш ресурс, которые вам по каким-то причинам не нравятся, но при этом такие бэклинки закрыты названным атрибутом, тогда все чудесно.

То есть, мы правильно советуем нашим клиентам, что не нужно тратить время и отклонять такие закрытые от индексации бэклинки?

Джон: Абсолютно.

Давайте тогда детальнее поговорим об инструменте отклонения внешних ссылок – Disavow Tool. Однажды мы уже обсуждали с вами этот вопрос и пришли к выводу, что отклонять неестественные бэклинки нужно сайтам, к которым применяются ручные санкции Google. Но у клиентов остается вопрос: неужели другим ресурсам, без ручных санкций, пользоваться Disavow Tool не нужно в принципе?

Джон: На мой взгляд, лишь в двух случаях отклонение обратных ссылок является целесообразным. Во-первых, можно сыграть на опережение. Допустим, в прошлом ваш сайт продвигал некий сеошник, который не гнушался «черными» методами раскрутки, в том числе и покупкой внешних ссылок, хаотичным постингом бэклинков на форумах или прочих подобных площадках. Вполне вероятно, что за такие нарушения наших правил мы еще не успели наложить ручные санкции. Однако это не значит, что такого не произойдет завтра, послезавтра или через месяц. И вот тут сознательный владелец сайта, обнаруживший целую кучу неестественных обратных ссылок на свой ресурс, может добавить их в Disavow-файл.

Во-вторых, с помощью отклонения можно попытаться помочь нашим алгоритмам. Да, мы не раз заявляли о том, что они умеют игнорировать некачественные бэклинки. Впрочем, если у вас нет полной уверенности в том, что мы автоматически их проигнорируем, тогда есть смысл отклонить их вручную, используя названный инструмент.

Тогда следующий вопрос в продолжение темы. Можем ли мы благодаря правильному и своевременному использованию Disavow Tool добиться лучших позиций для сайта в Google SERP, нарастить его трафик? Приведу пример. Мы с моей командой не раз работали с веб-проектами, у которых не было ручных санкций, но мы все равно добавляли определенные внешние ссылки в Disavow-файл. После этого через несколько недель или даже месяцев у таких сайтов резко вырастал трафик, видимость в поиске заметно улучшалась. Первая наша мысль – это все потому, что в свое время мы грамотно почистили ссылочный профиль, отклонив плохие линки.

Джон: Мне кажется, что такое развитие событий маловероятно. Теоретически, конечно, возможно и такое представить, но в подавляющем большинстве случаев такие бэклинки не способны влиять на видимость ресурса в Google SERP. Скорее всего, те перемены в лучшую сторону, о которых вы говорите, могли стать следствием апдейтов поисковой выдачи Google, изменения экосистемы интернета в целом.

Хорошо, а как тогда посоветуете действовать в следующей ситуации? Есть сайт под ручными санкциями из-за некачественных бэклинков, который по основным ключевикам продолжает довольно хорошо ранжироваться в Google. Более того, все его неестественные внешние ссылки размещаются исключительно на авторитетных площадках в читабельных статьях. Как нам убедить веб-мастера заняться масштабной чисткой ссылочного профиля, если он видит не только недостатки, но и явные преимущества для своего проекта в данный период времени?

Джон: Трудно дать совет, когда вы утверждаете, что позиции по основным ключевым словам остаются высокими. Наверное, рекомендации должны быть общими для сайтов под ручными санкциями – для начала необходимо по максимуму очистить ссылочный профиль ресурса от таких линков, используя Disavow Tool. Но если речь о добротных статьях, которые читают люди и по ссылкам из которых переходят на обсуждаемый сайт, тогда можно попробовать применить к ним атрибут rel=»nofollow». Конечно, если донорская площадка пойдет на это. Такие действия сообщат нашей команде по борьбе с веб-спамом, что сайт стал на путь исправления и ручные санкции к нему можно отменять.

Вообще-то тема наложения и последующего снятия ручных санкций очень интересна сама по себе. Не могли бы вы поделиться с нами как все это происходит? Скажем, у вас есть какой-то ответственный сотрудник в команде по борьбе с веб-спамом, который просматривает и оценивает сайты, предпринятые ими действия по устранению замечаний? Или это многоуровневый процесс, когда кто-то принимает решение сначала, а потом передает конкретный кейс вышестоящему начальству?

Джон: Все зависит от того, насколько серьезным и комплексным является конкретный случай. Когда рассматриваемый кейс имеет влияние на значительную часть сети, то в такой ситуации сотрудники команды по борьбе с веб-спамом вполне могут обратиться за консультациями к специалистам из других отделов. Такой подход помогает получить иную точку зрения касательно проблемы.

При получении запроса от веб-мастера на пересмотр сайта для снятия ручных санкций может быть и такая ситуация. В первый раз попавший под санкции ресурс анализировал один сотрудник, а сообщение о пересмотре попало в руки другому. В такой ситуации мы вынуждены привлекать первого, чтобы он оценил изменения и дал добро на снятие санкций.

В целом же я должен признать, что пересмотр сайта – очень непростая работа, поскольку решение нам нужно принимать субъективно. Например, с неестественными бэклинками или низкокачественным контентом часто бывает, что мы видим позитивные изменения на сайте, но достаточно ли их? Как количественно подсчитать, все ли должное владелец сайта предпринял? Однозначного ответа тут, увы, быть не может.

После ваших слов у меня такое чувство, что мы должны настраивать наших клиентов, сайты которых попали под ручные санкции, что главное для них – убедить вашу команду по борьбе с веб-спамом, что есть четкое понимание проблемы и предпринимаются важные шаги по ее устранению. И что больше никогда ничего против правил Google делаться не будет…

Движемся дальше. Однажды вы говорили, что когда Google оценивает общее качество сайта, то учитываются все проиндексированные поисковиком страницы. Предположим, есть большой портал, у которого 100 тыс. страниц в индексе Google. Однако со временем значительная их часть утратила полностью или частично свою актуальность. Поможет ли в такой ситуации использование noindex или редирект на более релевантный контент? То есть, можно ли таким образом снизить количество известных Google страниц, но при этом повысить общее качество сайта в понимании поисковой машины?

Джон: Да, веб-мастера часто задают нам подобные вопросы. Тут дело в том, что мы по-разному оцениваем контент на сайте. Для владельца ресурса все его страницы чаще всего равнозначны, а для Google – нет. В нашем понимании одни URL-адреса могут быть более ценными, а другие менее. И это нормально.

Постараюсь привести пример. Допустим, есть веб-ресурс, посвященный концертным мероприятиям. Портал добротный, с качественным контентом, который регулярно притягивает к себе внимание целевой аудитории. При этом на сайте также имеется календарь событий вплоть до 9999 года. Естественно, что никаких событий, если кликнуть на дату в далеком будущем, пока не запланировано – перед вами откроется банально пустая, нерелевантная страница. И таких страниц у такого сайта может быть 90%! Значит ли это, что такой ресурс автоматически не соответствует нашим критериям, а потому такие URL нужно убрать? Конечно же, нет, так как мы стараемся находить и фокусировать наше внимание на самых важных в данный момент страницах сайта, показывая именно их в поисковой выдаче. Скажем, это могут быть страницы о концертах, которые уже состоялись, проходят прямо сейчас или запланированы в ближайшее время.

То есть, я хочу сказать, что не нужно зацикливаться на общем количестве страниц. Важно понимать, какие из них представляют наибольшую ценность для проекта в конкретный момент времени. Зная это, необходимо наполнять такие URL-адреса качественным контентом.

Спасибо, это очень ценная информация, особенно если учесть, что системы управления контентом сайта (CMS) часто самовольно создают множество отдельных, а потому ненужных URL с изображениями, которые впоследствии засоряют индекс Google. Может все-таки нужно удалять такие страницы, чтобы повысить качество сайта в целом?

Джон: Честно, я не знаю. Если учесть, что наши алгоритмы игнорируют такой контент автоматически, о чем я упомянул выше, тогда в этом нет особой надобности. С другой стороны, такие случайные страницы могут отвлекать работу старательного Гуглбота, который вместо поиска и сканирования действительно важных URL-адресов сайта будет вынужден тратить время на информационный мусор. С этой позиции может и нужно.

Продолжение следует…

Источник

Adblock
detector