Telegram вышел на второе место по скачиваемости среди приложений США

Как сообщает Павел Дуров в своем Telegram-канале, в январе число активных пользователей мессенджера превысило отметку в 500 миллионов. По состоянию на 12 января, прирост новых пользователей составил 25 миллионов человек за 72 часа. 

Среди них 

  • 38% приходится на Азию;
  • 27% — на Европу;
  • 21% — на страны Латинской Америки;
  • 8% — на страны MENA (Ближнего Востока и Северной Африки).

В связи с тем, что Telegram не подконтролен американским властям, в Госдуме выразили мнение о блокировке мессенджера на территории США. Такую мысль озвучил Андрей Свинцов — зампредседателя думского комитета по вопросам информационных технологий и информационной политики. Учитывая массовые беспорядки в США и блокировки аккаунтов соцсетей у Дональда Трампа, такой исход событий выглядит вполне вероятным.

Напоминаем, что в декабре Дуров заявил, что в нынешнем году Telegram полностью перейдет на собственную рекламную платформу.

Как думаете, по каким причинам могут заблокировать Телеграм заграницей?

Источник

Контент-маркетинг в B2B: как компании ведут корпоративные блоги [Исследование]

Мы любим SEO-исследования Backlinko за большие выборки. Уже перевели для блога исследования факторов ранжирования Google, контент-маркетинга на рекордной выборке 912 млн статей, скорости загрузки и e-mail рассылок для поиска партнеров.

В этой работе, выложенной в январе 2021 года, Backlinko изучили блоги 512 компаний из сферы B2B, то есть работающих с бизнесом, и вывели общие тенденции в организации контент-маркетинга на западном рынке. Для этого анализа они углубились в каждый блог, поэтому было бы сложно проанализировать более 500 компаний.

Для блога PR-CY мы выбрали самые интересные выводы. Они могут быть полезны в качестве аргументов в разговорах с клиентами, помогут определить западные тенденции и подскажут, когда не стоит ждать улучшения результатов от параметров без корреляции.

Итоги исследования кратко:

  1. Блог на своем сайте ведут 72% компаний из сферы B2B. У остальных его нет.

  2. 8% компаний B2B публикуют в блоге только корпоративный PR-контент.

  3. Для получения трафика больше подходит образовательный контент. Такие блоги имеют на 52% больше трафика, чем блоги с постами преимущественно о компании.

  4. Комментарии к постам включены у 29% компаний.

  5. Изображениями из фотостоков пользуются 65% компаний, 21% размещает уникальные картинки.

  6. Только 24% компаний используют всплывающие окна на страницах статей из блога.

  7. 35% компаний использовали «Подпишитесь на нашу рассылку новостей» как заметный призыв к действию в своих блогах.

  8. Самый популярный призыв к действию в контенте B2B — предложение посмотреть связанный по теме контент.

  9. Посты из топа выдачи получают большую часть органики, ссылок и социальных сигналов, а результаты внизу выдачи почти не получают ничего.

У 28% компаний B2B нет блога

Для компаний блог обычно выступает главным центром контент-маркетинга и ключевым источником органического трафика. 142 из 502 проанализированных компаний не имеют блога — то есть 28,3% не инвестируют в контент-маркетинг.

72% компаний B2B ведут блог, но многие из них не знают, как написать интересный для пользователей контент, который вызовет обратную связь и начнет взаимодействие с компанией.

Иногда компании вообще не используют контент в своем подходе к маркетингу или размещают статьи за пределами сайта — например, в популярной за рубежом соцсети LinkedIn. У нас это обычно VC, TJournal, Яндекс.Дзен и другие. 

Публиковать материалы на сторонних площадках полезно, но и на основном домене стоит что-то постить. Так авторитет домена, который будет расти благодаря блогу на сайте, может повлиять на связанные страницы с продуктами и услугами. Направлять пользователя на другие страницы внутри одного сайта проще, чем переманивать из соцсети на стороннюю площадку.

Почитайте по теме:
Нужен ли блог малому бизнесу?

Зачем B2B компаниям нужен блог

Согласно FocusVision, лица, принимающие решения в сфере B2B, обычно потребляют 13 единиц контента в течение цикла покупки. При этом большую часть этого контента они читают непосредственно на сайте поставщика. Для этого и нужен блог: хорошая возможность продемонстрировать экспертность и опыт, доказать качество продукта и стать ближе к потенциальным клиентам.

Вероятно, поэтому 46% маркетологов B2B планируют больше инвестировать в контент-маркетинг в будущем, по данным исследования маркетинга за 2020 год.

Остальные выводы отчета касаются большинства компаний, у которых есть блог.

61% компаний B2B используют WordPress

У 360 компаний, которые ведут блоги, исследователи определили 25 разных систем управления контентом. Самой популярной CMS оказался WordPress, которым пользуются 220 компаний, то есть 61%.

По данным BuiltWith, WordPress еще и самая популярная в мире CMS, так что результат не удивляет.

Компании чаще выбирают WordPress для блога

У 53 компаний CMS распознать не удалось, вероятно они используют специально разработанные решения или очень редкие CMS.

Образовательные блоги получают больше органического трафика

Образовательные блоги получают на 52% больше органического трафика, чем блоги, целиком посвященные новостям компании и PR-контенту.

Образовательный контент приносит больше трафика

Это логично: образовательный контент с большей вероятностью будет ранжироваться по широкому кругу ключевых слов. Бизнес, который публикует только новости, ограничен ранжированием по названию своей компании и некоторым другим связанным запросам.

Материал по теме:
12 практических советов для увеличения трафика

38% корпоративных блогов B2B публикуют обучающий контент

В компаниях из исследования было четыре сценария использования блога на сайте:

  1. Новости компании: только события в компании и ее продукты.

  2. Образовательный контент: полезный контент для решения проблем читателя.

  3. Смешанный контент: в одном месте материалы о компании для прессы и обучающие статьи для клиентов.

  4. Новости отрасли: только новостях отрасли, в которой работает компания.

38% компаний публикуют исключительно образовательный контент и только 8% используют блоги как площадку для PR-материалов и корпоративных новостей.

Самый популярный подход — смешанный, его использовали 51% компаний. Стратегия универсальная: большая часть контента помогает аудитории с проблемой, которую они хотят решить, но также есть корпоративный контент, который позиционирует компанию как лидера отрасли.

Блоги с образовательным контентом популярнее

Пример смешанного подхода — блог компании Segment. Все посты лежат в одном каталоге segment.com/blog/, но каждый пост находится в своей категории по теме или формату. Две категории для образовательных постов о маркетинге и инжиниринге, отдельно новости о развитии компании.

Структура блога компанииКатегории в блоге компании Segment

Советы для контент-маркетинга компании:
6 важных мыслей из 10-летнего опыта написания SEO-статей

Большинство компаний, занимающихся развитием блога, понимают: лучшие результаты даст площадка с полезным для аудитории контентом, а не только новостями организации, которые пользователям обычно не очень-то интересны.

Только 29% блогов B2B позволяют читателям комментировать посты

Большинство компаний B2B не развивают профессиональное сообщество на базе своего блога и предпочитают выкладывать статьи без функции комментирования. Комментарии включены только у 106 блогов из выборки, это 29%.

Включать комментарии или нет — решать владельцу площадки. Прошлогоднее исследование 100 000 постов в блогах показало, что нет корреляции между количеством комментариев и просмотрами материала, как и между количеством комментариев и числом обратных ссылок на пост. Но есть несколько других доводов в пользу комментариев:

  • Дают возможность создать сообщество на вашей собственной платформе в отличие от соцсетей, которыми вы не владеете и не можете их контролировать. Слышали несколько историй, как Facebook банил группы без объяснения причин, а поддержка игнорировала обращения. Также могут быть ограничения по ссылкам и тональности постов.

  • На сайте обычно более лояльная аудитория, чем в соцсетях, комментарии содержательнее и информативнее.

  • Обычно комментарии доступны после регистрации на сайте, так что собранную базу emil по согласию пользователей можно использовать для рассылки.

Но есть и минусы включенных комментариев: веб-мастеру приходится тратить время на борьбу со спамом, думать над ответами, модерировать споры и отрабатывать негатив. 

Может быть интересно:
Как сделать комментарии и отзывы на сайте полезными для SEO

65% блогов B2B используют стоковые изображения

Для статей часто нужны картинки в качестве обложек и иллюстраций. Можно заказывать уникальные изображения, что делает 21% компаний, а можно скачивать их на фотостоках — так поступают 65%. У 14% компаний вовсе нет картинок в блогах.

Компании берут изображения из фотостоков

Использование бесплатных фотостоков и фотобанков — простой способ найти обложку для статьи без проблем с правообладателем. Но копирайтерам бывает лень смотреть фотосток дальше второй страницы. Исследователи обратили внимание, что одни и те же стоковые изображения несколько раз повторялись в разных блогах.

Где брать картинки и фото людей для сайта: подборка ссылок и идей

На фотостоке можно быстро и бесплатно найти картинку, но уникальные изображения лучше. Эксперимент 2019 года показал, что при прочих равных использование уникальных изображений положительно влияет на позиции в органической выдаче по сравнению с сайтами, где использовали дублированные картинки из интернета. А еще созданные специально для блога изображения помогают выделиться визуально и создать блогу единый стиль.

24% компаний B2B используют всплывающие окна в своих блогах

Исследование показало, что только 24% B2B-компаний использовали разные всплывающие окна на страницах статей. Уведомления о файлах cookie исследователи не считали, они есть на всех сайтах, поскольку это требование закона.

Из всех используемых pop-up в блогах из выборки исследователи выделили девять типов в зависимости от действия:

Какие pop-up компании используют в блогах

Самые популярные типы всплывающих окон — предложение подписаться на рассылку (41%) и рекомендация, то есть продвижение какого-то контента, связанного по теме (28%). Большинство B2B-компаний сосредоточены на построении долгосрочных отношений со своей аудиторией, а не на немедленном продвижении продуктов.

Пример всплывающего окна — pop-up для ввода электронной почты на сайте Grammarly, чтобы попробовать бесплатную пробную версию.

Пример всплывающего окна в блоге с предложением подписатьсяВсплывающее окно для подписки

Еще пример — окно на сайте Pindrop, которое продвигает какой-то контент. Содержимое может меняться. В данном случае рекомендуют предстоящий вебинар:

Пример pop-up с формой регистрации на мероприятиеВсплывающее окно для регистрации на вебинар

Когда вебинар прошел, они стали предлагать скачать материал для изучения:

Pop-up в корпоративном блоге компанииВсплывающее окно для скачивания

Почитать по теме:
Топ-10 сервисов, чтобы сделать Pop-up форму подписки для сайта

Весь трафик получают B2B блоги из топа

Исследователи решили посмотреть на эффективность SEO-блогов в выборке с точки зрения органического трафика и ранжирования. Данные касаются анализа всего блога, а не отдельных статей.

Уровни органического трафика между сайтами в выборке значительно различаются. 10% блогов из топа получают в среднем 22 000 посещений из органики каждый месяц, но нижние 10% практически не имеют посетителей. 32 сайта из тех, что посмотрели исследователи, фактически не получали никакого органического трафика.

Распределение органического трафика по статьям из выдачи

Исследователи также посчитали количество ключевых слов, по которым типичный блог B2B ранжируется в органическом поиске Google. В среднем блоги ранжируются по 784 ключевым словам, но, как и в случае с органическим трафиком, среднее значение не имеет смысла, потому что цифра искажена из-за огромной разницы между сайтами в зависимости от позиции.

Сколько ключей приходится на статьи из выдачи

Итог такой: всё достается тем, кто в топе.

Скорее всего, многие компании ведут блог, не осознавая выгоды для бизнеса, а просто потому что он есть у конкурентов и его как бы положено вести. Данные показывают, что большинство блогов B2B не получают трафика. Но если заниматься развитием блога, он будет полезен.

Такая же ситуация и с обратными ссылками, и с репостами в соцсетях — существенно большая часть принадлежит материалам из топа выдачи, до низов мало кто доходит.

Количество ссылающихся доменов коррелирует с трафиком из органики

Исследователи посмотрели связь между количеством обратных ссылок, ссылающихся доменов и объемом органического трафика.

Между количеством обратных ссылок и органическим трафиком корреляция слабая:

Связь между количеством обратных ссылок и трафиком статьи

Но между количеством ссылающихся доменов и органическим трафиком наблюдается более сильная корреляция:

Связь количества ссылающихся доменов и трафика статьи

Вероятно, корреляция означает, что веб-мастерам лучше стремиться приобретать ссылки на разных источниках, чем зацикливаться на получении ссылок с привычного небольшого набора площадок.

В B2B длинный контент работает лучше

Исследователи посчитали количество слов в самых популярных постах. Их набралось четыре категории:

  • Посты, генерирующие больше всего органического трафика — наиболее эффективные в среднем состоят из 855 слов.

  • Посты, получающие наибольшее количество репостов в социальных сетях — у 10%, которые оказались самыми эффективными, средняя длина составляет 1116 слов.

  • Посты, генерирующие наибольшее количество обратных dofollow-ссылок — в среднем наиболее эффективный пост содержит 780 слов.

  • Посты, получающие обратные ссылки с наиболее релевантных доменов — 10% самых эффективных сообщений содержали в среднем 1552 слова. 10% с нижней границы были длиной в среднем всего 554 слова.

Получается, в сфере B2B длинный контент генерирует больше репостов в соцсетях, обратных ссылок, ссылающихся доменов и органического трафика. 10% постов, которые хорошо ранжируются в органическом поиске и занимают верхние позиции, почти в три раза длиннее нижних 10% постов. 

Это не значит, что дело только в длине. Длинные материалы обычно более подробно раскрывают мысль, содержат примеры, охватывают обширную тему. Материалы с выводами из исследований, которыми другие площадки могут подтверждать утверждения в своих статьях, тоже обычно длинные.

Длинные статьи в блоге компании эффективнее

Один из самых интересных выводов исследования в том, что статьи, которые получают много репостов в социальных сетях, и статьи, получающие много обратных ссылок, обычно очень различаются по содержанию.

Если компании B2B важнее получить больше обратных ссылок для авторитетности, нужно будет сосредоточиться на контенте, на который чаще ссылаются. И обычно это не что-то сверхинтересное или спорное, что охотно обсуждают в соцсетях, а, например, исследования, мнения.

О том, какие посты чаще репостят в соцсетях, а какие получают больше ссылок, писали в этой статье.

Больше информации в оригинале исследования Backlinko

Расскажите в комментариях, какой вывод показался вам самым интересным, что запомнилось из исследования?

Источник

Краулинговый бюджет сайта — актуальное об индексации страниц в 2021 🤖

Статья полезна для общего понимания обработки сайтов поисковиком, но особенно актуальна тем, кто видит проблемы в сканировании сайта.

В статье:

  1. Как поисковик обходит сайт
  2. Кому нужно беспокоиться о краулинговом бюджете
  3. Как посмотреть сканирование сайта ботами
  4. Как оптимизировать краулинговый бюджет
  5. Как оптимизировать рендеринговый бюджет

Как поисковик обходит сайт: что такое краулинговый и рендеринговый бюджет

Страница появится в поиске, будет ранжироваться по ключевым словам и получать трафик, если поисковый бот ее найдет и проиндексирует.

Процесс немного различается для статических HTML-страниц и динамических страниц с JavaScript.

Статические страницы

Боты, которые ищут и обрабатывают страницы, называются краулеры, процесс обработки — краулинг.

  1. Поисковый бот формирует список URL сайта — их он находит по Карте сайта, внутренним и внешним ссылкам.

  2. Сверяется с разрешениями на обход в файле robots.txt. В этом файле не строгие правила, а рекомендации, так что закрыть страницу от бота через запрет в robots.txt не получится. Если на страницу есть ссылки и редиректы, бот может решить, что она все-таки важна, и включить ее в свой список.

  3. Дальше он сортирует ссылки по приоритетности и начинает сканировать. Приоритетность определяет по многим факторам: удаленность от главной, PageRank и другие.

У поисковых систем нет технических возможностей обрабатывать все страницы, появляющиеся у сайтов, так что для краулинга есть лимиты — краулинговый бюджет — это количество страниц, которое поисковый бот может проиндексировать за один ограниченный по времени визит на сайт.

Если количество регулярно обновляемых страниц больше бюджета сканирования сайта, на нем будут не проиндексированные страницы.

Динамические JS-страницы

Краулеры сканируют и индексируют контент статической HTML-страницы. Если страница динамическая, с визуализацией и JS-фреймворками, то процесс в целом такой же, но нужен еще промежуточный этап. После сканирования бот должен сначала отрисовать контент, закодированный через JavaScript, а уже потом отправить его в индекс. Этот этап называется рендеринг.

Поисковые боты обрабатывают код JavaScript с помощью последней версии Chromium. Количество страниц, которые бот может отобразить, называется рендеринговым бюджетом.

Получается, рендеринг — добавочный этап в обработке страницы, который требует ресурсов. Если страницу приходится долго отрисовывать из-за асинхронности и сложности JavaScript, индексирование займет больше времени.

Подробнее про обработку страниц на JavaScript Google рассказал в Центре поиска. Если страница или ее часть не отображаются в выдаче, причиной могут быть проблемы с кодом JavaScript. Руководство от Google поможет их устранить.

Скорость сканирования не относится к факторам ранжирования и сама по себе никак не влияет на позиции. Но важна для работы сайта — если бот не сможет просканировать новые страницы, они долго не появятся в выдаче и пользователи их не увидят. Разберемся, что делать, чтобы боты успевали сканировать все нужные страницы.

Кому нужно беспокоиться о краулинговом бюджете

На небольших проектах количество страниц, которым нужно сканирование, обычно меньше, чем лимит краулера. Так что владельцам маленьких сайтов о краулинговом бюджете можно не беспокоиться.

Если новые страницы месяцами не могут попасть в выдачу, стоит заняться оптимизацией: помочь боту не тратить краулинговый бюджет зря и находить страницы, которые вам нужны. Обычно это проблема крупных проектов.

Осталось понять, достаточно ли большой у вас проект, чтобы нужно было беспокоиться о лимитах краулера. Оптимизаторы называют разные цифры по объему страниц. Одни говорят, что у сайта до 50 тысяч страниц и четкой структурой не должно быть проблем с индексированием, другие называют цифру в 10 тысяч страниц. Проще проверить.

Как определить, что у вас проблемы с краулинговым бюджетом:

  1. Найти, сколько страниц теоретически должно быть в индексе. Это страницы без тега noindex (актуален для Яндекса) и нет запрета в robots.txt.

  2. Соотнести количество проиндексированных страниц с тем, что теоретически должно быть в индексе. Эти данные можно посмотреть в консоли Google и Яндекс.Вебмастере.

  3. Если страниц, которые теоретически должны быть в индексе, во много раз больше, то есть проблемы.

Как посмотреть сканирование сайта поисковыми роботами

Динамика сайта

Динамику по обеим поисковым системам можно смотреть в сервисе Анализ сайта:

Сервис для просмотра индексации сайтаИндексация в Анализе сайта

В Яндекс.Вебмастере в разделе «Статистика обхода» можно посмотреть, какие страницы сайта обходит робот, а какие он не смог загрузить.

Работа краулера в Яндекс.ВебмастереСтатистика обхода в Яндекс.Вебмастере

В Google Search Console на вкладке Статистика сканирования можно увидеть общую картину — количество просканированных ботами страниц.

Сканирование страниц поисковым роботом в консолиЗапросы на сканирование страниц

Проблемы с индексацией могут повлечь и проблемы с ранжированием, а значит и с трафиком. Если вы заметили падение трафика, то проверьте данные отчета «Покрытие» в консоли Google. Нужно сравнить динамику изменения ранжирования и динамику на всех четырех вкладках отчета.

Сканирование страниц в Google Search ConsoleОтчет «Покрытие»

Особенно интересны разделы «Покрытие» — «Ошибки» и «Покрытие» — «Исключено». В «Исключено» будут страницы, которые Google считает некачественными: переадресации, закрытые от индексации и другие.

Список некачественных страниц сайтаСписок исключенных страниц

Проверка конкретной страницы

Узнать, на какой стадии конкретная страница, можно через Инструмент проверки URL. Он отобразит текущий статус индексирования страницы и даст знать, если что-то мешает обработке.

Проверить URL в инструменте GoogleПроверка URL

Инструмент проверяет последнюю проиндексированную версию страницы. Если после последнего сканирования страницу изменили или удалили, он это не отобразит. Кликните на «Проверить страницу на сайте», чтобы получить данные о текущей версии страницы.

Есть еще момент: инструмент не учитывает санкции поисковика и временную блокировку URL. Так что даже если вы видите в результатах проверки «URL есть в индексе Google», страницы может не быть в выдаче. Проверить, есть ли она там, очень просто — нужно загуглить ее URL.

Как проверить наличие URL в индексеURL есть в выдаче Google

Посмотреть на страницу глазами поискового бота можно с помощью этого бесплатного инструмента. Он покажет Header ответ, код, который видит бот, а также соберет в список внутренние и внешние ссылки и укажет, какие из них индексируются.

Посмотреть на страницу глазами поискового ботаФрагмент результатов работы инструмента

Серверные логи

Проверить краулинговый бюджет можно в серверных логах, там можно проследить за тем, какие страницы посещает краулер, увидеть маршруты и расписание обходов сайта. Новичку может быть сложно, но можно разобраться.

Искать логи нужно в файле access.log в системной папке сервера или через панель управления хостинга, но не все типы хостинга это позволяют.

Если вы смотрите на поведение бота Google, вам нужен GoogleBot, но не все, что так называется, действительно относится к ботам поисковика — Как убедиться, что сайт сканируется роботом Googlebot.

Анализировать данные лучше за большой промежуток, не менее месяца. Так получится выявить общие принципы: как часто появляется бот, смотрит ли он Карту сайта, какие URL обходит часто, а какие игнорирует, какие возникают ошибки. Игнорируемый раздел можно усилить внутренними и внешними ссылками.

Регулярно анализировать логи стоит владельцам сайтов, у которых больше 100 тыс страниц, поскольку за ними сложно уследить.

Ориентироваться на больших массивах данных удобнее через программы. Для анализа логов есть программы: LogViewer, Screaming Frog Log Analyzer, JetOctopus, Loggly, GoAccess и другие.

Материал по теме:
Анализируем лог-файл веб-сервера для выявления SEO-проблем

Эффективные способы оптимизировать краулинговый бюджет сайта

Увеличить лимит на сканирование можно только двумя способами:

  • выделить дополнительные ресурсы сервера для сканирования;

  • повысить ценность контента для пользователей.

Разберем, как веб-мастеру работать со вторым.

Ускорить загрузку страниц

Долгая загрузка сайта отнимает время поискового бота. Увеличить скорость сканирования нельзя без ускорения сайта.

Проверить скорость загрузки можно в сервисе Анализ сайта. Он проверяет загрузку онлайн в соответствии параметру Core Web Vitals, который Google начал использовать в 2021 году. Если со скоростью будут проблемы, сервис их покажет и посоветует, что делать:

Скорость загрузки онлайнФрагмент проверки скорости загрузки страницы

Проверить скорость сайта

Способов ускорения загрузки много, советуем посмотреть подборку материалов, в которой мы подробно разобрали самые эффективные.

Настроить Sitemap.xml

Обработать Карту сайта: очистить ее от дублей и ненужных ссылок с редиректами. В Карте должны быть только URL качественных страниц, которые нужны в индексе. Служебные там ни к чему.

Как составить файл Sitemap.xml правильно

Обработать robots.txt

Хоть это файл не с правилами, а рекомендациями для поисковых ботов, все равно он может повлиять на решение о сканировании. Чтобы роботы не тратили краулинговый бюджет на обработку страниц, которые не изменились со времени последнего сканирования, добавьте им значение last-modified.

Избавиться от редиректов

Очищайте длинные цепочки редиректов — это вредно и для пользователей, и для роботов-краулеров. Для пользователей увеличивается время загрузки итоговой страницы, приходится дольше ждать. Краулеры расходуют лимиты на редиректах, а если цепочка переадресаций затягивается, краулер может «потерять след» и не дойти до конечной страницы.

Разобраться с дублями контента

От дублей нужно избавиться, они в принципе бесполезны как пользователям, так и ботам. Поисковики не любят дублирующийся контент, роботы реже сканируют повторяющиеся страницы.

Выявить такие страницы поможет технический аудит. Проанализируйте совпадения и либо удалите более слабые страницы с повторениями, либо настройте редирект, если удалить не получится.

Настроить внутреннюю перелинковку

Бот назначает ссылкам приоритетность в сканировании в том числе по отдаленности страницы от главной. Чем меньше кликов нужно, чтобы перейти с главной до искомой страницы, тем она важнее. Поэтому важные для работы пользователей страницы располагайте ближе к главной.

Выстроить архитектуру сайта поможет материал 15 советов по seo-архитектуре сайта

Бот переходит по ссылкам на страницах и таким образом находит другие страницы,которые нужно просканировать. Кстати, это не позволяет запретить сканирование страницы в robots — если бот найдет ее по внутренним ссылкам, то может решить, что она важна, и добавить в свой список для сканирования.

Без внутренних ссылок на страницу боту будет проблематично на нее попасть, поэтому важно перелинковывать новые страницы с существующими.

Направление ссылочного веса по внутренним ссылкам подробно разобрали в статье Эффективная перелинковка: как работать с внутренними ссылками

Наращивать внешние ссылки

Также в определении приоритета страницы важен ее авторитет: чем больше качественных ссылок с релевантных площадок на нее ведет, тем она кажется важнее. Поэтому важные страницы нужно подпитывать ссылками с подходящих по теме площадок.

Без покупки обратных ссылок сложно обойтись, но есть и бесплатные способы, как можно их получить.

Проблемы с индексацией и советы о том, как ее ускорить, мы собрали в этом материале.

Как оптимизировать рендеринговый бюджет

Если вы используете динамические страницы, то нужно позаботиться о том, чтобы поисковым ботам было легко взаимодействовать и с ними. К индексированию добавляется рендеринг — «вторая волна индексирования», которая увеличивает время обработки страниц.

Рассмотрим, что можно внедрить, чтобы оптимизировать этот процесс.

Большую часть контента не визуализировать

JS-решения нужны не для всего контента, не усердствуйте с визуализацией, чтобы не перегружать страницы и дать роботу возможность понять большую часть смысла страницы при первом сканировании, до рендеринга.

Сократить JS

В коде часто бывает мусор: ненужные фрагменты, неиспользуемые библиотеки, разрывы и разделители. Можно уменьшить размер кода, то есть минифицировать JavaScript. Для минификации есть много бесплатных онлайн инструментов, ссылки и больше теории есть в статье.

Ускорить загрузку страницы

Нужно ускорить отображение контента, чтобы страница быстрее загружалась. Есть много возможностей, например, кэширование на длительный срок. Подойдет страницам, содержание которых нечасто изменяется.

Настройку кэширования и другие способы ускорить загрузку разобрали в этой же статье.

Применить динамическое отображение контента

Не все боты поисковиков могут обрабатывать JavaScript, и не все делают это быстро и качественно. Пока проблема существует, Google советует использовать динамический рендеринг.

Сервер должен распознавать поисковых роботов и при необходимости предоставлять им контент, уже обработанный на сервере — в виде HTML-страницы. Запросы от пользователей обрабатываются обычным образом как JS на стороне клиента. Динамический рендеринг можно настроить для всех страниц или только для некоторых.

О том, как это работает, Google рассказал в материале (на русском языке)

Беспокоиться о лимитах для краулеров нужно владельцам больших сайтов, если страницы долго не появляются в индексе. Проблемы с индексированием можно решить, для этого подойдут описанные в материале способы.

Расскажите в комментариях, какие способы мы зря не упомянули в статье? Что работает лучше всего по вашему опыту?

Источник

Google начнет платить новостным ресурсам Франции за контент

Летом мы уже рассказывали о планах Google монетизировать Google News для издателей в трех странах: Германии, Австралии и Бразилии. В октябре Google разместил в своем блоге новость о том, что в ближайшие три года собирается выплатить издателям более 1 млрд$, а число стран пополнилось Великобританией, Канадой и Аргентиной.

В прошлом апреле французский антимонопольный орган предписал Google выплачивать деньги местным издателям за их публикации в SERP. Накануне Google France и Alliance de la Presse d’Information Générale подписали соглашение об использовании публикаций для онлайн-прессы. Размер выплат определяют ежедневный объем публикаций, ежемесячная онлайн- аудитория и «вклад в политическую и общую информацию». Как сообщает управляющий директор Google France:

Это соглашение — важный шаг для Google. Это подтверждает нашу приверженность редакторам прессы в рамках французского закона о смежных правах. Это открывает новые перспективы для наших партнеров, и мы рады внести свой вклад в их развитие в эпоху цифровых технологий и поддержать журналистику

Однако с Австралией Google не смогли прийти к такому же соглашению. Google даже угрожает прекратить работу на территории Австралии, если она примет новое законодательство о поддержке местных СМИ. Закон разработала Австралийская комиссия по конкуренции и защиты прав потребителей (сокращенно АССС). Согласно ему, Google обяжут выплачивать деньги издателям не только за публикации в Google News, но и за показы в Поиске. По мнению Google это беспрецедентная мера, на которую они не могут пойти.

Напоминаем, что прошлым летом ACCC начала судебные разбирательства с Google из-за новой политики конфиденциальности. А ввиду того, что ЕС стала мировым лидером в области регулирования IT, крупнейшие корпорации стали инвестировать миллиарды евро для лоббирования своих интересов.

Источник

Яндекс добавил в AppMetrica новый отчет для подробного анализа конверсий

Новый отчет представляет из себя инфографику, с помощью которой можно пошагово отследить конверсию. С помощью такого наглядного графика можно сразу понять, что можно улучшить и внести коррективы в пользовательский сценарий.

При создании воронки вы можете указать до 10 шагов пользовательского сценария. Инфографика покажет, на каком этапе пользователи чаще всего «спотыкаются», чтобы улучшить форму и увеличить конверсии.

Воронки можно адаптировать под разные типы пользователей. Вы можете выбрать из уже существующих сегментов в AppMetrica либо же настроить собственные. Воронки можно сравнивать по типам устройств и аудиториям.

С помощью конструкции «И/ИЛИ» можно анализировать сложные задачи. Для примера Яндекс приводит Upsale-стратегию для продажи чехлов для телефонов:

  • Купил европейский ИЛИ китайский смартфон, а затем купил чехол: силиконовый И стоимостью меньше 2000 рублей.

  • Купил европейский ИЛИ китайский смартфон, а затем купил чехол: противоударный И стоимостью больше 2000 рублей.

Для каждой из этих комбинаций вы можете настроить воронку и выбрать наиболее конверсионную среди них.

Для каждого шага вы также можете указывать событие из AppMetrica. Сюда же входят условия, связанные с этим событием. Чтобы добавить условие, воспользуйтесь дополнительными настройками для создания воронки:

События между шагами позволят продолжать учитывать шаги по сценарию, если пользователь совершил действия, не входящие в воронку. Предположим, для обратной связи у вас стоит три шага: открытие меню, нажатие кнопки, заполнение формы. В случае, если у вас выбрано «Разрешено», сценарий засчитается, если пользователь оставил обратную связь, но выполнил лишнее по сценарию действие.

С помощью регистрации событий шаги перестают быть привязанными ко времени. Допустим, в один день пользователь посмотрел пробное занятие, а в другой уже оставил заявку на сайте. При выбранной регистрации событий эти оба события объединяются в одну конверсию.

Новый отчет уже доступен в AppMetrica, обновлять SDK для него не нужно. Больше подробности о настройках отчета и его функционале читайте в Документации.

Источник

В РФ введут систему штрафов за незаконную блокировку пользователей

Как сообщает Парламентская газета, Совет Федерации готовится принять заявление в связи с нарушениями свободы слова крупными интернет-корпорациями. Об этом сообщил председатель Комитета палаты по международным делам Константин Косачев. Первым с этой инициативой выступил сенатор Алексей Пушков, который возглавляет комиссию по информационной политике и взаимодействию со СМИ.

«Интернет-гиганты встали на путь широкой цензуры и произвольной и незаконной блокировки альтернативных платформ. Самое опасное, что решения принимаются по воле руководителей компаний, а не в согласии с нормами закона. Узурпация компаниями-гигантами интернет-пространства уже происходит в том числе для провоцирования политических кризисов», заявил Пушков.

Эти заявления были сделаны после блокировки аккаунтов Дональда Трампа в Facebook, Twitter и Google. А совсем недавно Facebook на сутки заблокировал аккаунт главы Роскосмоса Дмитрия Рогозина. По его словам, аккаунт заблокировали после комментария к посту бывшего посла США в России Майкла Макфола, где он высказался о демократии в России. Саму публикацию тоже скрыли.

В Совете считают, что их инициативу могут поддержать другие страны, сражающиеся с цифровым превосходством корпораций. В частности, Пушков отметил, что Австралия может присоединиться к нашей инициативе из-за ее нынешнего спора с Google. Совет Федерации также рассчитывает найти союзников в Европе, о чем было сказано в заявлении.

Источник

Adblock
detector