3 способа монетизировать сайт с минимальным количеством посетителей без РСЯ и AdSense

Партнерский материал

ProTraffic пишет о том, как зарабатывать на партнерском маркетинге, делать сайты под CPA и использовать все доступные источники трафика на максимум. 

Все, что вам понадобится для заработка способами из этой статьи — это свой информационный проект и какой-никакой трафик, хотя бы 400-500 уников в месяц.

⭐️ Эти методы не зайдут на старых инфосайтах, собранных из рерайтов рерайта, такие годятся только ссылки продавать. Речь о нормальных СДЛ-ах, пусть даже и с небольшим трафиком. Ресурс должен быть для людей — тогда и деньги появятся.

Почему не РСЯ и не Adsense

Те, кто работает с инфосайтами, уже в курсе, как резко рухнул доход в период пандемии. И если Adsense не вызывает особых нареканий, то РСЯ все еще не может оправиться от коронавирусного удара. Многие вебмастера закругляются, продают сайты или уходят в Adsense. Это, конечно, хорошо: рекламная сеть Google все еще стабильный и неплохой источник дохода.

Однако суть истории с РСЯ и AdSense в том, что веб-мастер никак не может повлиять на уровень заработка. Разве что менять местами блоки и делать больше контента. На деле же выжать из сайта максимум гораздо проще и на это не потребуется много времени. Например, можно зарегистрироваться в партнерских программах и продвигать тематические офферы на своем ресурсе. Чтобы не быть голословными, разберемся на реальном примере. 

Ситуация: есть сайт про мобильные и компьютерные игры. Аудитория у нас достаточно дешевая и с РСЯ капают совсем копейки. Посещаемость — 300 уников в день, владелец сайта любит свой проект, пишет в него интересные, хорошенько оптимизированные материалы с уникальными картинками и видео. При этом и аудитория откликается неплохо — людям нравится читать, они добавляют сайт в закладки и качают поведенческие факторы.

Проблема: из-за дешевизны ЦА сайт не приносит желаемого дохода. А ты ведь душу в него вкладываешь!

Ниже — все варианты решения этих проблем.

Баннеры

Получать по 10-15 рублей в сутки с баннеров РСЯ — такое себе удовольствие. А что, если заменить парочку блоков на собственные баннеры? Например, рекламу какой-нибудь популярной или только появившейся игрушки. Мы потестировали такую историю на сайте с обзорами и хинтами по мобильным и компьютерным играм.

  • Оффер: MMORPG Astellia
  • ГЕО: СНГ
  • Срок: месяц

Не смотрите на кол-во кликов — там вперемешку с другими источниками

Сайт принес 17 регистраций и 0 рублей. А все потому, что мы выбрали неправильный оффер — с оплатой за активного игрока.

Совет#1: Для информационных сайтов выбирайте офферы с простым целевым действием — регистрация, единовременная покупка, скачивание. Их еще называют SOI-офферы. Такие будут конвертить лучше. В нашем случае мы взяли DOI — с оплатой за каждого юзера, который зарегистрируется, скачает и зайдет в игру. И облажались.

Теперь берем на тест оффер с оплатой за регистрацию: пользователю достаточно лишь оставить свою почту и придумать пароль.

  • Оффер: World of Tanks
  • ГЕО: СНГ
  • Срок: 10 дней

Получаем 1154 рублей чистыми и еще немного в холде. Выходит, что сайт с 300 униками в день может приносить по 4500 рублей в месяц с одного баннера на главной и одного сайдбара.

В общем, можно с уверенностью сказать, что даже самые простые баннеры принесут деньги, если информационный проект классный и делается для людей. Пусть и не для такой большой аудитории, как хотелось бы.

Офферная монетизация контента

Вы наверняка видели разного качества нативные материалы в больших изданиях: «5 способов не подавиться чаем» и марка чая, которой точно никто не давится, и все в таком духе. Большинство веб-мастеров считают, что это история крупных медиа, и на инфосайтах такое не зайдет. Отчасти они правы.

Если ресурс построен на древнейшем прототипе «Нарерайчу и возьму количеством», нативка действительно окажется бесполезна. Ведь все эти статьи читать не интересно, и пользователь не станет тратить на них свое драгоценное время. Но есть и другие инфосайты, цель которых — помочь людям, и уже потом заработать на этом. В таких проектах нативка может выстрелить даже при наших 300 униках в день.

И самое главное — у нас есть партнерские программы, а значит не нужно искать рекламодателей, их нам предоставят. Возникает вопрос: какую нативку делать на сайте про компьютерные игры? Несколько идей:

  • 10 смартфонов до 9999 рублей, которые потянут современные игрушки;
  • Лучшие гаджеты для комфортной игры на AliExpress дешевле 1000 рублей;
  • Выбираем компьютерную мышь: чем пользуются киберспортсмены и сколько это стоит на самом деле.

Ну и так далее. Схема простая: пишем интересный материал → добавляем в него ссылки, которые мы взяли в партнерке → публикуем → ставим линки на этот материал с наиболее читаемых статей на сайте.

В целом, все. Можно даже не оптимизировать эти подборки под SEO: достаточно того, что все материалы на вашем сайте полезные и написаны для людей. Только в таком случае все эти пользователи будут переходить и читать другие статьи, доверять вам, оформлять заказы по вашим ссылкам.

Протестировать такое за 10 дней, как в случае с баннерами, не выйдет. Однако предлагаем вдохновиться примером коллег из издания «Лайфхакер»:

Лайфхакер со временем стали цеплять не только Алиэкспресс, но и другие топовые маркетплейсы. Даже целую рубрику под это дело отвели

А масштабироваться еще проще: ставьте производство контента на поток, актуализируйте старые статьи с партнерскими ссылками и добавляйте новые. Но не будьте назойливы, а то останетесь без дохода. 

Почитать по теме:
5 фатальных ошибок монетизации сайта и как их избежать 💰

Рейтинги и обзоры

Вариант номер три не менее бодрый и нативный, но немного отличается от предыдущего. Объяснять на пальцах слишком долго, давайте вернемся к нашему сайту:

На повестке достаточно высокочастотная тема про MMORPG. Таких запросов очень много каждый год, внутри статьи — 10 игр с обзорами, комментариями игроков, трейлерами, системными требованиями и так далее. То есть в материале есть все, чтобы потенциальный геймер принял решение: качать и пробовать игру или нет.

Как эта же статья выглядит с нашей стороны: большинство MMORPG есть в партнерках, где можно подключить себе офферы и получать деньги за каждую регистрацию. Выходит, у владельца сайта двойная мотивация — и людям приятно сделать, и на все вопросы ответить, чтобы получить деньги за каждую регистрацию.

И таких примеров множество: рейтинги сайтов знакомств (дейтинг), подборки онлайн-курсов (образование), ТОПы ножеточек (товарка). Если заморочиться, вполне возможно адаптировать этот вид контента под свою нишу и аудиторию. Более упрощенный пример — это подробный разбор одного конкретного оффера (в нашем случае — компьютерной игры). Главное здесь не переборщить с описаниями и «‎продающим текстом» и не дать читателю заскучать.

По деньгам тоже по-разному: за регистрации в браузерных или MMORPG платят по 1-2 долларов, за ножеточку можно получить сразу 10 долларов, а за покупку онлайн-курса все 20000 рублей. И вновь повторимся, что для такой монетизации нам не нужна аудитория — мы работаем не на количество, а на качество.

Хотите узнать больше?

Приходите на ProTraffic Marathon — это бесплатный ивент для владельцев сайтов, арбитражников, веб-мастеров и тех, кто только постигает азы заработка на партнерском маркетинге и SEO. В течение 10 дней мы вместе научимся делать такие сайты, которые берут качеством и приносят доход. Для тех же, у кого есть свои проекты, выступят Денис Нарижный и Степа WebNavoz с практическими докладами по монетизации и созданию информационных проектов в 2020 году. То, о чем мы рассказали выше, только более наглядно и с пошаговой инструкцией к действию.

А еще у всех участников марафона есть шанс выиграть 100+ призов общей суммой в 7000 долларов, брендированный кальян, секретные подарки от спикеров и много полезных ништяков, которые пригодятся в работе и на отдыхе!

Регистрируйся на лучший практический ивент уходящего лета!

Источник

Instagram-продвижение обособляется от Facebook

На данный момент уже существующие компании будут существовать в привычном режиме за тем лишь исключением, что исчезнет необходимость использовать Facebook Ads Manager. Управлять рекламной компанией и отслеживать её эффективность теперь можно прямо через приложение. А для всех новых пользователей, продвигающих свой аккаунт в Instagram, привязка к аккаунту Facebook исчезнет вовсе.

Для того, чтобы проверить, связан ли ваш бизнес-аккаунт Instagram и Facebook нужно сделать следующее:

  1. Перейти в свой профиль, нажать значок в правом верхнем углу.
  2. Перейти в Настройки .
  3. Затем в Платежи.
  4. В разделе «Ваш Аккаунт» отобразится номер или имя.

В случае, если указан номер, ваш аккаунт не связан с профилем Facebook. Если же там указано имя, то скорее всего, вы уже их связали.

Для всех новых аккаунтов, не связанных с Facebook действует следующий способ продвижения публикаций:

  1. Перейти в свой профиль.
  2. Выбрать нужную публикацию.
  3. Нажать кнопку Продвигать.
  4. Задать настройки продвижения (целевую страницу, аудиторию, бюджет и продолжительность).
  5. В разделе «Проверка» нажать кнопку Создать промоакцию.

После этого объявление проходит проверку Правил рекламной деятельности Instagram. В среднем, она занимает около 60 минут. Реклама будет запущена, как только администрация одобрит её.

Напоминаем, что в прошлом месяце Instagram запустил новый раздел с товарами.

Источник

Как ускорить индексацию сайта в Яндексе и Google

В статье:

  1. Проблемы с индексацией сайта в ПС

  2. Как ускорить индексацию страниц

  3. FAQ: что влияет на скорость индексации сайта

Быстрое индексирование страниц — это хорошо. Чем быстрее страница займет место в выдаче поисковой системы, тем быстрее ее смогут увидеть пользователи. А также эта страница с большей вероятностью будет считаться первоисточником контента, который на ней находится.

К сожалению, нельзя точно сказать, когда боты поисковых систем просканируют страницу и она появится в выдаче — это зависит от размера и оптимизации сайта.

Частые проблемы с индексацией сайта в ПС

Страницы вообще не индексируются

Если роботы и Яндекса, и Google игнорируют страницы сайта, нужно убедиться, что ботам не запретили обход. Проверьте настройки хостинга и файл robots.txt — там не должно быть запрета на индексацию.

Страницы не индексируются одним из поисковиков

Если либо Google, либо Яндекс не индексируют страницы сайта, проблема может быть в санкциях от этого поисковика. Нужно определить, какие санкции лежат на сайте, и исправить ошибки. Помогут материалы о санкциях Яндекса и фильтрах Google.

Страницы индексируются, но долго

Если приходится долго ждать индексации новых страниц, вариантов может быть много: контент редко обновляется и поэтому боты редко его посещают, страницы не оптимизированы, не участвуют в перелинковке или что-то еще.

Посмотреть динамику индексации страниц и наличие фильтров можно в Анализе сайта:

Проверить индексирование страницИндексация и санкции ПС в Анализе сайта

Итак, если страницы не индексируются, то проверьте ограничения, если игнор от одного из ПС, то возможны санкции, а если индексирование идет, но долго, это повод попытаться его ускорить. Посмотрим, что можно сделать.

Как ускорить индексацию страниц

Представитель Google Джон Мюллер на вопрос об индексировании ответил так:

«Лучший способ улучшить процесс индексирования – создавать превосходный, а значит уникальный и убедительный контент. Именно в нем должны нуждаться пользователи, именно его они затем будут рекомендовать другим. Нужно также понимать, что поисковые системы не индексируют абсолютно все, что выложено в сети».

Создавайте превосходный контент, а если ваш контент плохо индексируется, то он недостаточно превосходный 🙂 Это все, конечно, хорошо, но давайте посмотрим, что конкретно можно сделать, чтобы ускорить процесс.

Отправить страницу на переобход

Можно дополнительно обратить внимание поисковиков на конкретные URL. В Google Search Console и Яндекс.Вебмастер найдите переобход страниц и отправьте нужные URL на индексацию.

В Яндекс.Вебмастере это раздел Индексирование — Переобход страниц. В консоли Google это Инструмент проверки URL.

Проверить разрешения в robots.txt

В файле robots.txt веб-мастер прописывает рекомендации для поисковых ботов Яндекса и Google. Можно запретить ботам посещать некоторые страницы, для этого есть директива «disallow», «nofollow», можно использовать мета-тег «noindex» или «none». Тогда при следующем посещении сайта бот увидит запрет и может к нему прислушаться. А может и не прислушаться.

Как говорит Ксения Пескова, SEO-TeamLead в Siteclinic:

«Если вы закроете сканирование в файле robots.txt — это всё равно может не уберечь от индексации страницы, так как в файле мы запрещаем сканирование, и это всего лишь рекомендации, а не прямое указание».

В любом случае, лучше проверить файл robots, вдруг там стоят запреты, к которым прислушались боты поисковых систем.

Создать Sitemap — Карту сайта

Карта сайта помогает поисковым ботам понять структуру ресурса и обнаруживать обновления контента.

Почитать по теме:
Карта сайта (файл Sitemap) от А до Я

Для ускорения индексации карту можно сделать динамической, то есть по мере создания новых страниц она сама будет обновляться. Для проектов на конструкторах сайтов, например, на WIX и Tilda, карта по умолчанию динамическая, для других CMS есть плагины и отдельные сервисы. К примеру, на WordPress с этой задачей справится All in One SEO Pack.

Можно обновить файл Sitemap вручную. Обновленные страницы Google рекомендует отметить в Карте тегом . Обновленный файл отправьте с помощью специального отчета. Не стоит загружать один и тот же файл повторно: если вы ничего не поменяли в Карте сайта, никаких изменений не будет.

Но опять же, ссылки в Карте сайта — это рекомендации, важнее создать грамотную структуру сайта и организовать внутреннюю перелинковку.

Проверить структуру и перелинковку разделов

На сайте не должно быть страниц, оторванных от других. Если на страницу не ведут ссылки с категорий, разделов и других страниц, поисковикам сложнее определить ее релевантность и неоткуда перейти на нее для сканирования. Такие страницы называют сиротами.

Страница без ссылок в структуреСтраница-сирота в структуре сайта

Нужно встроить их в структуру сайта. К примеру, в этой схеме каждая страница имеет ссылку с родительской категории, но они вполне могут линковаться и между собой:

Грамотная структура сайтаУпрощенный пример структуры сайта, подходит для меню

Еще один момент, который влияет на поведение бота — это Click Distance from Index (DFI), то есть количество кликов от главной до текущей страницы. Чем оно меньше, тем важнее считается страница, тем больший приоритет она получит с точки зрения бота. Приоритетные страницы он смотрит первее остальных.

DFI не определяется по числу директорий в URL, они могут не совпадать. Например, если на главной странице будет ссылка на хит продаж — конкретную модель холодильника Atlant, то DFI будет равен двум. Но при этом карточка модели может находиться в каталоге и подразделе каталога, тогда директорий будет больше — site.com/shop/refrigerator/one_chamber_refrigerators/atlant/h_1401_100.

Если страница не индексируется, проверьте ее расположение в структуре сайта и количество кликов до нее с главной.

Взять за правило обновлять контент

Поисковики ценят, когда веб-мастер следит за актуальностью контента, исправляет его и добавляет что-то новое. Регулярно обновляющийся сайт бот будет чаще сканировать. Чем реже обновлять контент, тем реже боту понадобится его перепроверять.

Сотрудник Google советовал добавлять на страницу видео с Youtube, если странице нечего добавить и содержание еще актуально. Поведенческие улучшатся за счет просмотра видео, на странице появится новый формат контента — это тоже хороший сигнал для поисковика.

Публиковать ссылки в соцсетях и на других площадках

Если вы ведете страницы в социальных сетях, размещайте на них анонсы ваших новых материалов. С помощью разметки OpenGraph можно задать ссылке красивое превью с нужной картинкой и заголовком, и получить переходы пользователей на страницу.

Сссылка с сайта в соцсетяхПревью поста с сайта на Фейсбуке

Найдите сторонние площадки по вашей тематике, где можно оставлять ссылки или публиковать посты, и размещайте таким образом ссылки на новые материалы. Ссылки должны быть естественными и подходить по теме. Используйте пресс-релизы, форумы, другие соцсети, отзовики, сервисы вопросов и ответов и другие площадки.

Ускорить загрузку сайта

Ограничивать индексацию может долгий ответ сервера. По словам Джона Мюллера из Google, сли в среднем это время составляет больше одной секунды, Google не будет сканировать столько страниц, сколько мог бы.

Медленная загрузка страниц вредит им по всем параметрам: пользователи не ждут, ПС считают некачественными, могут даже понизить сайт в выдаче, если сайт в принципе медленный.

По ускорению у нас есть подробные материалы о том, как оптимизировать код верхней части страницы, использовать сжатие gzip, brotli и минификацию кода, оптимизировать изображения.

Многое из перечисленного можно проверить на сайте автоматически. Поможет сервис «Анализ сайта»: проверит сайт по 70+ тестам, оценит и главную, и внутренние страницы, найдет ошибки и даст советы по исправлению.

Проверить сайтФрагмент анализа сайта

Многие функции сервиса и графики доступны на платных тарифах Анализа, но вы можете попробовать неделю бесплатно и оценить все возможности.

До конца лета на любой тариф «Анализа сайта» действует скидка 30% по промокоду LAST_DAYS.
Промокод сработает сразу при переходе на страницу —> Купить со скидкой

FAQ: что еще влияет на скорость индексации сайта

Как страницы вне индекса могут повлиять на отношение поисковика к сайту?

Качество контента на сайте поисковики оценивают только по проиндексированным страницам.

Тег noindex может влиять на индексацию страницы после его снятия?

По словам Джона Мюллера из Google, у веб-мастера не будет проблем с реиндексацией URL, на которых когда-то был noindex.

Как редирект влияет на индексацию страниц?

Джон Мюллер утверждает, что поисковик скорее всего не проиндексирует конечный URL при использовании ссылок с 301 редиректом.

Как ускорить индексацию страниц, которые были 404?

Если адрес страницы отдавал 404 и не был индексирован, на индексирование может потребоваться некоторое время. Как советуют Seroundtable, можно создать новый URL для этого контента и настроить 301 редирект со старого адреса, либо запросить повторное сканирование URL.

Как поисковики относятся к URL c хэшами?

URL с хешами поисковик не проиндексирует. То есть ссылка https://site.ru/news/p/statya проиндексируется, а ссылка на конкретную часть статьи — https://site.ru/news/p/statya#step — нет.

Расскажите в комментариях, что мы упустили в материале, какие способы ускорить попадание в индекс используете вы.

Источник

Большое интервью с Джоном Мюллером (часть первая)

К Джону Мюллеру, SEO-аналитику из Google, веб-мастера и сеошники относятся по-разному (не пропустите вторую часть, где мы представим любопытную статистику по этому поводу). Одни следуют его подсказкам безоговорочно, полагая, что сотрудник Google плохого не посоветует. Другие, наоборот, игнорируют его рекомендации, считая Джона недостоверным источником, который либо не знает, что говорит, либо не говорит, что знает.

Мы принадлежим к третьей группе слушателей, убежденных, что спикер Google заслуживает должного внимания. Знать позицию Google по тем или иным вопросам поисковой оптимизации нужно. Не только знать, но и критически переосмысливать, делать собственные выводы, которые в итоге пойдут на пользу сайту.

Недавно Гуглмен стал гостем Мари Хейнс, известной канадской сеошницы, которой в интервью рассказал много познавательного о поиске и не только. Сегодня предлагаем вашему вниманию адаптированный перевод первой части подкаста.

Итак, Джон, все мы знаем, что вы работаете аналитиком в Google Webmaster Trends. Как долго вы с поисковой системой?

Джон: Что-то около 12-13 лет, если мне не изменяет память.

Да, я помню, как в 2008 году зависала на разных SEO-форумах и в какой-то момент впервые наткнулась на ваши ролики помощи веб-мастерам. Уже тогда Google пытался просвещать SEO-сообщество. Примите от всех нас слова огромной благодарности за все эти годы содействия в нашем нелегком деле.

Но ближе к делу. Предлагаю начать нашу предметную беседу с несерьезного вопроса – что это за история с сыром и бананами?

Джон: Хм, это то, чем меня время от времени до сих пор подкалывают коллеги. История следующая. Мое сообщение про сыр было одним из первых в Твиттере. Кажется, мы тогда с Гари Илшем пили кофе и он вдруг сказал, что появилась новая социальная сеть – Twitter. И как бы надо было протестировать… Он отлучился и сделал это от моего имени, запостив пробный твит о том, что я люблю сыр. К слову, в этом нет ничего удивительного, так как я живу и работаю в Швейцарии.

Что касается бананов, то дело было так. Я планировал впервые протестировать работу сервиса Google Trends. Какое слово выбрать для анализа? Первое, что пришло на ум – бананы. После такого решения я начал получать кучу писем на почту о всех взлетах и падениях запроса «бананы» в нашем поиске. Кстати, они до сих пор мне приходят.

Забавная история! А теперь о серьезном – с прошлого года, когда вы представили новые ссылочные атрибуты, SEO-комьюнити не может найти себе покоя. Многие мои клиенты задаются вопросом, как теперь вы относитесь к nofollow-бэклинкам? Человек, например, переживает, что будет, если какой-то донор поставил на его сайт спамный линк, но при этом использовал атрибут rel=»nofollow»?

Джон: Здесь не о чем беспокоиться в принципе, поскольку мы не используем внешние ссылки с nofollow для каких-то негативных действий. Да, иногда они помогают нам найти и проиндексировать новый контент в сети. Однако нет такого, чтобы мы посмотрели на бэклинк с rel=»nofollow» и сказали, что он соответствует каким-то критериям, а потому мы будем учитывать его вес полностью. Равно как нет и обратной ситуации, когда нам такой линк не понравился, а потому это будет иметь для сайта какие-то плачевные последствия.

Вывод: если есть какие-то обратные ссылки на ваш ресурс, которые вам по каким-то причинам не нравятся, но при этом такие бэклинки закрыты названным атрибутом, тогда все чудесно.

То есть, мы правильно советуем нашим клиентам, что не нужно тратить время и отклонять такие закрытые от индексации бэклинки?

Джон: Абсолютно.

Давайте тогда детальнее поговорим об инструменте отклонения внешних ссылок – Disavow Tool. Однажды мы уже обсуждали с вами этот вопрос и пришли к выводу, что отклонять неестественные бэклинки нужно сайтам, к которым применяются ручные санкции Google. Но у клиентов остается вопрос: неужели другим ресурсам, без ручных санкций, пользоваться Disavow Tool не нужно в принципе?

Джон: На мой взгляд, лишь в двух случаях отклонение обратных ссылок является целесообразным. Во-первых, можно сыграть на опережение. Допустим, в прошлом ваш сайт продвигал некий сеошник, который не гнушался «черными» методами раскрутки, в том числе и покупкой внешних ссылок, хаотичным постингом бэклинков на форумах или прочих подобных площадках. Вполне вероятно, что за такие нарушения наших правил мы еще не успели наложить ручные санкции. Однако это не значит, что такого не произойдет завтра, послезавтра или через месяц. И вот тут сознательный владелец сайта, обнаруживший целую кучу неестественных обратных ссылок на свой ресурс, может добавить их в Disavow-файл.

Во-вторых, с помощью отклонения можно попытаться помочь нашим алгоритмам. Да, мы не раз заявляли о том, что они умеют игнорировать некачественные бэклинки. Впрочем, если у вас нет полной уверенности в том, что мы автоматически их проигнорируем, тогда есть смысл отклонить их вручную, используя названный инструмент.

Тогда следующий вопрос в продолжение темы. Можем ли мы благодаря правильному и своевременному использованию Disavow Tool добиться лучших позиций для сайта в Google SERP, нарастить его трафик? Приведу пример. Мы с моей командой не раз работали с веб-проектами, у которых не было ручных санкций, но мы все равно добавляли определенные внешние ссылки в Disavow-файл. После этого через несколько недель или даже месяцев у таких сайтов резко вырастал трафик, видимость в поиске заметно улучшалась. Первая наша мысль – это все потому, что в свое время мы грамотно почистили ссылочный профиль, отклонив плохие линки.

Джон: Мне кажется, что такое развитие событий маловероятно. Теоретически, конечно, возможно и такое представить, но в подавляющем большинстве случаев такие бэклинки не способны влиять на видимость ресурса в Google SERP. Скорее всего, те перемены в лучшую сторону, о которых вы говорите, могли стать следствием апдейтов поисковой выдачи Google, изменения экосистемы интернета в целом.

Хорошо, а как тогда посоветуете действовать в следующей ситуации? Есть сайт под ручными санкциями из-за некачественных бэклинков, который по основным ключевикам продолжает довольно хорошо ранжироваться в Google. Более того, все его неестественные внешние ссылки размещаются исключительно на авторитетных площадках в читабельных статьях. Как нам убедить веб-мастера заняться масштабной чисткой ссылочного профиля, если он видит не только недостатки, но и явные преимущества для своего проекта в данный период времени?

Джон: Трудно дать совет, когда вы утверждаете, что позиции по основным ключевым словам остаются высокими. Наверное, рекомендации должны быть общими для сайтов под ручными санкциями – для начала необходимо по максимуму очистить ссылочный профиль ресурса от таких линков, используя Disavow Tool. Но если речь о добротных статьях, которые читают люди и по ссылкам из которых переходят на обсуждаемый сайт, тогда можно попробовать применить к ним атрибут rel=»nofollow». Конечно, если донорская площадка пойдет на это. Такие действия сообщат нашей команде по борьбе с веб-спамом, что сайт стал на путь исправления и ручные санкции к нему можно отменять.

Вообще-то тема наложения и последующего снятия ручных санкций очень интересна сама по себе. Не могли бы вы поделиться с нами как все это происходит? Скажем, у вас есть какой-то ответственный сотрудник в команде по борьбе с веб-спамом, который просматривает и оценивает сайты, предпринятые ими действия по устранению замечаний? Или это многоуровневый процесс, когда кто-то принимает решение сначала, а потом передает конкретный кейс вышестоящему начальству?

Джон: Все зависит от того, насколько серьезным и комплексным является конкретный случай. Когда рассматриваемый кейс имеет влияние на значительную часть сети, то в такой ситуации сотрудники команды по борьбе с веб-спамом вполне могут обратиться за консультациями к специалистам из других отделов. Такой подход помогает получить иную точку зрения касательно проблемы.

При получении запроса от веб-мастера на пересмотр сайта для снятия ручных санкций может быть и такая ситуация. В первый раз попавший под санкции ресурс анализировал один сотрудник, а сообщение о пересмотре попало в руки другому. В такой ситуации мы вынуждены привлекать первого, чтобы он оценил изменения и дал добро на снятие санкций.

В целом же я должен признать, что пересмотр сайта – очень непростая работа, поскольку решение нам нужно принимать субъективно. Например, с неестественными бэклинками или низкокачественным контентом часто бывает, что мы видим позитивные изменения на сайте, но достаточно ли их? Как количественно подсчитать, все ли должное владелец сайта предпринял? Однозначного ответа тут, увы, быть не может.

После ваших слов у меня такое чувство, что мы должны настраивать наших клиентов, сайты которых попали под ручные санкции, что главное для них – убедить вашу команду по борьбе с веб-спамом, что есть четкое понимание проблемы и предпринимаются важные шаги по ее устранению. И что больше никогда ничего против правил Google делаться не будет…

Движемся дальше. Однажды вы говорили, что когда Google оценивает общее качество сайта, то учитываются все проиндексированные поисковиком страницы. Предположим, есть большой портал, у которого 100 тыс. страниц в индексе Google. Однако со временем значительная их часть утратила полностью или частично свою актуальность. Поможет ли в такой ситуации использование noindex или редирект на более релевантный контент? То есть, можно ли таким образом снизить количество известных Google страниц, но при этом повысить общее качество сайта в понимании поисковой машины?

Джон: Да, веб-мастера часто задают нам подобные вопросы. Тут дело в том, что мы по-разному оцениваем контент на сайте. Для владельца ресурса все его страницы чаще всего равнозначны, а для Google – нет. В нашем понимании одни URL-адреса могут быть более ценными, а другие менее. И это нормально.

Постараюсь привести пример. Допустим, есть веб-ресурс, посвященный концертным мероприятиям. Портал добротный, с качественным контентом, который регулярно притягивает к себе внимание целевой аудитории. При этом на сайте также имеется календарь событий вплоть до 9999 года. Естественно, что никаких событий, если кликнуть на дату в далеком будущем, пока не запланировано – перед вами откроется банально пустая, нерелевантная страница. И таких страниц у такого сайта может быть 90%! Значит ли это, что такой ресурс автоматически не соответствует нашим критериям, а потому такие URL нужно убрать? Конечно же, нет, так как мы стараемся находить и фокусировать наше внимание на самых важных в данный момент страницах сайта, показывая именно их в поисковой выдаче. Скажем, это могут быть страницы о концертах, которые уже состоялись, проходят прямо сейчас или запланированы в ближайшее время.

То есть, я хочу сказать, что не нужно зацикливаться на общем количестве страниц. Важно понимать, какие из них представляют наибольшую ценность для проекта в конкретный момент времени. Зная это, необходимо наполнять такие URL-адреса качественным контентом.

Спасибо, это очень ценная информация, особенно если учесть, что системы управления контентом сайта (CMS) часто самовольно создают множество отдельных, а потому ненужных URL с изображениями, которые впоследствии засоряют индекс Google. Может все-таки нужно удалять такие страницы, чтобы повысить качество сайта в целом?

Джон: Честно, я не знаю. Если учесть, что наши алгоритмы игнорируют такой контент автоматически, о чем я упомянул выше, тогда в этом нет особой надобности. С другой стороны, такие случайные страницы могут отвлекать работу старательного Гуглбота, который вместо поиска и сканирования действительно важных URL-адресов сайта будет вынужден тратить время на информационный мусор. С этой позиции может и нужно.

Продолжение следует…

Источник

Большое интервью с Джоном Мюллером (часть вторая)

Начинать читать лучше после ознакомления с первой частью интервью по этой ссылке.

А как тогда сегодня обстоят дела с небольшими сайтами? В прошлом, как известно, часто звучали призывы к владельцам авторских веб-проектов ежедневно наполнять их контентом. В итоге в сети появилось множество блогов с весьма сомнительным содержанием. О кофе, который я пью, о бананах, которые ем, и прочем в таком же духе.

И вот блогер одумался, решив, что низкопробного, проходного контента больше не будет. Владелец сайта даже готов оптимизировать его, закрыв для индексации те старые посты, которые никогда никого не интересовали. Как в таком случае поведет себя Google – по-новому оценит общее качество проекта? Или вашему поисковику не интересны такие изменения и он будет концентрировать свое внимание на новом контенте?

Джон: Мне кажется, что использование noindex для старого контента в этом случае не принесет каких-либо заметных изменений, особенно если у вас на сайте достаточно качественных материалов. Рассмотрим пример сайта газеты. Ежедневно такой ресурс публикует, скажем, двадцать новостей. Спустя неделю девятнадцать из этих материалов объективно утрачивают свою релевантность. Впрочем, это не означает, что такой неактуальный контент нужно непременно закрывать от индексации. Достаточно перенести его в архив. Избавляться полностью от него не нужно.

Ясно. А не могли бы вы тогда рассказать, как именно Google оценивает качество ресурса? Какой тип контента вы считаете высококачественным? Используете ли вы алгоритм BERT, чтобы лучше разбираться в качестве контента?

Джон: Вряд ли этот вопрос ко мне, поскольку я отвечаю не совсем за это. Про BERT могу подтвердить – это алгоритм, который позволяет Google лучше разбираться в контенте. Не столько в его качестве, сколько в том, о чем он. Про что это предложение или поисковый запрос, какие связи между ними существуют и т.д.

И вот тут, скорее всего, мы подходим к пониманию качества контента. Иногда манера изложения такова, что мы не можем правильно понять, что именно хотел сказать, донести до целевой аудитории автор. В такой ситуации BERT в какой-то мере признает свое бессилие. Не потому, что анализируемый контент плох, а потому что алгоритм не знает, что с ним делать дальше.

Это показательно в случае с SEO-копирайтингом, когда автор наполняет предложения огромным количеством ключевых слов и их синонимов. В итоге появляется текст, который и текстом-то в нормальном смысле слова назвать нельзя. Какая идея в нем первостепенна, о чем речь вообще, на чем сделать главное ударение? BERT не знает ответа.

Спасибо, следуем дальше. Допустим, есть торговая площадка, где на странице с товаром в самом низу присутствует огромный SEO-текст. По сути, это простыня текста с обилием ключевых слов, созданная сугубо для поисковых роботов. Покупатели онлайн-магазина вряд ли когда-либо обращают внимание на такой нечитабельный контент. Как поступит BERT в такой ситуации? Попробует разобраться, на какие поисковые запросы такая страница отвечает лучше всего? Или просто умоет руки, а Google в целом примет решение, что этот URL-адрес переоптимизирован ключами, а потому должен быть понижен в выдаче?

Джон: Мне не часто приходится видеть такое, но очевидно, что речь идет о чрезмерном насыщении текста ключевыми словами. Обнаружив подобное, наши алгоритмы быстро поймут, что перед ними не статья из Википедии, а бессвязный текст, напичканный ключевиками. К чему это приведет? Будет принято решение весьма осмотрительно подходить к ранжированию такой страницы.

А вообще, любителям такой неудачной SEO-оптимизации я бы посоветовал следующее. Сегодня в сети достаточно информации о том, как устроены в том числе и наши алгоритмы по оценке текста. Есть даже готовые инструменты проверки. Возьмите и протестируйте свой переоптимизированный ключами текст с их помощью. Попробуйте узнать, по силам ли алгоритмам разобраться в содержании такого спамного контента? Вряд ли после этого вы будете использовать подобные методики продвижения.

BERT способен понимать смысл текста не только на странице, но и в самом поисковом запросе, правда?

Джон: Совершенно верно.

Тогда такой вопрос – что будет, если алгоритмы Google, проанализировав пользовательский запрос, определили, что он относится к числу коммерческих? Значит ли это, что вы автоматически по такому запросу будете ранжировать исключительно коммерческие сайты? Или в Google SERP все же останется место для информационных ресурсов?

Джон: На мой взгляд, в результатах поиска будут и те, и другие сайты. Все дело в том, что как бы хорошо не работали наши алгоритмы, как бы точно они не определяли поисковые запросы, всегда останется место для вариаций. Особенно если учесть, что ежедневно мы обрабатываем до 15% совершенно новых поисковых запросов, на которые у нас априори не может быть заготовленных ответов.

Давайте поговорим о дорвеях. Представим ситуацию, ко мне приходит клиент, бизнес которого оперирует в 50-100 городах. У этого человека дилемма. С одной стороны, ему нужна уникальная приветственная страница для каждого города. С другой, перечень услуг, которые он предоставляет, одинаковый для каждого города. Как посмотрит Google на то, что под каждый населенный пункт будет создана своя собственная страница, с которой и будет осуществляться переход к основному контенту? Или есть способ обойтись без дорвеев?

Джон: Я считаю, что дорвеев быть не должно. Конечно, может казаться, что вашему веб-проекту без них не обойтись, но если разобраться, то смысловая нагрузка таких страниц стремится к нулю. Несмотря на это, я допускаю, что иногда основной сайт и его дорвеи могут ранжироваться довольно высоко. Но не стоит забывать, что в один прекрасный момент наша команда, отвечающая за качество поиска, может обратить пристальное внимание на такие страницы.

Есть несколько вариантов выхода из описанной вами ситуации. Когда у компании есть представительства в разных городах, тогда в рамках основного сайта можно выделить отдельную страницу под каждый городской адрес с указанием графика работы в конкретном регионе. Или можно создать отдельную страницу, на которой будут собраны адреса всех городских представительств (по регионам), плюс использовать динамическую карту или что-то в этом роде.

Как часто сегодня вы наказываете сайты в ручном или автоматическом режиме за использование дорвеев?

Джон: Я не располагаю такой информацией.

Хорошо. В кругу сеошников есть устоявшееся мнение, что Google, когда обрабатывает поисковые запросы, связанные с финансами или здоровьем, в своей выдаче предпочтение отдает авторитетным YMYL-порталам, скажем, сайтам официальных брендов или ресурсам в доменной зоне .gov. В этой связи мои клиенты часто спрашивают – как небольшой сайт, который по текстовому и видеоконтенту превосходит официальные порталы, может на равных конкурировать с ними в результатах поиска Google? Я понимаю, что такие суждения субъективны, но что вы посоветуете владельцам небольших сайтов в этих нишах?

Джон: Убежден, что обойти в выдаче авторитетные порталы можно и ниша здесь роли не играет. В конце концов, позиции в поиске никто ни за кем не закрепляет. Ранжирование в конкретный период времени зависит от многих факторов, в том числе от тематики и уровня конкуренции. Главное, не думать, что обойти конкурентов можно с наскока, кое-как создав сайт и добавив на его страницы немного качественного контента.

И еще один совет – не нужно пассивно полагаться на время. Если хотите победить в конкурентной борьбе, работы по улучшению сайта нужно вести постоянно. Нельзя просто сидеть и успокаивать себя, мол, когда моему веб-проекту исполнится десять лет, он будет таким же авторитетным, как другие сайты этой ниши в этом возрасте. Это так не работает.

Также хочу подчеркнуть, что если речь идет о в самом деле хороших небольших сайтах, то им стоит ориентироваться на трафик не только из поиска. В сети достаточно других источников, которые могут генерировать большую посещаемость для таких ресурсов. То есть, нужно комбинировать, делать все возможное для развития сайта в поиске Google и за его пределами.

Со своей стороны мы всегда будем ранжировать эти ресурсы в названных нишах. Другой вопрос – как высоко? Достаточно, если веб-мастер сможет обеспечить пользователям контент соответствующего качества, релевантности и правдивости, чтобы на равных конкурировать с правительственными сайтами. Сделать это нелегко, но можно.

И все-таки очень бы хотелось знать точный ответ, как обойти их в поиске? Скажем, я разработала собственную диету, с помощью которой добилась прекрасных индивидуальных результатов. Теперь я посредством специально созданного сайта хочу поделиться успешным опытом похудения с другими людьми. Однако на первой странице выдачи Google по нужным мне запросам давно обосновался сайт клиники Мэйо и какой-то официальный государственный ресурс. Есть ли какие-то конкретные подсказки, что нужно предпринять в первую очередь? Можно представить, что я не ограничена в ресурсах и готова на любые эксперименты, лишь бы обойти эти авторитетные сайты в Google SERP.

Джон: К сожалению, у меня нет готового ответа на подобие – вам нужно выступить по национальному ТВ или попасть в Wikipedia. Каждый конкретный случай уникален сам по себе, потому невозможно посоветовать что-то универсально эффективное.

Понимаю и признаю, что мой вопрос был несколько провокационным. Просто к нам часто приходят клиенты с требованием добиться доминирования в определенной нише и бюджеты их не интересуют. Они готовы раскошелиться на любую сумму.

Тогда напоследок еще один интересный пользовательский кейс. У нас есть клиент, чей сайт стал примером низкокачественного ресурса в вашем руководстве Google’s Quality Raters Guidelines. Скриншот страницы этого сайта, который вы демонстрируете до сих пор, на самом деле уже устарел. Ребята хорошо потрудились и исправили ошибки. Теперь через меня они хотят узнать, как сделать так, чтобы их проект больше не использовался вами в таком негативном контексте? Это вредит репутации их бренда.

Джон: Я готов с радостью помочь в этой ситуации, если вы предоставите мне конкретные примеры. Также хочу обратить внимание на то, что для пользователя истинность этого руководства не является абсолютной. Иначе говоря, если мы показали в нем конкретный URL-адрес в определенном контексте, то это не значит, что впредь вы всегда должны равняться только на эту страницу, стремясь быть похожей или не похожей не нее.

На этом все самое интересное и познавательное от Джона Мюллера в подкасте закончилось. Но мы, как и обещали в первой части, приготовили небольшой бонус. Уже после беседы с Мари Хейнс в Твиттере был запущен опрос: «Вы слепо доверяете Джону Мюллеру?» Результаты выглядят так:

В исследовании приняли участие почти 2,8 тыс. сеошников и веб-мастеров. Большинство из них (34,6%) ответили отрицательно. Утвердительных ответов было 22,6%. Чуть больше оказалось тех, кто верит Гуглмену время от времени – 24,7%. Были также весельчаки (18,1%), которые из всех вариантов выбрали шутливую опцию про сыр…

А к какой группе принадлежите вы? Слова Джона в этом интервью заслуживают внимания? Поделитесь своим мнением в комментариях.

Источник

Карусель в Instagram обладает самым высоким показателем вовлечённости аудитории

Совместно с дизайнерами из Bannersnack SocialInsider сделали видео об эффективной работе каруселей в Instagram.

В ходе исследования изучили более 22 миллионов постов, среди которых почти 3 миллиона каруселей, работа длилась три года. Специалисты сделали выводы:

  • Карусели в Instagram находятся на подъёме.
  • Они приносят больше зрительского внимания, чем просто фото или видео.
  • Карусели вместе с фото и видео имеют максимальную степень вовлечённости — 2,33%, а видеокарусели получают больше комментариев.
  • Добавление в заголовке Swipe left также добавляет уровень вовлечённости.

Самый высокий рейтинг имеют карусели на два и три слайда, а замыкает тройку лидеров карусели с максимальным числом слайдов.

С момента запуска каруселей в 2017, бренды используют функцию все чаще. На старте было 3-4% каруселей, сейчас карусели доходят до 20% постов  В мае 2019 процент каруселей был больше, чем у видео.

Специалисты из SocialInsider полагают, что в ближайшее время посты-карусели станут основным типом органического контента в соцсети.

А мы напоминаем, что на прошлой неделе стало известно об отделении рекламного продвижения Instagram от Facebook.

Источник

Adblock
detector