К Джону Мюллеру, SEO-аналитику из Google, веб-мастера и сеошники относятся по-разному (не пропустите вторую часть, где мы представим любопытную статистику по этому поводу). Одни следуют его подсказкам безоговорочно, полагая, что сотрудник Google плохого не посоветует. Другие, наоборот, игнорируют его рекомендации, считая Джона недостоверным источником, который либо не знает, что говорит, либо не говорит, что знает.
Мы принадлежим к третьей группе слушателей, убежденных, что спикер Google заслуживает должного внимания. Знать позицию Google по тем или иным вопросам поисковой оптимизации нужно. Не только знать, но и критически переосмысливать, делать собственные выводы, которые в итоге пойдут на пользу сайту.
Недавно Гуглмен стал гостем Мари Хейнс, известной канадской сеошницы, которой в интервью рассказал много познавательного о поиске и не только. Сегодня предлагаем вашему вниманию адаптированный перевод первой части подкаста.
Итак, Джон, все мы знаем, что вы работаете аналитиком в Google Webmaster Trends. Как долго вы с поисковой системой?
Джон: Что-то около 12-13 лет, если мне не изменяет память.
Да, я помню, как в 2008 году зависала на разных SEO-форумах и в какой-то момент впервые наткнулась на ваши ролики помощи веб-мастерам. Уже тогда Google пытался просвещать SEO-сообщество. Примите от всех нас слова огромной благодарности за все эти годы содействия в нашем нелегком деле.
Но ближе к делу. Предлагаю начать нашу предметную беседу с несерьезного вопроса – что это за история с сыром и бананами?
Джон: Хм, это то, чем меня время от времени до сих пор подкалывают коллеги. История следующая. Мое сообщение про сыр было одним из первых в Твиттере. Кажется, мы тогда с Гари Илшем пили кофе и он вдруг сказал, что появилась новая социальная сеть – Twitter. И как бы надо было протестировать… Он отлучился и сделал это от моего имени, запостив пробный твит о том, что я люблю сыр. К слову, в этом нет ничего удивительного, так как я живу и работаю в Швейцарии.
Что касается бананов, то дело было так. Я планировал впервые протестировать работу сервиса Google Trends. Какое слово выбрать для анализа? Первое, что пришло на ум – бананы. После такого решения я начал получать кучу писем на почту о всех взлетах и падениях запроса «бананы» в нашем поиске. Кстати, они до сих пор мне приходят.
Забавная история! А теперь о серьезном – с прошлого года, когда вы представили новые ссылочные атрибуты, SEO-комьюнити не может найти себе покоя. Многие мои клиенты задаются вопросом, как теперь вы относитесь к nofollow-бэклинкам? Человек, например, переживает, что будет, если какой-то донор поставил на его сайт спамный линк, но при этом использовал атрибут rel=»nofollow»?
Джон: Здесь не о чем беспокоиться в принципе, поскольку мы не используем внешние ссылки с nofollow для каких-то негативных действий. Да, иногда они помогают нам найти и проиндексировать новый контент в сети. Однако нет такого, чтобы мы посмотрели на бэклинк с rel=»nofollow» и сказали, что он соответствует каким-то критериям, а потому мы будем учитывать его вес полностью. Равно как нет и обратной ситуации, когда нам такой линк не понравился, а потому это будет иметь для сайта какие-то плачевные последствия.
Вывод: если есть какие-то обратные ссылки на ваш ресурс, которые вам по каким-то причинам не нравятся, но при этом такие бэклинки закрыты названным атрибутом, тогда все чудесно.
То есть, мы правильно советуем нашим клиентам, что не нужно тратить время и отклонять такие закрытые от индексации бэклинки?
Джон: Абсолютно.
Давайте тогда детальнее поговорим об инструменте отклонения внешних ссылок – Disavow Tool. Однажды мы уже обсуждали с вами этот вопрос и пришли к выводу, что отклонять неестественные бэклинки нужно сайтам, к которым применяются ручные санкции Google. Но у клиентов остается вопрос: неужели другим ресурсам, без ручных санкций, пользоваться Disavow Tool не нужно в принципе?
Джон: На мой взгляд, лишь в двух случаях отклонение обратных ссылок является целесообразным. Во-первых, можно сыграть на опережение. Допустим, в прошлом ваш сайт продвигал некий сеошник, который не гнушался «черными» методами раскрутки, в том числе и покупкой внешних ссылок, хаотичным постингом бэклинков на форумах или прочих подобных площадках. Вполне вероятно, что за такие нарушения наших правил мы еще не успели наложить ручные санкции. Однако это не значит, что такого не произойдет завтра, послезавтра или через месяц. И вот тут сознательный владелец сайта, обнаруживший целую кучу неестественных обратных ссылок на свой ресурс, может добавить их в Disavow-файл.
Во-вторых, с помощью отклонения можно попытаться помочь нашим алгоритмам. Да, мы не раз заявляли о том, что они умеют игнорировать некачественные бэклинки. Впрочем, если у вас нет полной уверенности в том, что мы автоматически их проигнорируем, тогда есть смысл отклонить их вручную, используя названный инструмент.
Тогда следующий вопрос в продолжение темы. Можем ли мы благодаря правильному и своевременному использованию Disavow Tool добиться лучших позиций для сайта в Google SERP, нарастить его трафик? Приведу пример. Мы с моей командой не раз работали с веб-проектами, у которых не было ручных санкций, но мы все равно добавляли определенные внешние ссылки в Disavow-файл. После этого через несколько недель или даже месяцев у таких сайтов резко вырастал трафик, видимость в поиске заметно улучшалась. Первая наша мысль – это все потому, что в свое время мы грамотно почистили ссылочный профиль, отклонив плохие линки.
Джон: Мне кажется, что такое развитие событий маловероятно. Теоретически, конечно, возможно и такое представить, но в подавляющем большинстве случаев такие бэклинки не способны влиять на видимость ресурса в Google SERP. Скорее всего, те перемены в лучшую сторону, о которых вы говорите, могли стать следствием апдейтов поисковой выдачи Google, изменения экосистемы интернета в целом.
Хорошо, а как тогда посоветуете действовать в следующей ситуации? Есть сайт под ручными санкциями из-за некачественных бэклинков, который по основным ключевикам продолжает довольно хорошо ранжироваться в Google. Более того, все его неестественные внешние ссылки размещаются исключительно на авторитетных площадках в читабельных статьях. Как нам убедить веб-мастера заняться масштабной чисткой ссылочного профиля, если он видит не только недостатки, но и явные преимущества для своего проекта в данный период времени?
Джон: Трудно дать совет, когда вы утверждаете, что позиции по основным ключевым словам остаются высокими. Наверное, рекомендации должны быть общими для сайтов под ручными санкциями – для начала необходимо по максимуму очистить ссылочный профиль ресурса от таких линков, используя Disavow Tool. Но если речь о добротных статьях, которые читают люди и по ссылкам из которых переходят на обсуждаемый сайт, тогда можно попробовать применить к ним атрибут rel=»nofollow». Конечно, если донорская площадка пойдет на это. Такие действия сообщат нашей команде по борьбе с веб-спамом, что сайт стал на путь исправления и ручные санкции к нему можно отменять.
Вообще-то тема наложения и последующего снятия ручных санкций очень интересна сама по себе. Не могли бы вы поделиться с нами как все это происходит? Скажем, у вас есть какой-то ответственный сотрудник в команде по борьбе с веб-спамом, который просматривает и оценивает сайты, предпринятые ими действия по устранению замечаний? Или это многоуровневый процесс, когда кто-то принимает решение сначала, а потом передает конкретный кейс вышестоящему начальству?
Джон: Все зависит от того, насколько серьезным и комплексным является конкретный случай. Когда рассматриваемый кейс имеет влияние на значительную часть сети, то в такой ситуации сотрудники команды по борьбе с веб-спамом вполне могут обратиться за консультациями к специалистам из других отделов. Такой подход помогает получить иную точку зрения касательно проблемы.
При получении запроса от веб-мастера на пересмотр сайта для снятия ручных санкций может быть и такая ситуация. В первый раз попавший под санкции ресурс анализировал один сотрудник, а сообщение о пересмотре попало в руки другому. В такой ситуации мы вынуждены привлекать первого, чтобы он оценил изменения и дал добро на снятие санкций.
В целом же я должен признать, что пересмотр сайта – очень непростая работа, поскольку решение нам нужно принимать субъективно. Например, с неестественными бэклинками или низкокачественным контентом часто бывает, что мы видим позитивные изменения на сайте, но достаточно ли их? Как количественно подсчитать, все ли должное владелец сайта предпринял? Однозначного ответа тут, увы, быть не может.
После ваших слов у меня такое чувство, что мы должны настраивать наших клиентов, сайты которых попали под ручные санкции, что главное для них – убедить вашу команду по борьбе с веб-спамом, что есть четкое понимание проблемы и предпринимаются важные шаги по ее устранению. И что больше никогда ничего против правил Google делаться не будет…
Движемся дальше. Однажды вы говорили, что когда Google оценивает общее качество сайта, то учитываются все проиндексированные поисковиком страницы. Предположим, есть большой портал, у которого 100 тыс. страниц в индексе Google. Однако со временем значительная их часть утратила полностью или частично свою актуальность. Поможет ли в такой ситуации использование noindex или редирект на более релевантный контент? То есть, можно ли таким образом снизить количество известных Google страниц, но при этом повысить общее качество сайта в понимании поисковой машины?
Джон: Да, веб-мастера часто задают нам подобные вопросы. Тут дело в том, что мы по-разному оцениваем контент на сайте. Для владельца ресурса все его страницы чаще всего равнозначны, а для Google – нет. В нашем понимании одни URL-адреса могут быть более ценными, а другие менее. И это нормально.
Постараюсь привести пример. Допустим, есть веб-ресурс, посвященный концертным мероприятиям. Портал добротный, с качественным контентом, который регулярно притягивает к себе внимание целевой аудитории. При этом на сайте также имеется календарь событий вплоть до 9999 года. Естественно, что никаких событий, если кликнуть на дату в далеком будущем, пока не запланировано – перед вами откроется банально пустая, нерелевантная страница. И таких страниц у такого сайта может быть 90%! Значит ли это, что такой ресурс автоматически не соответствует нашим критериям, а потому такие URL нужно убрать? Конечно же, нет, так как мы стараемся находить и фокусировать наше внимание на самых важных в данный момент страницах сайта, показывая именно их в поисковой выдаче. Скажем, это могут быть страницы о концертах, которые уже состоялись, проходят прямо сейчас или запланированы в ближайшее время.
То есть, я хочу сказать, что не нужно зацикливаться на общем количестве страниц. Важно понимать, какие из них представляют наибольшую ценность для проекта в конкретный момент времени. Зная это, необходимо наполнять такие URL-адреса качественным контентом.
Спасибо, это очень ценная информация, особенно если учесть, что системы управления контентом сайта (CMS) часто самовольно создают множество отдельных, а потому ненужных URL с изображениями, которые впоследствии засоряют индекс Google. Может все-таки нужно удалять такие страницы, чтобы повысить качество сайта в целом?
Джон: Честно, я не знаю. Если учесть, что наши алгоритмы игнорируют такой контент автоматически, о чем я упомянул выше, тогда в этом нет особой надобности. С другой стороны, такие случайные страницы могут отвлекать работу старательного Гуглбота, который вместо поиска и сканирования действительно важных URL-адресов сайта будет вынужден тратить время на информационный мусор. С этой позиции может и нужно.
Продолжение следует…