Содержание

Рубрика «Спроси PR-CY» — это возможность задать экспертам вопросы по оптимизации и продвижению сайта. Мы собираем вопросы, передаем их одному из приглашенных экспертов, собираем ответы в большой пост и выкладываем в блоге. 

Это пост с ответами, вопросы мы собирали в комментариях под этим постом.

На вопросы пятого выпуска отвечает

Михаил Шакин

Специалист по продвижению сайтов в рунете и англоязычном интернете, автор SEO-блога Михаила Шакина.

Вопросов поступило очень много, но эксперт разобрал и те, которые остались без ответа в прошлом выпуске.

Пользователь World Tanks спрашивает:

«Есть молодой сайт, ему три месяца. За все это время было опубликовано более 100 статей по НЧ с низкой конкурентностью. Но трафика с поисковых систем все еще нет, потому что позиции по этим запросам, как правило, находятся за ТОП 50. Когда стоит ждать трафика с ПС? Серьезных технических проблем у сайта нет, история чистая».

Если страницы нет в топ 50 по основному запросу, то причина в контенте. Попробуйте провести AB тестирование, изменив контент на тестовых страницах по разным схемам. Ту схему, которая даст лучший эффект, можно будет применить для остальных страниц сайта.

Пользователь seotopseopro спрашивает:

«У меня последнее время все чаще появляется проблема с плагиатом текстов у моих клиентов. С новыми текстами я могу доказать, что их писал мой копирайтер, у меня есть пруфы, что этот текст мой, и у меня его украли. А по текстам, которые писались три года назад, но они еще актуальны, у меня пруфа нет, пришлось переписать. Как обезопасить себя от воровства контента? Возможно, есть какой-то рабочий способ? Я понимаю что есть саппорт и так далее, но хотелось бы как-то закрыть этот вопрос на этапе зарождения».

К сожалению, на 100% способа защиты от воровства контента нет.

Я обращаю внимание на это, только если сайты, скопировавшие тексты, находятся выше в поисковой выдаче, то есть непосредственно влияют на посещаемость продвигаемого сайта. Суть в том, чтобы максимально ускорить индексацию новых текстов и увеличить общий траст сайта.

Если же продвигаемый сайт на первом месте в выдаче, если искать по отдельным предложениям, то не обращаю внимания.

Пользователь ulu1984 спрашивает:

«Сайт вышел в топ Яндекса, после чего начались массовые переходы с отказами по ВЧ и СЧ запросам. Через две недели сайт выпал за топ 50. Изучив причины, была это умышленная кампания против меня или нет, я понял, что нет.

Дело в том, что есть владельцы сайтов, которые заказывают переходы на свой сайт с разных бирж. Задание следующее: зайти в Яндекс, задать запрос «кукла барби», зайти на два сайта в выдаче, далее найти «мой сайт.ру» и перейти. Далее исполнитель таких заданий уже бегает по его сайту и улучшает ПФ. Естественно, его сайт получает бонус, а другие нет. Как вообще с этим бороться? Ведь так сложно продвинуться в топ, а тут еще встает вопрос, как там удержаться? Буду благодарен за дельный ответ и советы».

Причиной может быть то, что страница не на 100% релевантна запросу, который попал в топ, и пользователи могут уходить с нее, так как не находят нужного ответа.

В этом случае помогает изучение темы страницы и анализ страниц ведущих конкурентов. Часто небольшое редактирование и дополнение страницы решает проблему.

Приведу пример. На сайте моего клиента была похожая ситуация. Страница была с подборкой лучших видеокарт для работы с графикой. Постепенно видеокарты в подборке устарели, и информация потеряла актуальность.

Я дал задание помощнику изучить рынок популярных видеокарт для данной задачи, и затем копирайтер обновил статью. Кроме этого, в заголовок я добавил год, что дополнительно повысило эффект. Естественно, такие страницы нужно регулярно обновлять, чтобы информация всегда была актуальной. В результате страница вернулась в топ 3.

Пользователь Dm Nuhov спрашивает:

«Расскажите, пожалуйста, где искать толковых копирайтеров-экспертов? Ну, или копирайтеров, которые хорошо погружаются в тему и пишу качественные статьи, отвечающие полностью на вопрос читателя, а не поверхностно, как обычно многие пишут. Настоящие эксперты вряд ли будут писать статьи. Может, вы в ТЗ какое-то требование прописываете?»

Обычное размещение заказа на написание статьи, даже с хорошим техзаданием, не гарантирует, что ее будет писать копирайтер с опытом в данной области. Многие копирайтеры гуглят запрос, смотрят на топовые страницы и переписывают их.

Пользователь Алексей Sch спрашивает:

«Есть популярный сайт, все статьи которого копируют другие сайты, включая такие как фишки.нет и подобные. Некоторые статьи скопированы более 50 раз, в среднем 20-30 копий каждой статьи. Мой сайт ранжируется в целом хорошо, но некоторые старые тексты я хочу переписать, исправить ошибки, внести более свежую инфу. Все статьи по 10-20 тыс символов. Скажите, как поисковики отнесутся к тому, если я буду немного исправлять свои же тексты? Как посоветуете действовать?»

Одна из самых эффективных методик сейчас — это доработка страниц. Если дополнить текст новой актуальной информацией, добавить изображений или видео, то во многих случаях это позволяет странице продолжать находиться в топе.

Если посмотреть на блог Брайана Дина backlinko.com/blog, то можно увидеть, что он регулярно обновляет свои страницы, это одна из его основных стратегий для привлечения целевого трафика.

Пользователь Александр Адамов спрашивает:

«Хотелось бы услышать ваше мнение по следующим вопросам: учитываются ли в ранжировании поисковиков мета-теги description и title, а также каково влияние поведенческих факторов на ранжирование и есть ли оно вообще? Google отрицает их влияние и влияние мета-тегов тоже отрицает. Информация в интернете дает крайне противоречивые ответы.
Не являюсь разработчиком и веду только свой сайт, потому может мои вопросы и наивными кому-то покажутся».

По метатегам скажу так: они учитываются, но напрямую не влияют на продвижение. То есть если вы добавите в них ключевые слова, это не означает, что сайт попадет в топ.

Но в связке с кликабельностью и улучшением поведенческих факторов в поисковой выдачи оптимизация метатегов отлично работает. Суть в том, чтобы найти компромисс между SEO оптимизацией метатегов title и description и привлекательностью страницы в выдаче Яндекса и Google.

Исследования показали, что для того, чтобы повысить позицию в выдаче на один пункт, нужно увеличить CTR на 3%.

Поведенческие факторы при правильном подходе работают как в Google, так и в Яндексе. Задача не накрутить их, а улучшить естественным образом, чтобы посетители дольше находились на продвигаемом сайте и просматривали больше страниц, а также взаимодействовали с сайтом — нажимали кнопки заказа, комментировали и т.д.

Пользователь alexakap спрашивает:

«Понимают ли поисковики, где на странице основной текст, а где сайдбар и футер? Вопрос к тому, что если не понимают, и если, например, в сайдбаре будет много текста, то плотность ключей в полном html документе может размываться (уменьшаться), соответственно это отразится на ранжировании. Стоит ли тогда по полной использовать разметку shema.org, и поможет ли это, кстати? Или поисковики все понимают даже без микроразметки?

Еще вопрос к тому же: если взять какой-нибудь сайт на том же шаблонном Вордпрессе, то там, например, заголовки блоков в сайдбаре или футере обернуты в h2, h3 или h4. Если поисковики не понимают, где сайдбар на странице, то стоит ли переделывать заголовки блоков дивами, чтобы их не путать? Или все-таки schema.org? Спасибо!»

Да, конечно, поисковики без проблем различают основной текст и второстепенные участки. Вы правильно заметили, что из-за присутствия в боковой колонке или футере ключевых слов их общая плотность на странице может привести к переоптимизации.

Микроразметку желательно использовать, так как она облегчает роботам работу. В плане переоптимизации микроразметка не поможет. Для этого нужно смотреть, если у страницы проблемы с посещаемостью и позициями, то изучать и корректировать ее общую оптимизацию.

Да, во многих шаблонах встречается, что блоки сайдбара и футера сделаны в виде заголовков h. Если есть возможность, то лучше их переделать.

Пользователь Stunner спрашивает:

«Есть интернет-магазин на Prestashoo с ассортиментом 10000 SKU. Пять категорий, в них 43 подкатегории. Ассортимент постоянно увеличивается, магазин растет. Для сбора НЧ трафика открыл для индексации один зажатый фильтр (материал, цвет, размер, объем, сезон — фильтр по цене не открывали). Собрал семантику, написали 100% уникальный контент. Залил на страницы, правильно разметил Н1, Title, Desc, H2, H3. За счет хорошего контента эти страницы фильтров залетают в ТОП 10-30, но потом начинают постепенно опускаться в Serp, теряя 5-7 позиций в 2-3 недели. Я сделал внутреннюю перелинковку с характеристик карточек товара на страницы фильтров, в которых они лежат — падение остановилось, но все замерло на одном месте. Страницы фильтров, где мало товаров, падают (здесь вопросов нет), но страницы, где постоянно добавляются карточки товара с новыми товарами стоят на месте. Я понимаю, что у этих страниц маленький статический вес, но чем мне их еще толкнуть? Брал на них крауд — через месяц на месте в Serp и так продолжается… Сделал перелинковку с блога — два месяца стоят на месте… Динамики роста я не вижу, уникальный контент заливается регулярно — одна-две статьи в день. Если есть мысли на эту тему, буду очень благодарен! Заранее спасибо!»

Думаю, причина в том, что сайту не хватает траста, а также качественных ссылок. Их не нужно много, лучше сделать акцент на качестве.

Основные продвигаемые страницы я бы подпитал небольшим количеством хороших ссылок с посещаемых сайтов. Крауд не всегда делают качественно.

Плюс можно поработать со структурой сайта, чтобы сосредоточить ссылочный вес на нужных страницах. Я не имею в виду переделку, но частично оптимизировать ее можно.

Пользователь quadmarket спрашивает:

«Стоит ли на сайте интернет магазина внедрять lazy loading изображений? Слышал, что Google прочитает фото, находящиеся за пределом экрана, а вот Яндекс — нет. Общался с популярными SEO конторами, 7 из 10 уверяют, что не стоит, обрушу SEO.

И еще вопрос по поводу webp, jpeg2000 — стоит ли внедрять на сайт? На сайте уже 25000 фото, сам процесс конвертации не быстрый. Отдельно делал тесты: взял 10 фото общим весом 20 мегабайт и начал сжимать сервисами: tinypng.com — сжал до 3,7 мб (качество сохранилось), iloveimg.com/ru/compress-image — сжал до 1.8 (качество сохранилось), попробовал эти 10 фото конвертировать в Webp и сжать — получилось 1,4 (качество испортилось). jpeg 2000 и jpeg xr не пробовал».

Если есть хороший трафик с изображений, то реализовывать lazy loading не стоит.

Если на вашем сайте много больших по размеру изображений, которые замедляют скорость загрузки страниц и они по этому параметру значительно уступают конкурентам, то для эксперимента можно реализовать.

По поводу новых форматов изображений — пока можно не тратить на это время. А вот оптимизировать для быстрой загрузки без потери качества очень желательно.

Почитать по теме:
Как оптимизировать загрузку картинок: настройка lazy loading изображений

Пользователь grach73 спрашивает:

«Что думаете по поводу дальнейшей судьбы Яндекс.Поиска? Сейчас уже Яндекс пытается забить все места своего поиска под рекламу, а остальное дожимает своими же проектами. Что будет дальше? Монополизация Яндекса на своей платформе или можно будет все-таки вытянуть какую-либо органику в Яндексе? Только микрочастотку? И что с пользователями — насколько Яндекс теряет своих посетителей, и что будет в дальнейшем — снижение трафика у Яндекса или рост? Какие вообще перспективы продвижения в Яндекс.Поиске, может, стоит уделить больше внимания другим поисковым системам?»

Я сторонник того, чтобы в рунете были два основных игрока на рынке поисковых систем — Яндекс и Google. Если останется один, то ничего хорошего для SEO не будет, независимо от того, кто останется.

Я уверен, что скоро в конкурентных коммерческих нишах на первой странице поиска Яндекса не останется органики.

Google в 2018 году остановился и больше не увеличивает долю контекста, судя по исследованию Searchmetrics. В частности, становится меньше рекламы Google Adwords, -12% на десктопах и -24% на мобильных. Доля органических результатов поиска не изменилась на мобильных и чуть прибавила на десктопах +0,1%.

Думаю, Яндекс и Google и дальше будут конкурировать в рунете. Стремление к получению максимальной прибыли будет все более усиливаться.

Пользователь fotokrek спрашивает:

«Какой фактор ранжирования станет главным в алгоритме Google после отмены учёта ссылок?»

Хороший вопрос. 🙂 Если такую ситуацию представить, то будут преобладать контент и внутренняя оптимизация.

Пользователь Vladyslav Yashchyshуn спрашивает:

«Заметил, что группы ВК очень хорошо ранжируются в поисковиках. Я тоже решил пойти по этому пути и создал страничку скидок для конкретного магазина. Собрал семантику, внедрил ее в мета теги. Но заметил одну проблему — поисковики ставят квоту в одну-две страницы на один ВЧ запрос. Это и логично с одной стороны: если бы не было этого фильтра, наверное, многие ВЧ запросы были бы забиты страницами соцсетей из-за веса их доменов в паутине.

Я проверил запрос, по которому я продвигаюсь, и оказалось, что там уже сидит конкурент. Но мне, возможно, повезло — страница закинута, мало подписчиков (144), посты не публикуются, их мало. Поэтому я принял решение обогнать его хотя бы по этим критериям. Сделал! Но пока результатов не вижу, все также страница находится в запросе, по которому я хочу продвигаться. Если искать по этому ВЧ запросу через поиск ВК, то моя страница уже находится выше конкурента. Вопрос: как подвинуть конкурента? Возможно такое, что поисковики поставят меня на его место, учитывая, что я уже выше него по важным критериям — количеству подписчиков и так далее? Спасибо!»

Обычно для паразитического SEO (так в англоязычном интернете называют такую методику получения трафика из топа за счет страниц на трастовых сайтах) отлично работает прокачка ссылками.

Будь то любые форматы паразитических страниц — от видеороликов YouTube до досок Pinterest и от линз Squidoo (этот сервис уже канул в лету) до групп в Facebook и Вконтакте.

Так что попробуйте продвинуть группу внешними ссылками, должно сработать.

Пользователь junjulia спрашивает:

«Здравствуйте! В интернет-магазине планируется капитальная зачистка товаров. Около 30 тыс позиций уберут из сайта. Это будут товары, которых нет в наличии, и они не появятся, и товары, которые не пользуются спросом у покупателей. Как лучше всего убрать такие товары из сайта, чтоб избежать проседания трафика и большого количества битых ссылок?»

Можно использовать следующую схему: если на страницы есть трафик, то можно их оставить и сделать вывод информации о том, что данного товара нет в наличии, и дать ссылки на другие похожие товары.

Если трафика нет, то можно сделать 301 редирект на страницу категории.

Пользователь Николай Баженов спрашивает:

«Мы проводили AA-тест на сайте согласно инструкции от Google. Сделали тестовую вариацию index с canonical на основную. Тест проводили в течение 2-х недель. При этом тестовые вариации попали в индекс. Нормально ли это?»

Да, для Google это нормально. Он часто индексирует то, что не нужно.

Пользователь Полина Рыбалова спрашивает:

«Хотелось бы услышать ваше мнение по поводу переоценки ссылочной массы в ходе апдейта Google 12 марта. Действительно ли снижено влияние ссылок, трастовость которых не подтверждена либо спорна? Означает ли это, что их нужно удалять? Относятся ли крауд-ссылки к ссылкам с низким трастом? Как бы вы посоветовали оценивать трастовость ссылочной массы конкурентов?»

Тренд на то, что в ссылочной массе должны преобладать качественные ресурсы, будет постепенно усиливаться. Постепенно и поэтапно Google будет проводить подобные «зачистки».

Сейчас реальность такова, что у многих исполнителей крауд ссылки низкого качества. Конечно, есть и исключения. Все чаще встречаю форумы, которые, на первый взгляд, производят впечатление живых и посещаемых. Но на самом деле они созданы для одной цели — размещать сообщения с десятков и сотен своих аккаунтов, создавая видимость общения. Эффекта от таких ссылок никакого, но для исполнителя размещение ссылок на таких форумов, которые им принадлежат, требует минимум усилий и затрат.

Трастовость ссылочной массы я оцениваю по ahrefs.com. Можно сортировать ссылки по трафику, по поисковой видимости страниц, по рейтингу домена и страницы. Плюс можно переходить на интересующий сайт и смотреть на его поисковую видимость.

Пользователь Светлана Суслова спрашивает:

«Есть сайт — каталог компаний по всей России. На данный момент структура сайта такова: сайт.ру/город/категория. Есть ли смысл продвигать сайт с такой структурой или нужно уходить на поддомены: город.сайт.ру/категория?

Как, например, Авито так хорошо ранжируется по геозависимым запросам, имея структуру без поддоменов? Как они этого добились? У них даже несколько регионов привязано к ссылкам типа авито.ру/город».

При правильном подходе каждая из схем хорошо работает. Бывает, что в нужной тематике явно преобладает одна из схем. В таких случаях рекомендую изучить сайты ведущих конкурентов в своей тематике и посмотреть, как у них реализована структура.

Авито имеет очень высокий траст, что позволяет эффективно продвигаться с любой схемой структуры.

Пользователь Николай Ковалёв спрашивает:

«Выпали все страницы сайта из Яндекса. Вебмастер Яши пишет что недостаточно качественные. Что делать?»

Нужно проводить AB тестирование. Например, взять 10-20 групп страниц и редактировать их по разным схемам, фиксируя все действия в таблице. Затем через 4-6 недель будет видно по видимости, позициям и трафику, какая из схем дает лучший результат.

Пользователь Кирилл Николаев спрашивает:

«Миш, сравни всю историю со стороны клиента на западе, пожалуйста: как было в 2010, а как сейчас. Что поменялось: процессы, косты, команды. Вопрос не обязательный, но по возможности очень интересно было бы почитать».

Основные принципы не изменились. Клиенты на Западе любят максимальную прозрачность в работе. Компании или специалисту, которые ведут блог или канал на YouTube, при прочих равных условиях они отдадут предпочтение.

По сравнению с 2010 годом англоязычные клиенты стали более продвинутыми в плане SEO, SMM и других направлений, которые касаются привлечения клиентов. Многие из них постоянно повышают свой уровень на конференциях, семинарах и курсах.

Многие западные клиенты сейчас больше заказывают узкоспециализированные услуги, например, привлечение трафика на сайт по прическам из Pinterest, или получение целевых посетителей с автомобильных форумов. Во многом по этой причине рынок там более специализирован, чем у нас.

Пользователь Ekaterina7 спрашивает:

«Подскажите, пожалуйста, какова на данный момент роль ссылок для продвижения сайта, стоит ли продолжать покупать качественные ссылки или их количество уже не влияет на продвижение?»

Если рассматривать рунет, то во многих тематиках при правильном подходе вполне можно продвигаться без ссылок или с небольшим их количеством. В англоязычном интернете без ссылок в большинстве тематик попасть в топ не получится.

Для молодых сайтов сначала нужен трафик, потом ссылки. Будет странно, если на сайт с посещаемостью в 10 человек в сутки начнут появляться ссылки. В дальнейшем следует сделать акцент на получении ссылок с качественных сайтов, близких по тематике. Можно выращивать свои сателлиты.

«Для продвижения интернет-магазина нужен ли раздел «Статьи» с уникальным контентом, и какое их количество стоит публиковать в месяц? Пишут, что каждая карточка товара должна содержать уникальное описание, но как это можно реализовать, если есть такие товары, которые отличаются между собой несколькими характеристиками?»

Блоги и разделы статей на коммерческих сайтах позволяют получать дополнительный трафик по информационным запросам. Если посмотреть на англоязычные интернет-магазины, то на многих из них можно найти блог.

По карточкам товаров совсем не обязательно, чтобы они были полностью уникальными. Часто карточки на многих сайтах наполняются одним и тем же содержимым с сайта производителя. В таких случаях поможет не уникализация, а грамотная внутренняя оптимизация в сочетании с хорошими поведенческими факторами и качественными ссылками.

«Увеличение ИКС Яндекса влияет на рост позиций в поисковой выдаче?»

Нет, на этот параметр можно не обращать внимания.

Несколько вопросов из прошлого выпуска, которые остались без ответа:

Пользователь ПК компрессор спрашивает:

«Добрый день! Пришел большой СМИ портал на продвижение, наподобие Правоведа. Есть какие-то рекомендации по продвижению таких больших проектов? С каких основных моментов стоит начать работу? Может есть какие-то полезная литература по продвижению такого рода порталов? Буду рад услышать любые советы!»

У больших сайтов часто бывают технические проблемы — битые ссылки, проблемы с полнотой индексации, дубли и т.д. Я начинаю в таких случаях с технического аудита.

Полезно изучить логи, это можно сделать, например, с помощью seolyzer.io.

Далее я сравниваю сайт с ведущими конкурентами на предмет того, чем им уступает продвигаемый сайт. Люблю изучать ведущие англоязычные сайты этой же тематики, на них можно найти интересные решения, которые в рунете пока мало кто применяет.

Пользователь Жека Алексеенко спрашивает:

«Как быть с исходящими ссылками? Стоит ли их пытаться скрывать от поисковиков? Приведу пример: игровой сайт в разделе каталога на страницах пагинации имеет по 20 внешних ссылок, ведущих на официальные сайты игр или на партнерскую сеть с последующим редиректом на эти самые сайты, а также практически в каждой статье есть подобные исходящие ссылки. Стоит ли их прятать через скрипты, nofollow и прочее? Проанализировав топ выдачи, всё разделилось 50/50. Есть ли панацея? И как лучше быть?»

Вы правы, в топе многих тематик можно увидеть прямо противоположные решения по этому и другим вопросам.

Думаю, этот момент вторичен и напрямую не оказывает влияния на ранжирование. Как вариант, можно закрыть через атрибут rel=»nofollow».

Пользователь das das спрашивает:

«Добрый день, вопрос по определению мобильной версии сайта Google. На сайте реализован динамический показ, то есть сервер отправляет шаблон и версию сайта в зависимости от юзер-агента пользователя. Мы столкнулись с такой проблемой, что в Google Search Console в улучшениях «Удобство для мобильных» отображаются только 10 страниц сайта, хотя сайт является агрегатором и страниц по факту более одного млн. Mobile test friendly не показывает ошибок, пишет, что сайт оптимизирован для смартфонов. Недавно прочли, что для такой реализации мобильной версии следует отдавать заголовок Vary: User-Agent, чтобы роботы могли определить, что у нас есть мобильная версия. Наш вопрос состоит в том, влияет ли этот заголовок (Vary) как-то на определение Google мобильной версии сайта или дело в чем-то другом?»

Не видя сайта, сложно сказать. Есть ли пункт «Проблемы при загрузке страницы» при проверке на Mobile Friendly Test? Часто бывает, что в этом пункте есть сообщение, что страница частично загружена, так как роботу Googlebot заблокирован доступ в файле robots.txt. Для решения нужно открыть доступ роботу Google к скриптам, файлам стилей css и картинкам.

Пользователь Лера Трейерова спрашивает:

«Добрый вечер! Не могу разобраться с вопросом на сертификацию, суть в общем: по навигационному запросу фирма не на первом месте. Каковы причины, что может повлиять, если навигационных запрос — это вроде как целевой?»

Причины могут быть разные. Одна из них — данный навигационный запрос релевантен не только вашей фирме, но и нескольким другим.

Еще сайт может быть под фильтром, или просто не оптимизирован, или иметь какие-либо технические проблемы.

«Как рассчитывать процент отказов, имея данные по количеству ctr и посещаемости?»

В разных системах статистики процент отказов имеет разные определения. В Google Analytics это сеанс с просмотром только одной страницы. В Яндекс Метрике это процент посетителей, которые провели на сайте менее 15 секунд.

Имея только ctr и посещаемость, процент отказов не вычислить, нужно больше данных.

Пользователь Денис Пикун спрашивает:

«Подскажите, может ли сработать такой подход к региональному продвижению: в самом начале продвигаться папками по регионам, а через некоторое время, когда эти страницы обрастут неким «трастом», сделать редирект на созданные аналогичные страницы на поддоменах, так как больше интересует Яндекс. Может ли такой подход увеличить скорость ранжирования позиций на поддоменах, или не стоит изобретать велосипед и сразу делать поддомены? Спасибо».

Такая схема не имеет смысла, лучше сразу выбрать схему — подпапки или поддомены, и целенаправленно действовать по ней. Каждая из схем может давать хороший эффект, что видно по сайтам в топе.

Подарки за самые интересные вопросы!

Автор самого интересного вопроса — пользователь fotokrek. Он получает две электронные книги Михаила Шакина — «SEO Винчестер» и «SEO Коллайдер» с бонусами и пожизненными обновлениями, а также промо-код на месяц тарифа «Профи» в Анализе сайтов!

Напишите свою актуальную почту в комментариях или лично Инне Самариной — i.samarina@pr-cy.ru, мы отправим вам подарки.

Пост для ваших новых вопросов и анонс следующего эксперта скоро появятся в блоге и в соцсетях.

Мнение редакции PR-CY может не совпадать с мнением приглашенного эксперта.

Источник

Добавить комментарий

Adblock
detector