как работать с внутренними ссылками

как работать с внутренними ссылками

Как настроить внутреннюю перелинковку на сайте, правильно распределить ссылочный вес, поставить сквозные ссылки и оформить структуру сайта.

Для чего нужна внутренняя перелинковка
Как сделать перелинковку на сайте:

  1. Структура сайта
  2. Сквозные ссылки
  3. «Хлебные крошки»
  4. Блок с популярными или похожими материалами
  5. Контекстные ссылки
  6. Анкоры для ссылок

Перелинковка сайта — это связывание страниц ссылками. Она может быть внутренней, если друг на друга ссылаются страницы одного домена, или внешней, если участвуют ссылки разных сайтов.

О внешней перелинковке говорили в других статьях:
11 способов бесплатно получить обратные ссылки
10 экспериментов с продвижением сайтами-сателлитами (PBN)
SEO для интернет-магазина: текст или ссылочное продвижение?
Внешние ссылки: инструкция к применению
Внешние ссылки: инструкция к применению. Часть 2

Этот материал о том, как правильно управлять ссылочным весом на одном сайте с помощью внутренней перелинковки.

Для чего нужна внутренняя перелинковка

Зачем нужна перелинковка внутренних страниц:

  1. Увеличивает авторитетность страницы.
    Авторитетность зависит от количества страниц, которые ссылаются на исходную.
  2. Передает страницам вес.
    Веб-мастеры с помощью ссылок с авторитетных страниц передают вес важным для продажи страницам, генерирующим трафик.
  3. Повышает релевантность страниц запросу.
    Роботы распознают, какому запросу отвечает страница, на которую ведет ссылка. Из похожих страниц при прочих равных выше будет та, на которую ссылаются.
  4. Ускоряет индексацию новых страниц.
    Поисковые боты сначала сканируют важные страницы: главную, страницы второго уровня вложенности и так далее. Ссылка на новый пост с важной страницы даст боту сигнал о том, что ее тоже нужно просканировать.
  5. Повышает юзабилити.
    Пользователи смогут прочитать дополнительную информацию по теме, если перейдут по ссылкам со страницы.
  6. Дополнительно защищает контент.
    При автоматическом копировании материалов из RSS-лент все внутренние гиперссылки остаются в тексте, читатели все равно смогут перейти на ваш сайт, и найти копипастеров будет проще.

Почитать по теме:
Google PageRank не мертв: зачем и как работать со ссылками

Как сделать перелинковку на сайте

Внутренняя перелинковка сайта нужны не только для распределения ссылочного веса, но и для юзабилити. Пользователь задерживается на сайте, переходит по ссылкам и получает дополнительную информацию.

Перелинковка состоит из нескольких видов автоматической и ручной работой.

1. Структура сайта

Правильно выстроенная структура сайта будет направлять краулеров в нужном веб-мастеру порядке и распределять ссылочный вес на важные для целевых действий страницы. Для того, чтобы указать краулеру, какие страницы нужно индексировать, составляют Sitemap — Карту сайта с информацией об архитектуре ресурса и о нужных в индексе страницах.

Какую структуру сайта выбрать

Веб-мастеры могут усиливать значимость страниц, направляя на них ссылочный вес с помощью перелинковки.

Польский специалист Макс Сайрек три месяца проводил эксперимент со ссылками: он изменял внутренние ссылки и отслеживал сканирование сайта краулером GoogleBot.

В структуре многих интернет-магазинов есть несколько больших категорий товаров с множеством подкатегорий. Причем в меню все подкатегории товаров связаны с главной страницей. На схеме структура выглядит так:

Неэффективная структура интернет-магазина по мнению Макса Сайрека

Такая структура неэффективна: GoogleBot видит все ссылки на каждой странице с меню, поэтому все страницы имеют одинаковое количество ссылок и одинаковое значение. В примере на схеме ссылочный вес главной страницы распределяется равномерно на 24 категории с подкатегориями вместе, поэтому каждая страница получает около четырех процентов от веса главной.

Для перелинковки эта архитектура сайта неудобна.

Допустим, веб-мастер написал статью для своего блога и поставил в ней ссылку на одну из подкатегорий. Эксперимент Макса показал, что из нескольких ссылок на одну и ту же страницу Google учитывает только первую, остальные игнорирует. Если ссылка на подкатегорию уже будет в меню сайта, как на схеме, то GoogleBot проигнорирует вторую ссылку из статьи.

Структуру следовало бы построить по-другому: разделить ссылочный вес главной страницы на четыре подкатегории, тогда каждая из них получила бы по 25% значимости и распределяла бы ее дальше.

структура сайта

Правильная структура интернет-магазина по мнению Макса Сайрека

У многих магазинов есть фильтры для удобного поиска товаров. Эксперимент показал, что краулер сканирует фильтры, в том числе малоинформативные, и раздает им ссылочный вес, поэтому такие ссылки краулеру лучше не предлагать.

Скрытые ссылки в пунктах меню, которые появляются только при наведении, и скрытые табы с внутренними ссылками бот воспринимает как обычные, акцептор можно найти по уникальному анкору. Не получится спрятать ссылки от краулера, поместив их в скрытое меню.

Эффективной стратегией считают распределение ссылок по SILO-структуре архитектуры сайта. SILO подразумевает распределение страниц сайта по иерархии: контент сгруппирован по темам и структурирован от общих категорий до подкатегорий и отдельных товаров.

Такое распределение ссылочного веса в рунете называют карусельной перелинковкой — вес переносят сверху вниз с главной страницы на крупные разделы, оттуда на категории, подкатегории и товары или статьи.

Лучше всего структуру проиллюстрирует схема:

SILO-структура контентаSILO-структура контента на сайте

Для объединения схожих тем подходят страницы-хабы — обзорные страницы с общей темой. Они подробно рассказывают о категории посетителям сайта и группируют дочерние подкатегории, распределяя по ним вес с главной страницы. На хабе можно разместить релевантные статьи и другие ссылки, которые помогут узнать больше о теме.

Ссылки на одной тематической ветке можно перелинковать между собой, чтобы пользователи могли перейти на другие страницы с товарами или статьями в теме, которая их заинтересовала.

С помощью ссылок с авторитетных страниц можно придать вес важным конверсионным страницам.

Подробнее про SILO-структуру контента

Какие ссылки не передают вес

Эксперимент показал, что ссылочный вес не передают ссылки через JavaScript — onclick=»window.location.href =’page4.html'», но краулеры их воспринимают и могут по ним переходить.

Такая же ситуация со ссылками через JavaScript-функцию — class=»js-link» data-url=»page9.html», причем страницу, на которую вела такая ссылка, краулер посещал чаще остальных в этой категории.

GoogleBot игнорировал ссылки через JavaScript-функцию с закодированными данными — class=»js-link» data-url=»cGFnZTEwLmh0bWw=», как и ссылки с динамическим параметром — page2.html?parameter=1.

Не сработала и ссылка с якорем — page2.html#testhash, она не передавала вес и по запросу анкора в индексе страница не появилась.

Сквозные ссылки — те, которые находятся на всех страницах сайта, как бы пронизывают ресурс насквозь. В их числе внешние и внутренние страницы в шапке, сайдбаре или футере сайта.

Шапка интернет-магазина

Шапка сайта магазина «Rose Luxe»

Это может быть навигация или ссылки на сторонние сайты. Они дают такую же пользу, как и внешняя или внутренняя перелинковка, но поскольку ссылка находится на каждой странице сайта, то и вес на акцептор будет переходить с каждой страницы.

SEO-специалист Михаил Шакин в своем Telegram-канале писал, что в связи с алгоритмами поисковиков сквозные ссылки могут дать положительный эффект или навредить сайту.

Положительный эффект дают ссылки с естественными текстами, в виде адреса сайта или названия компании — Студия «Морошка», moroshka.ru.

Сквозные ссылки с текстами из ключей, к примеру, «купить букет в Москве», ссылки на другие сайты в главной навигации ресурса поисковики могут воспринять как спам. Такие ссылки могут подходить под определение «ссылок из низкокачественных каталогов и служб закладок» или «одинаковых ссылок в нижней части страниц на разных сайтах». Снять негативный эффект поможет исправление текста на естественный или удаление ссылки.

Важно ли место расположения ссылки?

Представитель Google Джон Мюллер заявил, что для поисковика не имеет значения, в каком месте страницы расположены внутренние ссылки. Их наличие и актуальность для пользователя важнее того, где они размещены на странице.

С другой стороны, специалисты компании «Zyppy» считают, что ссылкам внизу страницы достается меньший вес, чем верхним. Это полезно учитывать, если помещать в шапку или футер сайта ссылки на все разделы проекта: информацию о компании, доставке, оплате, разделы каталогов, вход в личный кабинет и контакты.

Подвал интернет-магазинаФутер сайта магазина «Лабиринт»

Некоторые специалисты советуют не перегружать ссылками навигацию по сайту. Чем меньше ссылок, тем проще за ними следить и направлять краулеров Google и Яндекс на самые важные URL для сканирования.

Компания «Wayfair» сделали навигацию по сайту легче — удалили 150 ссылок. В подвале сайта была 51 ссылка, они удалили те, которые были не нужны на каждой странице, и оставили только 20 важных для пользователей. В итоге пользователям стало проще ориентироваться в разделах сайта, они быстрее находят нужный раздел и приступают к покупкам.

оптимизация футера сайта

Старый и новый варианты футера

Релевантность страниц, удовлетворение потребностей пользователей влияют на SEO лучше, чем сквозные ссылки на как можно большую часть страниц сайта. Лучше сосредоточиться на страницах, которые важны для целевых действий и отвечают на популярные вопросы пользователей.

«Хлебные крошки» — элемент навигации сайта, который показывает путь от главной до страницы, на которой находится пользователь. Каждая надпись в элементе — ссылка на предыдущую категорию в архитектуре сайта внутри SILO-структуры контента.

хлебные крошки для навигации на сайте«Хлебные крошки» на сайте магазина «Lamoda»

Ссылки из «хлебных крошек» передают вес страницам, их индексируют поисковые системы. Кроме того, это элемент юзабилити — пользователю будет проще вернуться в общий каталог или предыдущий раздел с помощью быстрых ссылок из «крошек».

4. Блок с популярными или похожими материалами

Кольцевой метод перелинковки — создание круга ссылок, замкнутого в кольцо. Часто используют для блога: выводят под материалом ссылки на статьи по схожей теме так, чтобы все статьи внутри этой темы ссылались друг на друга. В качестве текста ссылки рекомендуем использовать не «Следующая статья» или «Предыдущий материал», а названия статей, содержащие ключи.

Так на каждой странице появляются ссылки на материалы, которые передают друг другу ссылочный вес. Кроме того, пользователи могут заинтересоваться статьями по смежной теме и переходить по ссылкам, от чего будут расти поведенческие факторы ресурса.

Вывод других материалов по теме на странице статьи

Блоки с похожими статьями устанавливают с помощью плагинов для CMS.

Контекстные ссылки внутри статьи в первую очередь должны дополнить материал и помочь пользователю лучше понять тему.

Оформите ссылки так, чтобы они были заметны пользователям — выделите цветом, подчеркиванием. Не сосредотачивайте ссылки в одном месте материала, это неудобно для пользователей. Отберите самые подходящие по смыслу и полезные, чтобы пользователи переходили по ним и задерживались на сайте, улучшали поведенческие факторы. Делайте ссылки такой длины, чтобы пользователь мог легко попасть по ней с телефона.

контекстная ссылка в текстеСсылка в тексте статьи

Страница и текст ссылки должен быть релевантным содержанию материала, на который ссылается. Ссылки с изображения поисковый бот тоже воспринимает. В названии изображения и в теге «alt» используйте ключевые слова, чтобы боту было проще определить релевантность страницы.

6. Анкоры для ссылок

Анкор ссылки находится в HTML между тегом <a> и </a> — <a href=»https://ссылка.ру»> Текст ссылки</a>. Текст ссылки будет анкором.

Анкоры могут быть:

  • прямыми, состоят из ключевой фразы, обычно высокочастотной — «купить диван»;
  • разбавленными, ключевыми словами с уточнениями, высоко- и низкочастотными — «посмотреть полотна Дали желтого периода»;
  • естественными — в виде домена, ссылки на картинку, не ключевого слова.

Анкоры вида «читайте тут» или «об этом здесь» замените на фразы с ключевыми словами, чтобы было понятно, что появится по ссылке — « рецепт сливочного соуса», «подробнее о заборах из штакетника». Бот распознает анкоры ссылок и определяет релевантность ссылки ключу из анкора. Если на главной слово встречается только в анкоре, а на внутренней вообще этого слова нет, ссылка с главной на внутреннюю по уникальному ключевому слову даст больший эффект внутренней странице.

Как проверить ссылки на сайте

Проанализировать внутренние и внешние ссылки можно с помощью бесплатного инструмента от PR-CY. Он даст информацию о точном количестве внешних и внутренних ссылок на странице, покажет их текстовое окружение и URL. Проверить можно не только главную, но и любую другую страницу сайта.

анализ ссылок на главной и внутренних страницах

Фрагмент результатов анализа


Внутренняя перелинковка — способ управлять ссылочным весом на сайте и направлять краулеров на важные страницы. Веб-мастерам проще всего работать с внутренними ссылками на своем ресурсе, потому что они полностью подконтрольны.

Как составить robots.txt самостоятельно

Как составить robots.txt самостоятельно

Как правильно составить robots.txt и зачем он вообще нужен, как закрыть индексацию через robots.txt и бесплатно проверить robots.txt с помощью онлайн-инструментов.

Как поисковики сканируют страницу
Robots.txt для Яндекса и Google
Как составить robots.txt правильно
Инструменты для составления и проверки robots.txt

Как поисковики сканируют страницу

Роботы-краулеры Яндекса и Google посещают страницы сайта, оценивают содержимое, добавляют новые ресурсы и информацию о страницах в индексную базу поисковика. Боты посещают страницы регулярно, чтобы переносить в базу обновления контента, отмечать появление новых ссылок и их доступность.

Зачем нужно сканирование:

  1. Собрать данные для построения индекса — информацию о новых страницах и обновлениях на старых.
  2. Сравнить URL в индексе и в списке для сканирования.
  3. Убрать из очереди дублирующиеся URL, чтобы не скачивать их дважды.

Боты смотрят не все страницы сайта. Количество ограничено краулинговым бюджетом, который складывается из количества URL, которое может просканировать бот-краулер. Бюджета на объемный сайт может не хватить. Есть риск, что краулинговый бюджет уйдет на сканирование неважных или «мусорных» страниц, а чтобы такого не произошло, веб-мастеры направляют краулеров с помощью файла robots.txt.

Боты переходят на сайт и находят в корневом каталоге файл robots.txt, анализируют доступ к страницам и переходят к карте сайта — Sitemap, чтобы сократить время сканирования, не обращаясь к закрытым ссылкам. После изучения файла боты идут на главную страницу и оттуда переходят в глубину сайта.

Какие страницы краулер просканирует быстрее:

  1. Находятся ближе к главной.
    Чем меньше кликов с главной ведет до страницы, тем она важнее и тем вероятнее ее посетит краулер. Количество переходов от главной до текущей страницы называется Click Distance from Index (DFI).
  2. Имеют много ссылок.
    Если многие ссылаются на страницу, значит она полезная и имеет хорошую репутацию. Нормальным считается около 11-20 ссылок на страницу, перелинковка между своими материалами тоже считается.
  3. Быстро загружаются.
    Проверьте скорость загрузки инструментом, если она медленная — оптимизируйте код верхней части и уменьшите вес страницы.

Все посещения ботов-краулеров не фиксируют такие инструменты, как Google Analytics, но поведение ботов можно отследить в лог-файлах. Некоторые SEO-проблемы крупных сайтов можно решить с помощью анализа лог-файлов который также поможет увидеть проблемы со ссылками и распределение краулингового бюджета.

Посмотреть на сайт глазами поискового бота

Robots.txt для Яндекса и Google

Веб-мастеры могут управлять поведением ботов-краулеров на сайте с помощью файла robots.txt. Robots.txt — это текстовый файл для роботов поисковых систем с указаниями по индексированию. В нем написано какие страницы и файлы на сайте нельзя сканировать, что позволяет ботам уменьшить количество запросов к серверу и не тратить время на неинформативные, одинаковые и неважные страницы.

В robots.txt можно открыть или закрыть доступ ко всем файлам или отдельно прописать, какие файлы можно сканировать, а какие нет.

Требования к robots.txt:

  • файл называется «robots.txt«, название написано только строчными буквами, «Robots.TXT» и другие вариации не поддерживаются;
  • располагается только в корневом каталоге — https://site.com/robots.txt, в подкаталоге быть не может;
  • на сайте в единственном экземпляре;
  • имеет формат .txt;
  • весит до 32 КБ;
  • в ответ на запрос отдает HTTP-код со статусом 200 ОК;
  • каждый префикс URL на отдельной строке;
  • содержит только латиницу.

Если домен на кириллице, для robots.txt переведите все кириллические ссылки в Punycode с помощью любого Punycode-конвертера: «сайт.рф» — «xn--80aswg.xn--p1ai».

Robots.txt действует для HTTP, HTTPS и FTP, имеет кодировку UTF-8 или ASCII и направлен только в отношении хоста, протокола и номера порта, где находится.

Его можно добавлять к адресам с субдоменами — http://web.site.com/robots.txt или нестандартными портами — http://site.com:8181/robots.txt. Если у сайта несколько поддоменов, поместите файл в корневой каталог каждого из них.

Как исключить страницы из индексации с помощью robots.txt

В файле robots.txt можно запретить ботам индексацию некоторого контента.

Яндекс поддерживает стандарт исключений для роботов (Robots Exclusion Protocol). Веб-мастер может скрыть содержимое от индексирования ботами Яндекса, указав директиву «disallow». Тогда при очередном посещении сайта робот загрузит файл robots.txt, увидит запрет и проигнорирует страницу. Другой вариант убрать страницу из индекса — прописать в HTML-коде мета-тег «noindex» или «none».

Google предупреждает, что robots.txt не предусмотрен для блокировки показа страниц в результатах выдачи. Он позволяет запретить индексирование только некоторых типов контента: медиафайлов, неинформативных изображений, скриптов или стилей. Исключить страницу из выдачи Google можно с помощью пароля на сервере или элементов HTML — «noindex» или атрибута «rel» со значением «nofollow».

Если на этом или другом сайте есть ссылка на страницу, то она может оказаться в индексе, даже если к ней закрыт доступ в файле robots.txt.

Закройте доступ к странице паролем или «nofollow» , если не хотите, чтобы она попала в выдачу Google. Если этого не сделать, ссылка попадет в результаты но будет выглядеть так:

Такой вид ссылки означает, что страница доступна пользователям, но бот не может составить описание, потому что доступ к ней заблокирован в robots.txt.

Содержимое файла robots.txt — это указания, а не команды. Большинство поисковых ботов, включая Googlebot, воспринимают файл, но некоторые системы могут его проигнорировать.

Если нет доступа к robots.txt

Если вы не имеете доступа к robots.txt и не знаете, доступна ли страница в Google или Яндекс, введите ее URL в строку поиска.

На некоторых сторонних платформах управлять файлом robots.txt нельзя. К примеру, сервис Wix автоматически создает robots.txt для каждого проекта на платформе. Вы сможете посмотреть файл, если добавите в конец домена «/robots.txt».

В файле будут элементы, которые относятся к структуре сайтов на этой платформе, к примеру «noflashhtml» и «backhtml». Они не индексируются и никак не влияют на SEO.

Если нужно удалить из выдачи какие-то из страниц ресурса на Wix, используйте «noindex».

Как составить robots.txt правильно

Файл можно составить в любом текстовом редакторе и сохранить в формате txt. В нем нужно прописать инструкцию для роботов: указание, каким роботам реагировать, и разрешение или запрет на сканирование файлов.

Инструкции отделяют друг от друга переносом строки.

Символы robots.txt

«*» — означает любую последовательность символов в файле.

«$» — ограничивает действия «*», представляет конец строки.

«/» — показывает, что закрывают для сканирования.

«/catalog/» — закрывают раздел каталога;

«/catalog» — закрывают все ссылки, которые начинаются с «/catalog».

«#» — используют для комментариев, боты игнорируют текст с этим символом.

User-agent: *
 Disallow: /catalog/
 #запрещаем сканировать каталог
 
 

Директивы robots.txt

Директивы, которые распознают все краулеры:

User-agent

На первой строчке прописывают правило User-agent — указание того, какой робот должен реагировать на рекомендации. Если запрещающего правила нет, считается, что доступ к файлам открыт.

Для разного типа контента поисковики используют разных ботов:

  • Google: основной поисковый бот называется Googlebot, есть Googlebot News для новостей, отдельно Googlebot Images, Googlebot Video и другие;
  • Яндекс: основной бот называется YandexBot, есть YandexDirect для РСЯ, YandexImages, YandexCalendar, YandexNews, YandexMedia для мультимедиа, YandexMarket для Яндекс.Маркета и другие.

Для отдельных ботов можно указать свою директиву, если есть необходимость в рекомендациях по типу контента.

User-agent: * — правило для всех поисковых роботов;

User-agent: Googlebot — только для основного поискового бота Google;

User-agent: YandexBot — только для основного бота Яндекса;

User-agent: Yandex — для всех ботов Яндекса. Если любой из ботов Яндекса обнаружит эту строку, то другие правила User-agent: * учитывать не будет.

Sitemap

Указывает ссылку на карту сайта — файл со структурой сайта, в котором перечислены страницы для индексации:

User-agent: * Sitemap: 
 http://site.com/sitemap.xml
 

Некоторые веб-мастеры не делают карты сайтов, это не обязательное требование, но лучше составить Sitemap — этот файл краулеры воспринимают как структуру страниц, которые не можно, а нужно индексировать.

Disallow

Правило показывает, какую информацию ботам сканировать не нужно.

Если вы еще работаете над сайтом и не хотите, чтобы он появился в незавершенном виде, можно закрыть от сканирования весь сайт:

User-agent: *
 Disallow: /
 

После окончания работы над сайтом не забудьте снять блокировку.

Разрешить всем ботам сканировать весь сайт:

User-agent: *
 Disallow:
 

Для этой цели можно оставить robots.txt пустым.

Чтобы запретить одному боту сканировать, нужно только прописать запрет с упоминанием конкретного бота. Для остальных разрешение не нужно, оно идет по умолчанию:

Пользователь-агент: BadBot 
 Disallow: /
 

Чтобы разрешить одному боту сканировать сайт, нужно прописать разрешение для одного и запрет для остальных:

User-agent: Googlebot
 Disallow: 
     
 User-agent: * 
 Disallow: /
 

Запретить ботам сканировать страницу:

User-agent: *
 Disallow: /page.html
 

Запретить сканировать конкретную папку с файлами:

User-agent: *
 Disallow: /name/
 

Запретить сканировать все файлы, которые заканчиваются на «.pdf»:

User-agent: *
 Disallow: /*.pdf$
 

Запретить сканировать раздел http://site.com/about/:

User-agent: *
 Disallow: /about/
 

Запись формата «Disallow: /about» без закрывающего «/» запретит доступ и к разделу http://site.com/about/, к файлу http://site.com/about.php и к другим ссылкам, которые начинаются с «/about».

Если нужно запретить доступ к нескольким разделам или папкам, для каждого нужна отдельная строка с Disallow:

User-agent: *
 Disallow: /about
 Disallow: /info
 Disallow: /album1
 

Allow

Disallow-наоборот — директива, разрешающая сканирование. Для роботов действует правило: что не запрещено, то разрешено, но иногда нужно разрешить доступ к какому-то файлу и закрыть остальную информацию.

Разрешено сканировать все, что начинается с «/catalog», а все остальное запрещено:

User-agent: *
 Allow: /catalog 
 Disallow: /
 

Сканировать файл «photo.html» разрешено, а всю остальную информацию в каталоге /album1/ запрещено:

User-agent: *
 Allow: /album1/photo.html 
 Disallow: /album1/
 

Заблокировать доступ к каталогам «site.com/catalog1/» и «site.com/catalog2/» но разрешить к «catalog2/subcatalog1/»:

User-agent: * 
 Disallow: /catalog1/ 
 Disallow: /catalog2/ 
 Allow: /catalog2/subcatalog1/
 

Бывает, что для страницы оказываются справедливыми несколько правил. Тогда робот будет отсортирует список от меньшего к большему по длине префикса URL и будет следовать последнему правилу в списке.

Директивы, которые распознают боты Яндекса:

Clean-param

Некоторые страницы дублируются с разными GET-параметрами или UTM-метками, которые не влияют на содержимое. К примеру, если в каталоге товаров использовали сортировку или разные id.

Чтобы отследить, с какого ресурса делали запрос страницы с книгой book_id=123, используют ref:

«www.site. com/some_dir/get_book.pl?ref=site_1& book_id=123»
«www.site. com/some_dir/get_book.pl?ref=site_2& book_id=123»
«www.site. com/some_dir/get_book.pl?ref=site_3& book_id=123″

Страница с книгой одна и та же, содержимое не меняется. Чтобы бот не сканировал все варианты таких страниц с разными параметрами, используют правило Clean-param:

User-agent: Yandex 
 Disallow: 
 Clean-param: ref /some_dir/get_book.pl
 

Робот Яндекса сведет все адреса страницы к одному виду:

«www.example. com/some_dir/get_book.pl? book_id=123″

Для адресов вида:
«www.example2. com/index.php? page=1&sid=2564126ebdec301c607e5df»
«www.example2. com/index.php? page=1&sid=974017dcd170d6c4a5d76ae»

robots.txt будет содержать:

User-agent: Yandex
 Disallow:
 Clean-param: sid /index.php
 

Для адресов вида

«www.example1. com/forum/showthread.php? s=681498b9648949605&t=8243»
«www.example1. com/forum/showthread.php? s=1e71c4427317a117a&t=8243»

robots.txt будет содержать:

User-agent: Yandex 
 Disallow: 
 Clean-param: s /forum/showthread.php
 

Если переходных параметров несколько:
«www.example1. com/forum_old/showthread.php? s=681498605&t=8243&ref=1311»
«www.example1. com/forum_new/showthread.php? s=1e71c417a&t=8243&ref=9896″

robots.txt будет содержать:

User-agent: Yandex 
 Disallow: 
 Clean-param: s&ref /forum*/showthread.php
 

Host

Правило показывает, какое зеркало учитывать при индексации. URL нужно писать без «http://» и без закрывающего слэша «/». Директиву распознают только боты Яндекса.

User-agent: Yandex
 Disallow: /about
 Host: www.site.com
 

Crawl-delay

Частая загрузка страниц может нагружать сервер, поэтому устанавливают Crawl-delay — время ожидания робота в секундах между загрузками. Мощным серверам не требуется.

Время ожидания — 4 секунды:

User-agent: *
 Allow: /album1 
 Disallow: /
 Crawl-delay: 4
 

Только латиница

Напомним, что все кириллические ссылки нужно перевести в Punycode с помощью любого конвертера.

Неправильно:

User-agent: Yandex 
 Disallow: /каталог
 

Правильно:

User-agent: Yandex
 Disallow: /xn--/-8sbam6aiv3a
 

Пример robots.txt

Запись означает, что правило справедливо для всех роботов: запрещено сканировать ссылки из корзины, из встроенного поиска и админки, карта сайта находится по ссылке http://site.com/sitemap, ref не меняет содержание страницы get_book:

User-agent: *
 Disallow: /bin/ 
 Disallow: /search/ 
 Disallow: /admin/ 
 Sitemap: http://site.com/sitemap 
 Clean-param: ref /some_dir/get_book.pl

Составить robots.txt бесплатно поможет инструмент для генерации robots.txt от PR-CY, он позволит закрыть или открыть весь сайт для ботов, указать путь к карте сайта, настроить ограничение на посещение страниц, закрыть доступ некоторым роботам и установить задержку:

Графы инструмента для заполнения

Для проверки файла robots.txt на ошибки у поисковиков есть собственные инструменты:

Инструмент проверки файла robots.txt от Google позволит проверить, как бот видит конкретный URL. В поле нужно ввести проверяемый URL, а инструмент покажет, доступна ли ссылка.

Инструмент проверки от Яндекса покажет, правильно ли заполнен файл. Нужно указать сайт, для которого создан robots.txt, и перенести его содержимое в поле.


Файл robots.txt не подходит для блокировки доступа к приватным файлам, но направляет краулеров к карте сайта и дает рекомендации для быстрого сканирования важных материалов ресурса.

Как собрать медиамикс digital-инструментов для продвижения медицинских препаратов

Как собрать медиамикс digital-инструментов для продвижения медицинских препаратов

Медицинский маркетинг – процесс, где интересы фармпроизводителей тесно переплетаются с интересами пользователей, которые, в свою очередь, защищает государство. Эта сфера считается одной из самых сложных для рекламы, поскольку действия ограничены законодательством. Какие инструменты и на каком этапе стоит применять для успешного продвижения медпрепаратов в интернете?

Путь клиента

Путь клиента.png

Наличие большого количества аптек сегодня, в том числе в интернете, облегчает приобретение лекарственных препаратов. По данным исследования STADA, 84% опрошенных покупают препараты исходя из личного опыта применения обезболивающих, противовирусных, витаминных комплексов и других лекарств. При этом 79% следуют рекомендациям врачей, если недомогание выходит за рамки обычной простуды, легкой боли и нарушения работы ЖКТ.

Прежде чем сделать окончательный выбор, 40% изучают отзывы в интернете, а 44% внимательно читают и сравнивают инструкции препаратов – в том числе онлайн. Еще 20% респондентов учитывают спецпредложения, скидки и промоакции аптек, а 64% обращают внимание на стоимость препаратов, сравнивать которую удобно онлайн.

Интернет-взаимодействие фармпроизводителя с покупателем может происходить на каждом из этих этапов. Как сделать контакты с потенциальными клиентами наиболее эффективными?

До подбора digital-микса

Особенности вашей целевой аудитории

Целевая аудитория рекламы фармпрепаратов — это профессиональные потребители (специалисты медучреждений, закупщики лекарственных средств, оборудования и услуг) и обычные потребители. Последние делятся на три основные группы:

  • здоровые люди, которые задумываются о поддержании достойного уровня жизни, увлекаются ЗОЖ и т.п.;
  • временно нездоровые, которым требуется эффективное краткосрочное решение проблемы;
  • хронически больные, которым нужен долгосрочный комплекс мер.

Для интернет-маркетинга особенно важно определить специфику своей целевой аудитории, так как на разные группы лучше воздействовать через несколько рекламных каналов.

Точки пересечения с целевой аудиторией

Для достижения максимальной эффективности в интернет-рекламе нужно сделать процесс взаимодействия с потенциальными клиентами как можно более интуитивным и логичным, а потом масштабировать точки пересечения на другую аудиторию в аналогичном контексте либо на этих же клиентов, но с другим сообщением или на другой площадке.

Например, мы рекламируем средство от детских колик на сайте для молодых мам. Если мы будем продвигать такое средство на сайте автомастерской – это будет ошибкой выбора контекста. Другое дело — реклама в мобильном приложении с рецептами для кормящих: так мы используем ту же ЦА, но в ином контексте.

Зная точки пересечения, мы помогаем налаживать связь между конечным пользователем и продуктом.

Рекламное послание, которое заинтересует вашу целевую аудиторию

От правильного ответа на вопрос, с чем именно обратиться к пользователям, зависит эффективность нашей рекламной кампании. Важно знать, какое сообщение раскроет максимум преимуществ для целевой аудитории и решит «боль» клиента. На этом этапе мы должны понимать сезонность продукта и теплоту спроса в зависимости от времени года и гео.

Стратегия продвижения на разных этапах воронки продаж

Воронка продаж – это путь, по которому проходит клиент от интереса к продукту до его покупки. Наша задача – учитывать потребности клиента, возникающие на каждом этапе, его мотивы, вопросы, возражения. Для каждого этапа, в зависимости от целей, используем разные инструменты в определенной последовательности.

Цикл жизни клиента на разных этапах:

Цикл жизни клиента.png

Цикл жизни клиента

При рекламе в сети ориентиром для нас становятся действия пользователя на сайте. При рекламе определенных средств в фармацевтике целевым может считаться конкретное действие на сайте, например, «где купить», «перейти в онлайн-аптеку». Сама продажа чаще всего происходит офлайн на основании предпочтений человека.

Вариант оптимального распределения инструментов в зависимости от спроса:

Воронка продаж для фармы.png

Воронка продаж для фармы

В этой тематике необходимо сначала создать знание о проблеме и продукте, поэтому имеет смысл использовать ТВ как инструмент для охвата всех сегментов аудитории. А для тщательной проработки и воздействия на целевую аудиторию лучше использовать все виды рекламы в интернете – контекстную, таргетированную рекламу, программатик и видеорекламу.

Задачи, которые обычно стоят перед интернет-маркетологом, можно разделить на два больших блока: увеличение знаний о бренде и продажи. На практике мы чаще всего сталкиваемся с сочетанием этих задач. В каждом отдельном случае есть свои ограничения: что считаем конверсией, каково УТП продукта, позиции конкурентов-аналогов, будем ли размещаться на всю Россию или выберем отдельные города. Все это влияет на итоговый пул инструментов.

Примеры медиамиксов

Медиамикс для продукта, зарекомендовавшего себя на рынке

Основная цель: охват «теплого» спроса, сформированного сезонностью проблемы.

Стратегия: максимальный охват ЦА, захват аудитории конкурентов-аналогов, увеличение офлайн- и онлайн-продаж. Активное использование аудиторий ретаргетинга.

Медиамикс для продукта, зарекомендовавшего себя на рынке.png

Большую долю бюджета стоит заложить на social, так как у данного канала есть возможность сегментировать пользователей и показываться только тем, кого может заинтересовать продукт. В контекстном размещении – сделать упор на брендовые и конкурентные запросы.

Медиамикс для нового продукта, выходящего на рынок

Основная цель: сформировать знание о продукте.

Стратегия: максимальный охват, повышение уровня доверия бренду. Использование большого количества подходящих аудиторий и площадок.

Медиамикс для нового продукта, выходящего на рынок.png

В контекстном размещении – упор на общетематические запросы. Большую часть бюджета закладываем на кампании Programmatic и Video для создания знания о бренде и формирования имиджа продукта.

Особенности рекламных каналов при продвижении фармпрепаратов

Контекстная реклама

  • Брендовый трафик

Брендовые запросы обходятся недорого, так как система распознает наши объявления как более подходящие, за счет чего кампания улучшает свои показатели. Стоит размещаться по брендовым запросам, чтобы не позволить конкурентам рекламироваться по нашим запросам. Более развернутый комментарий о том, почему брендовый трафик упускать нельзя, дает исследование Яндекса «Директ в поисковой выдаче от Александры Маликовой».

  • Использование расширений

В частности, номер телефона и виртуальная визитка, благодаря которым клиент может сразу уточнить все вопросы по препарату.

  • Разделение трафика на десктоп и мобайл

Деликатные тематики чаще всего ищут с мобильных устройств, что наглядно подтверждается исследованиями Яндекс.

Динамика распределения кликов по типам устройств (данные закрытой квартальной аналитики за Q3 2018 года).png 

Динамика распределения кликов по типам устройств (данные закрытой квартальной аналитики за Q3 2018 года)

Анализируя такие запросы, мы наблюдаем, что зачастую трафик с десктопа «горячее». Зная, где местонахождение заинтересованной аудитории, делаем корректировки ставок, чтобы получать более качественный трафик.

  • Медийно-контекстный баннер на поиске Яндекса

Удобен при охвате брендового трафика, потому что находится на первой странице выдачи и занимает видное место. МКБ зарекомендовал себя, как высококонверсионный инструмент.

  • Контекст на сетях

Преимуществом является высокий охват и возможность таргетироваться отдельно на аудитории пользователей, которые входят в нашу ЦА. Например, препарат от отравления, который часто берут путешественники, есть возможность показывать тем пользователям, которые интересуются путешествиями, любят вкусно поесть и заботятся о здоровье.

Таргетированная реклама в социальных сетях

Один из незаменимых инструментов в арсенале специалиста, поскольку в социальных сетях пользователь указывает большое количество информации о себе. Основных площадок четыре: ВКонтакте, Facebook, Одноклассники, Instagram. Каждая имеет свои особенности и правила.

На текущий момент система настроек таргетинга в Facebook – одна из самых разветвленных и детальных среди соцсетей. Она предоставляет детализацию от пола и возраста вплоть до интереса к морепродуктам или легкого/сильного увлечения футболом. Оптимизация рекламы происходит в зависимости от цели кампании.

При основной цели «Охват» или «Узнаваемость бренда» стоит обратить внимание на охватные кампании FB и IG отдельно по площадкам. Система будет оптимизировать показы таким образом, чтобы наибольшее число пользователей смогло увидеть объявление.

Требуется настройка событий пикселя на сайте, если основная цель – «Увеличение продаж». Затем площадка будет оптимизировать показы таким образом, чтобы найти наиболее заинтересованных пользователей, которые не просто посмотрят или кликнут, а совершат конверсии.

Данный анализ происходит на основании прошлого поведения пользователя в соцсетях и на сайтах-партнерах. Facebook – умная площадка, и чаще всего такой формат оптимизации дает хорошие результаты. Я рекомендую заводить все плейсменты, так как наш продукт может заинтересовать тех, например, кто не сидит в ленте FB, но листает сториз в IG.

Программатик

Для этого канала характерно использование автоматических платформ, которые предоставляют возможность анализировать эффективность креативов и понять, какую сумму нужно заплатить владельцу площадки.

В мобильной рекламе выделю два существенных и часто непересекающихся сегмента:

  • размещение на мобильном трафике классических веб-сайтов – адаптированных или неадаптированных для небольших экранов;
  • размещение в мобильных приложениях.

Я рекомендую рассмотреть программатик-нативную рекламу при размещении на веб-сайтах. Такой подход сочетает в себе преимущества программатик и нативной рекламы. В среднем качественные метрики – показатель отказов, среднее время на сайте, глубина просмотра, полученные с помощью нативной рекламы – вполне сопоставимы, а иногда и выше аналогичных метрик по органическим каналам.

Особенность нативной рекламы – маскировка рекламных объявлений под обычный текст в новостной ленте социальных сетей. Пользователи из нашей ЦА, просматривая новости, не будут воспринимать объявление как рекламу, а значит, станут более лояльны.

Пример нативной рекламы для Базирона.jpg

Пример нативной рекламы для Базирона

Пример нативной рекламы для Дирол.jpg

Пример нативной рекламы для Дирол

Видеореклама

Видеореклама используется для имиджевых и охватных целей. Традиционно в фармацевтике эту задачу раньше решала TB-реклама, но снижение заинтересованности к телевидению формирует новую аудиторию — пользователей, которые проводят время за просмотром фильмов и роликов в интернете.

Площадок, размещающих на своих сайтах рекламу, много. Наибольшую аудиторию имеют YouTube, Mail.ru, Native Roll. При выборе площадки нужно учитывать, что на каждой из них – своя аудитория, и важно заранее уточнять у менеджера, есть ли там пользователи с нужными вам характеристиками.

Пример видеорекламы по фарме на YouTube (формат In-Stream).jpg

Пример видеорекламы по фарме на YouTube (формат In-Stream)

На Mail.ru рекомендую использовать Pre-Roll – удобный формат из ВКонтакте и Одноклассников. Он имеет хороший показатель VTR – соотношение количества просмотров к количеству показов относительно других инструментов. Подходит для охватной кампании.

Советы при использовании видеорекламы:

  • Проводите замену креативов минимум раз в 2 месяца – они быстро приедаются пользователям, которые их уже видели.
  • Чаще «освежайте» аудиторию – исключайте людей, которые уже видели рекламу. Расширяйте таргетинг на новых пользователей.

В конце 2018 года для видеосети MRG и партнерской сети появился новый инструмент – мультиформат. Его основное отличие в том, что он объединяет много площадок, начиная с почты Mail.ru и заканчивая MyTarget. Долю бюджета на данный инструмент нужно варьировать в зависимости от цели. Например, мы использовали 40% на формат от всего бюджета канала. В сравнении с Pre-Roll получаемый CTR меньше, но его окупает конверсионность.

Ретаргетинг/ремаркетинг

Этот инструмент в разной степени присутствует в каждом интернет-канале, но для фармацевтической отрасли он не всегда доступен из-за ограничений по площадкам. Ретаргетинг стоит использовать несмотря на сложности, с которыми можно столкнуться при запуске – например, в контекстной рекламе.

Процент конверсии по нему один из самых высоких: моя практика показывает, что это может быть до 60% по кнопке «Где купить» при использовании брендового сайта одного продукта.

Лояльная аудитория, которая уже была на сайте и вернулась снова, с большей вероятностью пойдет за ним в аптеку или продолжит принимать препарат, а аудиторию, только узнавшую о бренде, ретаргетинг вовлечет в процесс покупки.

Три основных вывода

  1. Для грамотного составления медиамикса важно понимать на каждом этапе воронки продаж — чего хочет ваша ЦА и как ей это дать.
  2. Рекламное сообщение и распределение digital-инструментов происходит исходя из портрета целевого пользователя, УТП продукта, сезонности и выделенного бюджета.
  3. Состав медиамикса меняется в зависимости от задачи: одни интернет-инструменты помогают создать или поддержать знание о продукте, другие – повысить продажи, в том числе за счет аудитории конкурентов.

Распределение рекламного бюджета между различными инструментами продолжается и после запуска рекламных кампаний – на основании постоянного анализа их эффективности. Только постоянная оптимизация позволит выработать идеальный медиамикс для конкретного фармпроизводителя и бренда.