Отправить заявку на SEO-продвижение сайта от Ant-Team.ru

Заказать

Нестандартная точка роста в SEO: аналитика поиска внутри сайта

В этой статье я поделюсь с вами опытом построения дополнительной стратегии SEO-продвижения сайта нашего клиента.

Благодаря анализу данных можно узнать, что ищут пользователи, и создавая отсутствующие посадочные страницы, удовлетворять их спрос.

По этому проекту мы работали давно, и для поиска новых точек роста решили обратиться к аналитике внутрисайтового поиска. Это хорошая возможность проанализировать реальные поисковые запросы пользователей, так как эта метрика показывает нам, что искал и не нашел пользователь, зашедший к нам на сайт. А также это возможность увидеть, что плохо структурировано или плохо представлено на сайте. Внутренний поиск необходимо анализировать с помощью Google Analytics и затем применять полученные данные для улучшения показателей SEO. 

Рисунок 1 — Видимость сайта в Яндекс

Как анализировать поиск по сайту?

Через отчет в Google Analytics мы можем:

  • узнать, как пользователи используют поиск на вашем сайте
  • какие запросы вводят
  • помогают ли результаты увеличить показатель вовлеченности
  • отследить действия пользователей через поиск
  • применить полученные данные для улучшения SEO

Переходим в Google Analytics. Затем раздел “Поведение”, “Контент сайта”, выбираем “Все страницы”.

Рисунок 2 — “Все страницы”

Далее в поле «Параметр запроса» укажите параметр, который используется для поиска по сайту.

Рисунок 3 — Параметр запроса

Для того чтобы узнать, какой у вашего поиска по сайту паттерн, нужно перейти на сайт и в поиске ввести запрос. В URL мы увидим “search”, это и будет нашим регулярным выражением для поиска. В параметрах запроса может быть как одна буква, так и слово или несколько слов (term, search, query). Все зависит от CMS-сайта или фантазии разработчика.

Рисунок 4 — Параметр

Теперь мы видим список всех запросов, которые ищет пользователь, и страницы, которые он посещает.

Рисунок 5 — Список

Также в полученном отчете мы можем наблюдать важные метрики. Метрики — это количественные показатели, например, “Средняя длительность просмотра страницы” и “Показатель отказов”.

Проанализировав вышеуказанные показатели, следует сделать выводы:

  • удовлетворены ли пользователи результатами поиска по сайту
  • что находят/не находят пользователи на сайте

Исходя из собранных данных, мы можем создавать посадочные страницы, изменять навигацию, переименовывать категории и т.д. Но делать это следует с умом, проверяя спрос, релевантность и позиции.

Разберем практический пример:

У нас есть ряд поисковых запросов от пользователя и мы хотим понять, находил ли пользователь ответы на свои запросы.

Это нам поможет понять корректность работы поиска, верности заполнения характеристик или текстового описания товаров и, возможно, что-то еще, в зависимости от вашей фантазии. Но чтобы разобраться в этом вопросе, давайте сначала выясним, что такое парсинг.

Парсинг

Простыми словами, парсинг – это автоматизированный сбор информации с любого сайта, ее анализ, преобразование и выдача в структурированном виде, чаще всего в виде таблицы с набором данных.

Для парсинга сайта нам необходим парсер.

Рисунок 6 — Мем

Парсер сайта — это любая программа или сервис, которая осуществляет автоматический сбор информации. Парсеры «обходят» сайт и собирают данные, которые соответствуют заданному условию.

Для чего нам это нужно?

Ранее через отчет в GA мы выгрузили ссылки, но как понять, какое количество товаров посетители находили в результатах поиска? Для этого мы и используем парсер. Существует множество парсеров,  в статье мы будем рассматривать Screaming Frog SEO Spider.

Screaming Frog SEO Spider

Мы будем использовать Screaming Frog для парсинга ссылок.

Этапы парсинга

  • определяем параметры или паттерны для парсинга данных
  • готовим Xpath-запросы и указываем их в настройках Screaming Frog SEO Spider
  • запускаем краулер в работу

Напомним, у нас присутствует n-страниц результатов поиска, которые пользователи запрашивают, используя внутренний функционал. На данных страницах располагаются товары. Для того чтобы спарсить количество товаров с указанных страниц, нам потребуется XPath.  Связка XPath с краулером позволит быстро собрать и получить эту информацию в удобной для работы форме.

Рисунок 7 — Мем

Что же такое XPath?

Парсинг работает на основе XPath-запросов. XPath — язык запросов, который обращается к определенному участку кода страницы (DOM) и собирает из него заданную информацию.

Чтобы краулер собрал нужную информацию, требуется «скормить» ему URL-адреса  и сформировать Xpath-запросы.

Если вы ранее не работали с Xpath-запросами, рекомендуем ознакомиться с данным видео. Здесь мы подробно объясняем, как анализировать коммерческие факторы, используя парсинг на Xpath-запросах.

Приступаем к работе

Для начала устанавливаем на свой компьютер расширение XPath.

Открываем любую из полученных нами ссылок из отчета GA и ищем уникальный элемент на странице. Этот элемент может быть в карточке товара или, как в моем случае, на самой странице.

Рисунок 8 — Элемент

Запускаем наше расширение и с помощью зажатой клавиши SHIFT выделяем этот уникальный элемент.

Рисунок 9 — Выделение элемента

У нас получился довольно длинный запрос для парсинга. Требуется сократить его до читаемого вида.

Рисунок 10 — Запрос
Рисунок 11 — Мем

Оставляем //div[@class=’sort-left’]/div/span

// — как обращение к некому элементу на странице;

div — путь до конкретного элемента;

[ ] — в квадратных скобках указываем через символ @ “класс равен такому-то значению”.

Обязательно проверяем, корректно ли работает наш запрос.

Рисунок 12 — Проверка запроса

Куда вписывать XPath-запрос

Переходим в Screaming Frog. Загружаем список страниц, по которому он будет ходить (ссылки, полученные из отчета в GA). Для этого на главной панели нажимаем “Mode” > “List”.

Рисунок 13 — List

Далее нажимаем “Upload”, “Enter Manually”.

Рисунок 14 — Enter Manually

Вставляем наши ссылки в открывшееся окно и нажимаем Next.

Рисунок 15 — Окно

Теперь добавляем полученный XPath-запрос (//div[@class=’sort-left’]/div/span). Заходим в “Configuration” > “Custom” > “Extraction”.

Рисунок 16 — Extraction

 В открывшемся окне нажимаем Add, выбираем XPath, добавляем код,  нажимаем ОК и кнопку “Start”.

Рисунок 17 — Код

В результате парсинга через XPath-запрос мы получили список данных со страниц сайта, удобный для дальнейшей обработки (столбец Extractor 5.1 на скриншоте ниже).

Рисунок 18 — Список страниц

Экспортируем полученные данные в xlsx или csv-таблицу, нажав на кнопку “Export”. Сохраняем файл.

Рисунок 19 — Export

При открытии документа (xlsx или csv) у вас могут возникнуть проблемы с кодировкой. Пример “абракадабры” из набора символов представлен на скриншоте.

Рисунок 20 — Пример “абракадабры”

Чтобы документ открылся корректно и все символы были читаемыми, открываем сохраненный документ в Excel, заходим во вкладку “Данные”, “Получение внешних данных”, “Из текста”, и импортируем наш файл.

Рисунок 21 — Excel

Затем, выбираем “Текст по столбцам” > “с разделителями”.

Рисунок 22 — Текст по столбцам

Далее выбираем “запятая”, “Далее”, “Готово”.

Рисунок 23 — Готово

В итоге у нас получается читаемый документ.

Рисунок 24 — Читаемый документ

Подведем итог

Благодаря полученным данным при сортировке таблицы, мы получаем выборку URL-адресов, где находится мало товаров. Далее мы проверяем позиции и спрос по ключевым словам для этих товаров. Позиции можно легко проверить через сервис Арсенкин — Проверка позиций.

Вводим адрес сайта, перечисляем ключевые запросы, выбираем нужную нам поисковую систему и регион.

Рисунок 25 — Запросы

В результате проверки мы получаем позиции и релевантные URL-адреса.

Рисунок 26 — Позиции и релевантные URL-адреса

Если есть спрос и отсутствует посадочная страница, то мы создаем новую. По созданным страницам мы отслеживаем эффективность, используя инструмент SEOWORK.

Рисунок 27 — SEOWORK

Подведем итог: используя поиск по сайту и такие инструменты, как Google Analytics, XPath и Screaming Frog, мы можем создавать и оптимизировать страницы, расширяя ассортимент товаров. Зачем человеку страница, на которой он увидит лишь два товара или вовсе ни одного? Он не запомнит ваш сайт и пойдет туда, где ассортимент больше. Поэтому важно отслеживать действия посетителей у вас на сайте.

Авторы статьи: Мария Павленко и Дмитрий Федосеев.

P.s. Подписывайтесь на наш телеграм-канал t.me/seoantteam, чтобы первыми узнавать о выходе новых материалов. И обязательно смотрите наш базовый курс по seo, где мы подробно разбираем основные моменты поисковой оптимизации. Например, начинающим seo-специалистам будет крайне полезно посмотреть лекцию и практику по подробному техническому аудиту, благодаря которым вы сможете самостоятельно проводить подробный техаудит, не прибегая к помощи старших коллег.

При написании статьи использованы материалы: