В этой статье я поделюсь с вами опытом построения дополнительной стратегии SEO-продвижения сайта нашего клиента.
Благодаря анализу данных можно узнать, что ищут пользователи, и создавая отсутствующие посадочные страницы, удовлетворять их спрос.
По этому проекту мы работали давно, и для поиска новых точек роста решили обратиться к аналитике внутрисайтового поиска. Это хорошая возможность проанализировать реальные поисковые запросы пользователей, так как эта метрика показывает нам, что искал и не нашел пользователь, зашедший к нам на сайт. А также это возможность увидеть, что плохо структурировано или плохо представлено на сайте. Внутренний поиск необходимо анализировать с помощью Google Analytics и затем применять полученные данные для улучшения показателей SEO.
Как анализировать поиск по сайту?
Через отчет в Google Analytics мы можем:
- узнать, как пользователи используют поиск на вашем сайте
- какие запросы вводят
- помогают ли результаты увеличить показатель вовлеченности
- отследить действия пользователей через поиск
- применить полученные данные для улучшения SEO
Переходим в Google Analytics. Затем раздел “Поведение”, “Контент сайта”, выбираем “Все страницы”.
Далее в поле «Параметр запроса» укажите параметр, который используется для поиска по сайту.
Для того чтобы узнать, какой у вашего поиска по сайту паттерн, нужно перейти на сайт и в поиске ввести запрос. В URL мы увидим “search”, это и будет нашим регулярным выражением для поиска. В параметрах запроса может быть как одна буква, так и слово или несколько слов (term, search, query). Все зависит от CMS-сайта или фантазии разработчика.
Теперь мы видим список всех запросов, которые ищет пользователь, и страницы, которые он посещает.
Также в полученном отчете мы можем наблюдать важные метрики. Метрики — это количественные показатели, например, “Средняя длительность просмотра страницы” и “Показатель отказов”.
Проанализировав вышеуказанные показатели, следует сделать выводы:
- удовлетворены ли пользователи результатами поиска по сайту
- что находят/не находят пользователи на сайте
Исходя из собранных данных, мы можем создавать посадочные страницы, изменять навигацию, переименовывать категории и т.д. Но делать это следует с умом, проверяя спрос, релевантность и позиции.
Разберем практический пример:
У нас есть ряд поисковых запросов от пользователя и мы хотим понять, находил ли пользователь ответы на свои запросы.
Это нам поможет понять корректность работы поиска, верности заполнения характеристик или текстового описания товаров и, возможно, что-то еще, в зависимости от вашей фантазии. Но чтобы разобраться в этом вопросе, давайте сначала выясним, что такое парсинг.
Парсинг
Простыми словами, парсинг – это автоматизированный сбор информации с любого сайта, ее анализ, преобразование и выдача в структурированном виде, чаще всего в виде таблицы с набором данных.
Для парсинга сайта нам необходим парсер.
Парсер сайта — это любая программа или сервис, которая осуществляет автоматический сбор информации. Парсеры «обходят» сайт и собирают данные, которые соответствуют заданному условию.
Для чего нам это нужно?
Ранее через отчет в GA мы выгрузили ссылки, но как понять, какое количество товаров посетители находили в результатах поиска? Для этого мы и используем парсер. Существует множество парсеров, в статье мы будем рассматривать Screaming Frog SEO Spider.
Screaming Frog SEO Spider
Мы будем использовать Screaming Frog для парсинга ссылок.
Этапы парсинга
- определяем параметры или паттерны для парсинга данных
- готовим Xpath-запросы и указываем их в настройках Screaming Frog SEO Spider
- запускаем краулер в работу
Напомним, у нас присутствует n-страниц результатов поиска, которые пользователи запрашивают, используя внутренний функционал. На данных страницах располагаются товары. Для того чтобы спарсить количество товаров с указанных страниц, нам потребуется XPath. Связка XPath с краулером позволит быстро собрать и получить эту информацию в удобной для работы форме.
Что же такое XPath?
Парсинг работает на основе XPath-запросов. XPath — язык запросов, который обращается к определенному участку кода страницы (DOM) и собирает из него заданную информацию.
Чтобы краулер собрал нужную информацию, требуется «скормить» ему URL-адреса и сформировать Xpath-запросы.
Если вы ранее не работали с Xpath-запросами, рекомендуем ознакомиться с данным видео. Здесь мы подробно объясняем, как анализировать коммерческие факторы, используя парсинг на Xpath-запросах.
Приступаем к работе
Для начала устанавливаем на свой компьютер расширение XPath.
Открываем любую из полученных нами ссылок из отчета GA и ищем уникальный элемент на странице. Этот элемент может быть в карточке товара или, как в моем случае, на самой странице.
Запускаем наше расширение и с помощью зажатой клавиши SHIFT выделяем этот уникальный элемент.
У нас получился довольно длинный запрос для парсинга. Требуется сократить его до читаемого вида.
Оставляем //div[@class=’sort-left’]/div/span
// — как обращение к некому элементу на странице;
div — путь до конкретного элемента;
[ ] — в квадратных скобках указываем через символ @ “класс равен такому-то значению”.
Обязательно проверяем, корректно ли работает наш запрос.
Куда вписывать XPath-запрос
Переходим в Screaming Frog. Загружаем список страниц, по которому он будет ходить (ссылки, полученные из отчета в GA). Для этого на главной панели нажимаем “Mode” > “List”.
Далее нажимаем “Upload”, “Enter Manually”.
Вставляем наши ссылки в открывшееся окно и нажимаем Next.
Теперь добавляем полученный XPath-запрос (//div[@class=’sort-left’]/div/span). Заходим в “Configuration” > “Custom” > “Extraction”.
В открывшемся окне нажимаем Add, выбираем XPath, добавляем код, нажимаем ОК и кнопку “Start”.
В результате парсинга через XPath-запрос мы получили список данных со страниц сайта, удобный для дальнейшей обработки (столбец Extractor 5.1 на скриншоте ниже).
Экспортируем полученные данные в xlsx или csv-таблицу, нажав на кнопку “Export”. Сохраняем файл.
При открытии документа (xlsx или csv) у вас могут возникнуть проблемы с кодировкой. Пример “абракадабры” из набора символов представлен на скриншоте.
Чтобы документ открылся корректно и все символы были читаемыми, открываем сохраненный документ в Excel, заходим во вкладку “Данные”, “Получение внешних данных”, “Из текста”, и импортируем наш файл.
Затем, выбираем “Текст по столбцам” > “с разделителями”.
Далее выбираем “запятая”, “Далее”, “Готово”.
В итоге у нас получается читаемый документ.
Подведем итог
Благодаря полученным данным при сортировке таблицы, мы получаем выборку URL-адресов, где находится мало товаров. Далее мы проверяем позиции и спрос по ключевым словам для этих товаров. Позиции можно легко проверить через сервис Арсенкин — Проверка позиций.
Вводим адрес сайта, перечисляем ключевые запросы, выбираем нужную нам поисковую систему и регион.
В результате проверки мы получаем позиции и релевантные URL-адреса.
Если есть спрос и отсутствует посадочная страница, то мы создаем новую. По созданным страницам мы отслеживаем эффективность, используя инструмент SEOWORK.
Подведем итог: используя поиск по сайту и такие инструменты, как Google Analytics, XPath и Screaming Frog, мы можем создавать и оптимизировать страницы, расширяя ассортимент товаров. Зачем человеку страница, на которой он увидит лишь два товара или вовсе ни одного? Он не запомнит ваш сайт и пойдет туда, где ассортимент больше. Поэтому важно отслеживать действия посетителей у вас на сайте.
Авторы статьи: Мария Павленко и Дмитрий Федосеев.
P.s. Подписывайтесь на наш телеграм-канал t.me/seoantteam, чтобы первыми узнавать о выходе новых материалов. И обязательно смотрите наш базовый курс по seo, где мы подробно разбираем основные моменты поисковой оптимизации. Например, начинающим seo-специалистам будет крайне полезно посмотреть лекцию и практику по подробному техническому аудиту, благодаря которым вы сможете самостоятельно проводить подробный техаудит, не прибегая к помощи старших коллег.
При написании статьи использованы материалы:
- https://www.youtube.com/watch?app=desktop&t=2&v=o5fQv4wPbKg&feature=youtu.be
- https://siteclinic.ru/blog/web-analytics/poisk-po-sajtu-ga/
- https://rapidweb.me/ru/posts/kak-s-pomoshchyu-vyrazhenij-xpath-i-screaming-frog-uluchshit-kontent-strategiyu/
- https://blog.promopult.ru/sales/parsing-lyubogo-sajta.html
- https://blog.ringostat.com/ru/parsing-dannyh-s-saytov-chto-eto-i-zachem-on-nuzhen/
- https://blog.webformula.pro/article/razdel-povedenie-v-googleanalytics-chast-1-/#:~:text=%C2%AB%D0%A1%D1%80%D0%B5%D0%B4%D0%BD%D1%8F%D1%8F%20%D0%B4%D0%BB%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D0%BE%D1%81%D1%82%D1%8C%20%D0%BF%D1%80%D0%BE%D1%81%D0%BC%D0%BE%D1%82%D1%80%D0%B0%20%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D1%8B%C2%BB%20%D1%80%D0%B0%D1%81%D1%81%D1%87%D0%B8%D1%82%D1%8B%D0%B2%D0%B0%D0%B5%D1%82%D1%81%D1%8F,%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0%D1%85%20%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D1%82%D0%B5%D0%BB%D0%B8%20%D0%BD%D0%B0%D1%85%D0%BE%D0%B4%D1%8F%D1%82%D1%81%D1%8F%20%D0%B4%D0%BE%D0%BB%D1%8C%D1%88%D0%B5%20%D0%B2%D1%81%D0%B5%D0%B3%D0%BE.
- https://www.owox.ru/blog/articles/metrics-and-dimensions-in-ga/
- https://support.google.com/analytics/answer/1012264?hl=ru#zippy=%2C%D1%81%D0%BE%D0%B4%D0%B5%D1%80%D0%B6%D0%B0%D0%BD%D0%B8%D0%B5
- https://serpstat.com/ru/blog/kak-sozdat-vnutrennij-poisk-na-sajte/