...

Отправить заявку на SEO-продвижение сайта от Ant-Team.ru

Заказать

Как мы автоматизировали работу с событийкой в беттинге и в 5 раз сократили сроки и бюджет на задачу

Рассказываем, как мы разработали уникальный инструмент для автоматизации продвижения и аналитики событийных страниц для беттинг-компании и теперь тратим минуты, а не часы на работу с посадочными и выводом их в топ.

Рис.1. Создали кастомный инструмент для автоматизации работы с событийкой.

Что за клиент и как работали с сайтом

Клиент — букмекерская компания, которая ведет бизнес в России и странах СНГ. Компания полностью легальна, действует на основании лицензий и в соответствии с законами стран присутствия.

Конкуренция в нише очень высокая. Так, еще в 2023 году объем рынка беттинга в России достиг 2,5 трлн рублей, из которых около 1,7 трлн рублей пришлось на онлайн-сегмент. Это на 12% больше, чем в предыдущем году. Увеличение интереса связано с популяризацией онлайн-ставок и активным развитием мобильных приложений.

Для работы с клиентским сайтом использовали несколько стратегий:

  1. Текстовая оптимизация. Работали с основными страницами, категориями, создавали полезный экспертный контент по теме, генерировали метатеги и т. д.
  2. Ссылочная оптимизация. Занимались закупкой ссылок, крауд-маркетингом,  строили PBN-сеть под сайт клиента.
  3. Создание сайтов-сателлитов.

Стратегии понятные и рабочие, но для успешного продвижения их недостаточно. Нужна работа с событийным трафиком.

В чем особенности событийных страниц и как мы с ними работали

Трафик с событийных страниц в беттинге — всего лишь доли процентов от общего трафика сайта, но при этом именно событийка генерирует большую часть реальных клиентов и прибыли. Так что без нее не обойтись.

У всех стратегий свои особенности. У работы с событийным трафиком они такие:

  • В каждом регионе десятки событий: разные виды спорта, лиги, турниры, матчи. Для каждого мероприятия — своя посадочная, с которой SEO-специалист работает индивидуально.
  • Время на продвижение ограничено — страницы существуют от 4 до 14 дней, в десятке лидеров крупные агрегаторы с большими бюджетами. При этом каждое событие должно быстро оказаться в топе поисковой выдачи, иначе не будет клиентов и заработка.

Такие условия требуют четкой и отлаженной системы.

Все это у нас было и работало следующим образом:

Подготовка:

  1. Мы получали список событий от клиента, разрабатывали технические задания на тексты для посадочных страниц.
  2. ТЗ передавали авторам через собственную биржу.
  3. Готовые тексты отправляли клиенту и ждали появления посадочной на сайте.
  4. Когда страница с текстом появлялись на сайте, составляли метатеги, выполняли маркдаун-разметку.

Отслеживание:

  1. Семантику отправляли на отслеживание и ежедневно снимали позиции страниц и ключевых слов, анализировали, как размещенные тексты влияют на позиции.

Все этапы фиксировали в виде статусов в специальной табличке в Google Sheets.

Большую часть работы делали вручную: проверяли наличие посадочных и контента на них, отслеживали позиции, статусы, переносили данные из таблиц в рабочую документацию.

На подготовку одной страницы уходило около 3-4 часов, на ежедневное отслеживание —  от 30 до 90 минут в зависимости от активности спортивной жизни региона. В совокупности на эти задачи мы тратили от 15 до 25 часов в месяц.

Почему потребовалась автоматизация и решение собственной разработки

Процесс был выстроен хорошо и давал результаты, но ручная работа — это всегда время, деньги, периодические косяки и куча возможностей для улучшений (что приятно!).

Из-за объема задач (пять рынков, разные виды спорта, чемпионаты, разные типы турниров, разные лиги) случались человеческие ошибки. Ничего критичного, но нужно было потратить время на их поиск и исправление.

Событийные страницы «живут» недолго, так что традиционные инструменты (например, Google Search Console) не давали нам достаточно оперативных данных для корректного анализа. Гугл обновляет данные с задержкой от одного до двух-трех дней и может обрабатывать не все урлы. Это сильно затягивало время аналитики и мешало принятию решений.

Нам нужно было постоянно собирать и анализировать большие объемы данных,  подходящего, гибкого и наглядного инструмента для этого не было.

Работу можно и нужно было оптимизировать: настроить отслеживание позиций страниц (в целом и по ключам) в реалтайм-режиме, автоматизировать сбор статусов, чтобы ускорить вывод в топ выдачи, избавиться от ошибок и сократить затраты.

Подходящих готовых решений на рынке не было, поэтому мы взялись за самостоятельную разработку.

Какие требования к решению сформировали

В первую очередь обсудили с клиентом и составили список функциональных и технических требований к решению.

Нужно было следующее:

  • Автоматизировать рутинные процессы: парсить данные по событиям, проверять появление страниц на сайте, генерировать ключевые запросы, мониторить наличие текста на посадочных, ежедневно отслеживать позиции.
  • Быстро собирать актуальные данные в режиме реального времени сразу из нескольких сервисов: позиции из Spyserp, частотность из Вордстата через сервис XMLRiver.
  • Создать дашборды для визуализации данных — удобную аналитическую систему, которая бы позволила группировать данные по типам событий, видам спорта, а также по любым другим характеристикам.
  • Стабильная, гибкая инфраструктура: продукт должен всегда работать без задержек.
  • Минимальное человеческое вмешательство.

В результате должен был получиться продукт, который связывается с системами клиента и нашими ресурсами, учитывает информацию со статусами работы по каждой событийной странице в отдельной таблице, а после размещения лендинга собирает данные из сервисов аналитики по странице. Сами данные доступны в любой момент в удобном виде на странице с дашбордами.

Как реализовывали

Проектирование пайплайна системы  

Начали работу с проектирования базы данных — фундамента всего решения. Определили нужные данные и их структуру. После запланировали последовательность скриптов. В результате представили первый черновой прототип будущей системы.

 

Рис.2. Первый черновой пайплайн решения.

Разработка  

Подняли базу MySQL.

Написали скрипты на Python, которые обращаются:

  • к API Google Sheets и забирают данные из нашей сеошной таблички, где мы храним информацию о событиях, статус посадочной (размещена или нет) и данные о размещении текстов на этих страницах;
  • SpySERP, откуда собирают позиции запросов и базовую частотность этих запросов из XMLRiver для последующей аналитики позиций страниц.

В первой версии скрипт для сбора данных из Google Sheets «ходил» только в нашу табличку, а ссылки на лендинги с событиями и информацию о наличии текстов добавляли руками наши специалисты. Но в следующих итерациях разработки мы создали скрипт, который обращается к таблице клиента и забирает данные оттуда.

Визуализация  

Создали простой, но интуитивно понятный дашборд в Google Looker Studio с фильтрацией и выводом основных метрик: позиции страниц, количество урлов в топ-10, частота запросов.

Сроки разработки  

Базовая версия продукта была готова за (барабанная дробь) 16 часов.

Доработки — запуск парсинга сайтов и расширение функциональности — заняли еще 33 часа.

Первый вариант протестировали в рамках рабочих процессов клиента — в реальном времени, а затем быстро внедрили в продакшн.

Как все работает

На стороне клиента ничего менять не пришлось — все данные из клиентских таблиц (вид спорта, турнир, название и время события) автоматически парсятся с помощью Python-скриптов.

  • После появления страницы в SEO-таблицах (там собрана информация о событиях, соответствующие им страницы и т.д.) инструмент автоматически генерирует ключевые запросы. Использует название события и несколько триггерных слов: «ставки», «коэффициенты», «поставить». Ключевые слова записываются в нужный файловый формат без участия специалистов.
  • Сгенерированная семантика отправляется автоматически на отслеживание в SpySERP по API.
  • Ежедневно SpySERP проверяет позиции по сгенерированным ключам в поисковой выдаче, ну а мы забираем эти данные себе в БД.
  • Один из внедренных модулей ежедневно проверяет наличие текстов на страницах: если текст размещен, в таблице появляется соответствующий статус и дата.
  • Вся информация о позициях (а также о самих событиях, статусах страниц) выводится в Google Looker Studio на дашборды в виде наглядных графиков и таблиц. Фильтрация позволяет группировать данные по видам спорта, чемпионатам, либо иным  характеристикам.
Рис.3. Фильтрация событийных  страниц.

 

Рис.4. Данные по позициям страниц.

 

Рис.5. Данные по позициям и частотности конкретных запросов.

 

Рис.6. График нахождения страниц в ТОП-10 выдачи.

После завершения события данные автоматически удаляются из системы сбора позиций SpySERP, освобождая ресурсы.

 

Рис.7. Итоговый пайплайн решения.

 

К каким результатам пришли

В итоге клиент получил инструмент, который полностью автоматизирует рутинные процессы, позволяет в режиме реального времени отслеживать изменения позиций страниц, выполнять быструю аналитику.

Мы стали тратить на 2-3 часа меньше на подготовку к созданию событийных страниц, а ежедневный процесс отслеживания теперь занимает не больше 10 минут.

Стоимость текстов для посадочных сократилась в 3 раза: SEO-специалистам не приходится тратить время на формирование ключевых слов, ТЗ для текстов готовятся быстрее.

Автоматизация прошла настолько удачно, что работа SEO-специалистов свелась практически к нулю. А точнее, к одной-единственной задаче — передавать клиенту готовые тексты.

Еще один бонус: автоматизация рутинных процессов свела вероятность человеческой ошибки к минимуму.

Пока решение сосредоточено на задачах конкретного клиента, но его можно адаптировать к любому бизнесу и расширить поле применения. Например, использовать для интеграций с инструментами аналитики пользовательского поведения, прогнозирования эффективности страниц и анализа, а также разрабатывать дополнительные плагины для работы с данными.

Конкретно сейчас пожеланий по доработке продукта у заказчика нет. Но, возможно, они появятся, ведь клиент подключает к работе с дашбордом всё больше своих специалистов.

Если у вас есть задача по созданию кастомного инструмента для автоматизации рутинных задач, связанных с SEO, и вы ищете способы оптимизировать процессы, повысить эффективность работы, напишите нам в телеграм. Будем рады помочь!

Авторы: Анна Чечкова (руководитель отдела аналитики в  Ant-Team.ru) и Денис Мещеряков (руководитель SEO-отдела в  Ant-Team.ru).

 

Подписывайтесь на наш телеграм-канал, чтобы первыми узнавать о выходе новых материалов. И смотрите наши бесплатные обучающие видео на YouTube, VK и Rutube.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *