Олег Шестаков, Founder агентства поискового продвижения Rush Agency поделился своей экспертизой. Его команда успешно внедряет AI-агентов в свои процессы и клиентские проекты. По слухам, в правильных руках нейросети не просто генерируют контент, но и служат полноценным ресурсом для аналитики и SEO-оптимизации. Чтобы разобраться, как AI работает в SEO, мы взяли у Олега интервью и узнали как интегрировать агентов, какие задачи им можно передавать и где взять готовые «ноды» для внедрения
Также Олег поделился тремя кейсами об интеграции AI-агентов на клиентских проектах: анализ конкурентов в SEO, генерация SEO-статей для iGaming-индустрии и создание 6400 обновленных статей в месяц в Forex-нише.
Первые шаги и создание AI-агентов
Расскажи, когда вы впервые подключили AI-агентов и почему решились на этот шаг?
Мы в агентстве используем нейросети примерно с 2023 года. Тогда вышли первые модели ChatGPT, которые давали адекватный результат, и мы стали экспериментировать с промт-инжинирингом, чтобы получать от нейросети контент на нужном нам уровне.
После выхода качественных версий Open AI добавил расширения, например для парсинга сайтов и поисковой выдачи. После этого энтузиасты начали создавать SEO-инструменты на основе AI. Правда, они все равно работали некорректно.
Когда и как начали получать результаты, которые соответствовали вашим ожиданиям в автоматизации и качестве?
По-настоящему ситуацию в SEO изменила нейросеть Claude Sonnet 3.5 от Antropic, которая вышла в июне 2024 года. Эта модель делала качественный ресерч, понимала смыслы и почти не ошибалась.
С этого момента мы стали закидывать в Claude все, что только возможно, и смотрели на результаты. Они нас впечатляли с каждым разом. Но как это выглядело на практике — отдельная история. Мы работали через API, писали код на Python, создавали ужасный на вид интерфейс для инструментов и использовали прочие «страсти».
В процессе работы с Claude начали смотреть в сторону того, чтобы улучшить собственные мини-сервисы для SEO. Мы хотели сократить время разработки с месяцев до нескольких дней, упростить работающие инструменты и масштабировать их.
Какой инструмент оказался последним этапом перед внедрением полноценных AI-агентов?
Когда я искал способы оптимизировать наши инструменты на основе Claude, я наткнулся на проект Make.com, в котором уже были «ноды» от Open AI.
«Ноды» — модули, которые выполняют определенные действия. Например, обращение к API, парсинг данных, генерация контента, отправка писем и т.д.
Для их использования не требовалось писать код, и они напоминали конструктор Lego с инструкцией по сборке:
- Возьми текст с конкретной страницы конкурента.
- Выдели из текста все важные особенности и параметры «Казино N».
- Добавь этот блок в план будущей статьи.
Так мы и сделали первые инструменты автоматизации. В случае, если нужно было что-то доработать или исправить, то делали это за часы, а не за дни. Тем не менее, наши инструменты еще не были полноценными AI-агентами.
Чем AI-агент отличается от автоматизации на ChatGPT?
Чтобы увидеть отличия, рассмотрим два примера. Автоматизация через ChatGPT выглядит следующим образом:
- Получить письмо.
- Проверить тему и текст.
- Определить, есть ли проблема.
- Переслать письмо менеджеру.
Использование AI-агента выглядит так:
- Получить письмо.
- AI анализирует тему и текст.
- AI самостоятельно принимает решение: создать тикет в поддержке, переслать письмо в Sales-отдел, отправить уведомление в Telegram DevOps-инженеру или сообщить, что лежит основной сайт продукта.
Получается, что AI самостоятельно выполняет основную работу, а затем отправляет результат конкретному сотруднику.

Важно понимать то, что автоматизация через ChatGPT и AI-агенты — это совершенно разные миры.
В своем Telegram-канале ты говорил, что использовал MCP для создания AI-агента. Расскажи, почему именно MCP и Claude, а не другой инструмент?
Ранее я говорил о плагинах в ChatGPT, которые появились в 2023 году. Их создавали программисты, затем после обязательной модерации в OpenAI их публиковали в общий доступ. Это была головная боль.
MCP (Model Context Protocol) — это универсальный протокол общения LLM (ChatGPT, Claude и т.д) с другими приложениями. Он как раз решает эту проблему. LLM можно научить общаться с любыми приложениями на обычном человеческом языке.
Можешь привести простой пример, того как это работает?
После интеграции сервисов можно просто написать Claude: «пришли мне топ-10 самых посещаемых страниц из Google Search Console за последний месяц» или «какие ключевые слова принесли больше всего трафика за последнюю неделю?»
Чтобы ответить, нейросеть через API зайдет в Google Search Console, выгрузит данные в нужном формате и предоставит готовую аналитику.
Другой пример: необходимо проанализировать продажи в amoCRM. Раньше этот процесс выглядел так:
- Выгружаем все лиды и сделки из amoCRM.
- Загружаем статистику в нейросеть и объясняем, что значат конкретные сведения.
- Начинаем работать с этой информацией.
Сейчас достаточно написать несколько запросов, например: «пришли мне список успешных сделок за прошлую неделю с суммами и разбивкой по источникам» или «напиши, кто самый успешный продавец в этом квартале».
Кто угодно может написать «коннектор» для любой своей системы или использовать готовые решения. Разработчики популярных программ или энтузиасты уже выпустили MCP для разных продуктов: Google Analytics, YouTube, Google Search Console, Google Sheets, GitHub и т.д.

Где можно найти эти готовые решения?
Я ищу готовые MCP-сервера на следующих ресурсах:
- GitHub: https://github.com/modelcontextprotocol/servers
- Claude MCP Servers: https://www.claudemcp.com/servers
- MCP на Smithery: https://smithery.ai/
Если просто посмотреть на список, то может «взорваться мозг» от количества разных сервисов и программ, которые умеют общаться с Claude.
Какие используете платформы для создания AI-агентов? В чем их особенности для пользователей?
Мы пишем агентов на Make.com, N8N, Relevance.ai и Manus.ai. Уверен, что про последние два мало кто слышал, хотя сейчас они взрывают рынок на западе. Поэтому сделаю небольшой экскурс по каждой платформе.
- Make.com: быстрые решения из коробки, которые можно запустить за 15 минут. Сейчас доступно около 1000 готовых интеграций. Подходит владельцам интернет-магазинов, affiliate-менеджерам, маркетологам.
- N8N: инструменты с готовыми шаблонами с открытым исходным кодом. Их можно использовать на своем сервисе. Платформа предоставляет бесконечные возможности кастомизации на JavaScript. Подходит SEO-специалистам, медиа-байерам, арбитражникам, техническим командам.
- Relavance.ai: платформа с 40 000 готовых агентов и 2000 интеграций. Можно строить мультиагентные системы. Подходит средним и крупным командам, командам с большим количеством процессов.
- Manus.ai: первый General-агент с полностью автономными процессами и мультиагентной архитектурой. Превосходит GPT-4 в бенчмарках GAIA. Подходит продвинутым пользователям для построения микро-сервисов, проведения исследовательских задач.
Manus.ai можно сравнить с сотрудником-стажером, которому поручили простую задачу. Например, необходимо написать парсер креативов конкурентов и админку для выгрузки результатов. Платформа самостоятельно делает рисерч, выбирает стек для разработки, пишет код, устанавливает все на сервер.
Весь процесс выполняется автоматически. При этом каждую специфическую задачу выполняет отдельный AI-агент, передает результат другому AI-агенту, а главный AI-агент отвечает за финальный результат задачи.
Чтобы понять логику работы с платформами, рекомендую вначале использовать Make.com и создать простого агента-бота для Telegram. После этого можно поиграть с Manus и понять его возможности и функционал. Только после этого рекомендую изучать N8N, чтобы выполнять комплексные задачи.
Какие ошибки и проблемы возникали во время интеграции AI-агентов? Как их исправляли?
Бывало, что из-за криво настроенной интеграции ничего не работало. Для решения проблем смотрели логи, которые, как правило, на человеческом языке, переделывали и запускали заново.
Важно понимать, что работа с AI-агентом — это практически бесконечный процесс улучшений и эволюции. Эту работу можно сравнить с прокачкой персонажей в Diablo или Dota 2. Правда, с нейросетями есть бонус: некоторые из них прокачиваются самостоятельно.
Проблемы и ошибки при работе с агентами
Одна из проблем работы с нейросетями — они придумывают информацию. Есть ли такая проблема с Claude и нужно ли перепроверять информацию за AI-агентом?
Да, у нейросетей бывают «галлюцинации» и они могут врать. На мой взгляд, Claude врет меньше всех и лучше всего подходит для SEO-автоматизации. Мы решили эту проблему следующим образом:
- Создали специальные промты, с помощью которых нейросеть автоматически делает фактчекинг. Если она ошиблась или придумала информацию, то самостоятельно узнает об этом и исправляет.
- Даем нейросети максимум контекста, указываем, как работать с данными, что ей можно и нельзя делать. Хорошие промты могут занимать 1-2 листа в Google Docs.
Как правильно обучить Claude для выполнения конкретной задачи? Есть ли универсальные промты, которые можно использовать?
Поделюсь основными правила для создания структуры статей и написании текстов.
1. Используйте функционал Projects. Это важно в gambling и betting нишах, так как существуют тысячи игр, везде разные правила и бонусы.

Загрузите в базу знаний нейросети все сведения о нише:
- Информация о бренде.
- Глоссарий (словарь с терминами) из ниши.
- Редакционную политику.
- Гайдлайны бренда.
- Прочее, что поможет решить задачу.
Мало людей отправляет нейросети хоть что-то из списка. Как следствие — на выходе получаются слабые результаты.
2. Используйте кастомные стили. Claude можно научить писать в стиле любимого журналиста, блогера или вашего шеф-редактора

Практика
В видео ты говорил, что Claude может проверить позиции сайта. Получается, что ИИ может заменить некоторые SEO-инструменты?
Безусловно! В видео я использовал MCP-сервер Search1API, который позволяет Claude собирать данные напрямую из поисковой выдачи Google.
Мы в Rush Agency все больше процессов переводим на нейросети и AI-агентов. Например:
- Анализ конкурентов в ТОПе поисковой выдачи.
- Создание контент-планов для статей.
- Написание статей.
- Анализ ссылок конкурентов.
- Составление ссылочных стратегий для любых ГЕО.
- Автоматический аутрич целевых сайтов.
Многие считают, что нейросеть может выполнять большой список задач: кластеризация, анализ сайта, ссылок и т.д. Так ли это? Какие задачи кроме проверки позиций сайта можно «передать» AI-агенту? И какие задачи точно не стоит выполнять через ИИ?
AI-агенту можно полностью отдать создание и публикацию вирусных вертикальных видео для Instagram, TikTok и YouTube Shorts. Думаю, вы знаете, как наложить на них логотип казино с промокодом. Также можно отдавать аналитику сайтов, конкурентов, обновление и создание текстового контента. Агенты уже могут решать до 80% рутинных задач, но делать это просто «в лоб» нельзя.
Нейросетям необходимо давать контекст, который нужно откуда-то автоматически брать (например, из поисковой выдачи или внутренних систем). Поэтому для такой задачи нужен именно AI-агент, а не только нейросеть.
Также не стоит отдавать комплексные задачи, например, полный аудит сайта, т.к. это дорогой процесс. Стоит подождать еще год, и с текущим темпом развития AI можно будет делегировать и такие задачи.
Если хотите решить комплексную задачу, то используйте механизм промтинга под названием «Chain of Thoughts» (цепочка размышлений). Нейронки очень умные, если указать им, как правильно думать.
Как сейчас лично ты используешь AI-агентов, и как их использует твоя команда?
Мы автоматизируем все, что можно автоматизировать: от предварительных аудитов сайта до анализа конкурентов с использованием компьютерного зрения.
Для личных задач у меня сейчас два кастомных AI-агента, которые работают в формате Telegram-ботов. Один ведет учет личных финансов и строит отчеты, а второй считает калории.
Какие получили результаты от внедрения?
Поделюсь тремя наглядными кейсами нашего агентства.
Кейс 1: автоматизировали анализ конкурентов в SEO
Раньше на предварительный аудит сайтов-заказчиков уходило около 1,5 часов. Сейчас на задачу уходит 7 минут: от ссылки на сайт клиента и конкурентов до получения готового отчета. Задачу выполняет AI-агент, созданный на N8N.
Инструмент выбирает, какие данные и где собрать, как их представить, определяет точки роста. Скоро он будет делать скриншоты лучших решений конкурентов. Себестоимость работы AI-агента кратно дешевле работы человека.
Кейс 2: автоматизировали создание SEO-контента для iGaming на любых языках
Думаю, это самый интересный кейс для читателей из iGaming-ниши. Ко мне пришли друзья из одного холдинга. Они пишут сотни SEO-статей в месяц для своих брендов. При этом нужен не низкосортный контент от ChatGPT, а качественные, структурированные и оптимизированные статьи, которые по любому ГЕО сразу залетают в топ-30 поисковой выдачи.
Раньше они делали это руками SEO-специалистов. Сеошники:
- Вбивали ключевой запрос в Google.
- Открывали топ-10 страниц из выдачи.
- Копировали оттуда контент в блокнот.
- С помощью ChatGPT создавали «идеальную структуру статьи».
С таким подходом получалось или долго и дорого или быстро, но некачественно.
Мы же сделали для них AI-агента, который на любом языке делает планы статей именно под гемблинг. Расскажу, как построили рабочий процесс.
1. SEO-специалист указывает ключевое слово, выбирает ГЕО и язык. При необходимости добавляет дополнительные ключи и LSI-слова.
2. Агент получает URL-адреса первых 10 страниц в выдаче.
3. Человек смотрит, какие статьи можно взять за основу, и отмечает их галочками.
3. AI-агент переходит на указанные страницы, обходя антиспам-защиту, например, от Cloudflare, определяет контентную область на странице и копирует текст.
4. И тут происходит магия. Агент обрабатывает информацию, а SEO-специалист получает следующие данные:
- Три варианта качественных, кликабельных и оптимизированных заголовков (H1).
- Ключевые моменты статьи.
- Рекомендации для копирайтера или нейросети, как и в каком стиле писать статью.
- Подзаголовки H2 и H3, расположенные по важности для закрытия интента (намерения пользователя).
- Инструкцию, что именно написать в абзаце, чтобы удовлетворить запросы пользователя.
- Ключевики и LSI-слова для каждого абзаца
- Элементы, которые должны быть в абзаце: списки, таблицы (дает готовые), ссылки или кнопки.
- Рекомендации по визуалу, который нужно использовать в конкретном абзаце: изображения, схемы, инфографика. Также указано, что должно быть изображено на каждом элементе.
- Статистика для SEO-специалиста (в конце): количество слов, какие ключи были учтены, сколько и каких элементов нужно сделать на странице.
Остается скопировать готовое ТЗ и отдать копирайтеру или нейросети для создания статьи.
Структура статьи изначально построена так, чтобы удовлетворить запросы пользователя: какие способы пополнения и вывода есть в казино, есть ли минимальный депозит. За счет этого у статей будут хорошие поведенческие факторы, они будут стабильно заходить в топ поисковой выдачи.
Раньше на такой аутлайн у команды уходило минимум 2 часа. Сейчас от выбора ключа и сайтов конкурентов до готового аутлайна проходит 7-8 минут. При этом можно запускать даже 100 задач одновременно.
Кейс 3: Как держать ТОПы в Forex по всем миру с помощью AI-агента
Еще один интересный кейс внедрения AI-агентов уже в Forex-нише. За 7 лет продвижения Forex-брокеров и трейдинговых компаний Европы, США, ЛатАм, СНГ мы поняли, что в вертикали нужен новый контент. Статьи, опубликованные более 1 недели назад, вылетают из топа.
У нашего клиента было 400 монет и активов, по которым нужно еженедельно обновлять контент на 4 языках: английский, испанский, немецкий, французский. В сумме получается 6400 статей в месяц. Раньше это делалось вручную.
Мы решили, что хватит тратить ресурсы и сделали AI-агента, который:
- Ежедневно проверяет поисковую выдачу Google по целевым запросам и ищет свежие страницы.
- Копирует свежие прогнозы, немного видоизменяет, вставляет в определенный Google Doc, переводит и вычитывает контент.
- Повторяет задачу и находит прогнозы для каждой монеты и актива.
Когда агент выполнил все задачи, роботы клиента приходят в этот Google Doc и обновляют все данные на сайте.
Раньше на это требовалось 5 сотрудников, работающих на full-time, а сейчас — 0. Это позволило оставаться в топ-3 по важным запросам ежедневно.
Какие задачи по оптимизации рабочего процесса в рамках SEO смогут решать AI-агенты в будущем?
Появятся мультиагентные системы. Например, будет условный SEO-босс. Он получает задачу и сам распределяет её по специализированным агентам: по анализу ключевых слов, созданию аутлайнов, копирайтерам. Затем контент будет передаваться агенту-вебмастеру, который автоматом зальет статьи на сайт. Подобные агенты уже есть в паблике, например, Relevance.ai.

Мы сейчас создаем подобную систему для автоматического обновления контента на PBN-сетках. Еще к нам пришли ребята из холдинга, которым помогали в кейсе выше. Они хотят, чтобы мы сделали армию агентов, которые сами делают и разворачивают брендовые сайты для проектов. Нам понравилась идея, и мы сейчас активно работает над этим.
Дашь 3-5 советов для тех, кто планирует внедрять AI-агентов в работу?
Первое что нужно помнить: оптимизировать можно тот процесс, который уже существует. Если нет бизнес-процесса то и оптимизировать нечего.
Если процессы хотя бы есть, то вреднять агентов нужно поэтапно:
1. Аудит процессов (1-2 неделя):
- Выберите одну болезненную рутинную задачу.
- Пошагово опишите ее в виде технического задания.
- Определите источники данных и инструменты для работы.
2. Выбор платформы и запуск (3-4 неделя):
- Выберите платформу по уровню сложности.
- Создайте тестовый агент на небольшом объеме данных и задач.
- Тестируйте агента на реальных данных в течение 1-2 недели.
3. Масштабирование (2 месяц):
- В полном объеме внедрите автоматизацию.
- Обучите команду базовым принципам работы с агентом.
- Запланируйте следующий процесс для автоматизации.
Повторите все заново с другими задачами.
Еще советую избегать частых ошибок при внедрении агентов:
Ошибка | Как правильно |
❌Пытаться сразу автоматизировать все процессы | ✅Начните с одного процесса, все отточите и масштабируйте |
❌Недооценивать время на настройку | ✅Заложите 2-4 недели на тестирование и доработку |
❌Игнорировать обучения команды | ✅Выделите время на обучение сотрудников работе с AI-агентами |
❌Отсутствие мониторинга результатов | ✅Настройте метрики и регулярно отслеживайте эффективность. Важно понять принесла ли автоматизация пользу или нет. |
Вроде, все. Я завершил небольшой экскурс в мир AI-агентов. Если понравилась моя экспертиза, то можете посмотреть мои каналы: