Вебмастера охотно прибегают к нейро-платформам для создания и оптимизации контента. Некоторые считают, что время копирайтеров ушло, другие говорят, что нет ничего лучше живого автора, а третьи успешно совмещают оба подхода. Тем не менее, AI-контент — одна из самых обсуждаемых тем в сообществе SEO-специалистов.
Чтобы от генеративных сетей действительно была польза, а не мнимая оптимизация затрат и штата, их нужно уметь использовать. О том, как правильно это делать, рассказал Олег Шестаков, основатель агентства поискового продвижения Rush Agency.
В статье вы увидите примеры аутлайнов, пошаговый алгоритм создания качественной статьи и узнаете, какие ошибки в использовании нейронок лучше не допускать.
Сейчас много говорят и пишут о генерации контента через нейросети. Как ты считаешь, какую базу нужно знать прежде чем перейти к созданию нейро-статей?
Уверен, что у читателей полярное мнение по поводу ИИ-контента: кто-то уже полностью перешел на генерацию, а кто-то считает, что ИИ-контент содержит «скрытые метки для Google» в результате которых весь сайт попадет в бан и вообще это зло. Истина где-то по-середине.
Если идти по стандартному флоу, когда ТЗ на статью вручную готовит вебмастер, то неважно, кто ее напишет — копирайтер или нейронка — получится одинаково плохо. Причина кроется в плохом ТЗ, потому что у человека ограниченное время и нужно за день сделать ТЗ для 5-15 страниц.
«Плохие тексты получаются потому что задание плохое, а не потому что ИИ не умеет писать классные тексты».
Большое преимущество нейросетей в том, что они уже кратно превзошли человека в задачах, где нужно получить сырые данные, их переработать и разделить на структурированные выводы. В 2025 году ручной анализ контента в ТОПе кажется плохой идеей.
Нужно заставить нейросеть анализировать тексты из топа выдачи, понимать интент пользователя, выделять под-интенты и делать детализированный аутлайн (детальный план статьи, которая закроет все потребности пользователя и будет нравиться Google).
Кроме того, если в ТЗ есть сложные требования к вхождению ключевых слов, H2 и H3 заголовкам, требованиями по «тошноте» или «спамности», то копирайтеры задирают цену. А сгенерировать такой текст через ИИ будет крайне трудно и на это может уйти 2-3 часа, чтобы покрыть все требования. Как показывает практика — это не нужно. Ранжирование работает иначе.
Как правильно подойти к подготовке ИИ-статьи? Расскажи на примере.
Представим, что наш SEO-специалист не владеет никакими средствами автоматизации и парсерами. Тогда его подход должен быть следующим:
- Идет в поиск по главному ключевому слову и открывает каждый сайт из топ-10.
- Ищет сайты, которые схожи с его ресурсом по типу контента. Например, если он пишет review-статью, то рассматривать нужно review-страницы.
- Копирует подходящие тексты один за другим в отдельный файл. Выбирает максимально качественные и проработанные тексты: минимум 3 текста с разных сайтов, а лучше 4-5. В итоге получится простыня из текстов конкурентов.
- Пишет промт, в котором просит взять главный ключ из кластера и проанализировать интент запроса, а также найти все под-интенты.
- Далее просит нейросеть создать структуру статьи с учетом того, как бы пользователь хотел получить ответ на запрос и решить задачу.
На выходе получится правильная структура статьи на уровне заголовков H2-H3.
Это первая итерация. Далее нужно попросить, чтобы для каждого параграфа H2-H3 нейросеть расписала следующее:
- Key Point: о чем нужно рассказать в конкретном абзаце, чтобы закрыть интент пользователя.
- Keywords: какие ключевые слова из кластера уместно употребить именно в этом параграфе (блоке текста).
- Copywriter Notes: инструкции для копирайтера — что писать, как писать, через что раскрывать смысл в конкретном блоке.
- Rich Content & Visual Elements: предложить какие визуальные элементы нужно добавить в эту часть текста — списки, таблицы, фото, таймлайн, инфографику и т.д.
На выходе для каждого параграфа должен получиться примерно такой гайд-лайн:
«Benefits of Playing at Instant Withdrawal Casinos
Key Point: Explore the advantages that players gain when choosing casinos with genuinely fast payouts. (3 paragraphs, 350 words)
Keywords: fast payout benefits, instant casino advantages, quick withdrawal perks, gambling
Google entities: Customer satisfaction, Gambling experience, Player retention, Financial security, Cash flow
Copywriter Notes: Draw on my experience working with both players and casino operators to highlight the benefits beyond just getting money faster. Discuss how I’ve observed improved player trust and satisfaction in casinos after they implemented faster withdrawal systems.
Visual and Structural Elements: Callout box highlighting the top 5 benefits with icons for each»
В нашем варианте мы еще автоматом определяем Google Entities — какие сущности должны присутствовать в блоке с точки зрения удовлетворения семантического поиска.
Пример финального аутлайна, который должен получиться. Это должен быть полноценный план статьи.
Есть ли особенности в сборе ключевых слов для генерации контента через нейросети?
Базово: сделать кластеризацию по ТОПу, чтобы на одной странице не продвигались ключевые слова, которые должны идти на другие страницы
Сейчас уже прошла эра поиска, когда Google искал по ключевым словам. Поисковик ищет по связанным между собой сущностям — entitites. Он понимает, какие ключи должны быть на странице, а какие вообще из другой темы. Это называется семантический поиск
Есть ли методы для улучшения промта? Например, для текста на review-сайт.
Если мы условились, что наш SEO-специалист лишен автоматизации, то я бы порекомендовал сходить в выдачу и посмотреть блок People Also Ask, в котором есть отличные вопросы для секции FAQ. Этого достаточно и не нужно усложнять.

Давай рассмотрим более продвинутый подход. Как обучать нейросети, чтобы автоматизировать подготовку контента?
Есть три уровня сложности.
Уровень 1 — использование контекстного окна в интерфейсе Claude Project / GPTS.
Здесь все довольно просто — создаете проект в Claude или ChatGPT, загружаете всю информацию в формате TXT, CSV, DOCX, PPTX, PDF и нейросеть все запоминает. Это крайне полезная и важная вещь, доступная даже новичку.
С этим функционалом нужно думать, что туда загружать, какой проект работает для каждой задачи. Например, не стоит смешивать процессы по созданию аутлайнов и написание текстов. Есть общие данные, которые стоит загрузить в оба проекта, но есть и много разных, которые будут только мешать и удорожать использование нейронки.

Пример хорошего использования: если у вас новый бренд казино или вы делаете зеркала для чужого продукта, то на этапах создания аутлайна и генерации текста стоит загрузить информацию о бренде. Это ценности, конкурентные преимущества, методы оплаты, список поддерживаемых игр. Так как нейросеть ничего не знает о новом бренде, без этой информации она будет галлюцинировать.
Пример плохого использования: у вас есть редакционная политика для написания текста по аутлайну — в каком стиле писать, от какого лица, какой Tone of Voice, сколько предложений в абзаце и т.д. Только она не нужна на этапе создания самого аутлайна. Если ее загрузить в нейросеть, то редполитика будет только засорять ваше контекстное окно (память нейронки) и путать нейросеть.
Уровень 2 — RAG (Retrieval Augmented Generation).
Это технология, которая недоступна «из коробки» в интерфейсе Claude или ChatGPT. Вот как она работает.
У нас есть база данных в векторном формате, куда мы можем загрузить всю информацию по нашей нише:
- Все слоты мира со всеми их параметрами: RTP, количество барабанов, количество призовых линий и т.д.
- Нюансы регуляции казино в каждой стране. Нейросеть будет знать, где казино легальны, а где — нет.
- Все бренды казино мира или те, которые вам нужны, со всеми их параметрами: юрисдикция, история бренда, список игр и т.д.
Перед отправкой промта, нужно сначала обратиться к базе данных и вытащить информацию, которая поможет LLM лучше ответить на ваш вопрос.
Затем в LLM идет промт, дополненный данными из базы. В результате вы дополняете свой промт свежим и точным контекстом. Это отлично работает в случаях, если этой информации еще нет в интернете — опять же для новых брендов.
Фактически итоговый промт будет состоять из трех частей:
- #Instructions — это роль, которую вы задали нейросети.
- #Context — контекст, который был взят из вашей базы.
- #Prompt — непосредственно промт, который вы дополнили при помощи RAG-системы (например: все параметры слота Aviator Space 2025).

В каких случая это полезно:
- Когда вам не хватает контекстного окна, чтобы загрузить все знания в нейросеть.
- Когда у ИИ нет в датасете того, о чем вы пишите. Например, вы хотите забрать себе трафик новоиспеченного бренда казино, который не позаботился о бренд-протекте и вышел на рынок буквально неделю назад. Claude или ChatGPT не будут знать ничего о новом продукте.
- Когда информация уже устарела: какой-то бренд запустился в новом ГЕО или добавил себе новые игры или методы оплаты (например, начал принимать криптовалюту).
Уровень 3 — обучение собственных моделей.
Это уже кастомный подход. Можно выделить два типа обучения:
- Pre-training, или обучение «с нуля» — подход, когда нужно загрузить в нейросеть огромные объемы текстов, чтобы она выучила лингвистику, грамматику и начала понимать различные паттерны размышлений. Это очень дорого, сложно и затратно по времени.
- Fine-tuning — это упрощенное дообучение существующих моделей на данных из вашей ниши, домене, стиле написания и т.д. Здесь нужен существенно меньший датасет и меньше ресурсов.
Не знаю никого, кто бы это использовал в iGaming, так как для решения любых задач по созданию гемблинг-контента достаточно использовать RAG. Однако, знаю ребят из Adult-ниши, которые обучали свою модель. Причина в том, что традиционные нейросети типа Claude и ChatGPT отказываются писать любой сексуализированный контент. В этом случае fine-tuning действительно оправдан.
Какие нейросети подходят для генерации гемблинг и беттинг-контента? И нужно ли разделять нейронки под разные задачи?
Большинство статей мы генерируем через Claude от Antropic. Сейчас это передовая нейронка не только в программировании, но и в генерации контента. По нашим тестам она показывает лучшие результаты в понимании естественного языка, смыслов и интентов.
У Claude есть такой функционал, как Projects. Через него вы можете загрузить как мастер-промт, которому она будет следовать во всех диалогах в рамках проекта, так и другую информацию. Например, сведения о бренде и авторе, редакционную политику, информацию о слотах с детальным описанием. Если не скармливать нейронке эти данные, будут получаться плохие тексты.
Недавно разработчики расширили контекстное окно до 1 млн токенов, а это ~750 000 английских слов. Представьте, сколько всего полезного можно загрузить ей в память.
ChatGPT практически не используем по нескольким причинам:
- В последнее время он «тупит» и может для двух разных пользователей по одному и тому же промту сгенерить похожие тексты
- Это массовый продукт, через который генерирует контент большая часть рынка. В результате поисковикам намного легче выявить паттерны таких генераций и выкинуть ее из индекса.
- У ChatGPT низкое качество статей — их практически нельзя использовать без редактуры, разве что для дорвеев.
- ChatGPT цензурирован на iGaming-тему и часто отказывается писать тексты по некоторым ключам.
В DeepSeek практически нет цензуры, и это выручает, когда нужно откровенно, но без негатива написать про нелицензированные казино или про продукты с плохой репутацией.
Gemini мы не используем для создания аутлайнов или финальной статьи, т.к. нас не устроило качество. Но мы используем ее для различных лингвистических операций: поиск entities (выделение связанных сущностей в тексте), расчет релевантности вопросов из блока FAQ к основному интенту статьи. Нейросеть отлично себя показывает в таких задачах.
«Еще Gemini оставляет невидимые метки о том, что контент сгенерирован с помощью ИИ. Это официально подтверждено Google, и технология называется SynthID. Google заявляет, что это сделано для юридических целей и пессимизации за такой контент не будет. Открытый вопрос: стоит ли верить заявлению?»
Как проверять ИИ-контент на ошибки? Особенно на иностранном языке.
Мы заставляем нейросеть делать автоматический фактчекинг, чтобы она проверяла за собой и, если найдет, исправляла неточности. Во многих кейсах этот подход улучшает качество аутлайнов и текстов. Claude c этим отлично справляется. Но у текстов есть свои особенности.
Если контент будет опубликован на основном сайте бренда, дорогом ревьюшнике, я бы точно вычитывал или передавал его редакторам. Если контент будет загружен на зеркало / brand protect сайт, то не стал бы. Такие тексты будут лучше, чем у 90% копирайтеров, которые пишут тексты для зеркал.
Мы в агенстве пробовали отдавать статьи на вычитку нейтивам. С текстами на английском все отлично, итальянцы оценили их на 9 баллов из 10 (не заметно, что текст сгенерирован нейросетью), а испанцы оценили статьи на 8 баллов из 10 (было несколько неприятных моментов, но по самой логике и полезности все хорошо).
Что нужно учитывать и как избежать санкций от поисковиков из-за генерируемого контента?
Google убрал из своего руководства то, что ИИ-контент — это спам. Для понимания расскажу, что такое спам:
- Контент, который является компиляцией из других источников без добавленной ценности.
- Контент, который не содержит полного и всеобъемлющего ответа на интент пользователя и раскрывает лишь часть критически важных под-интентов (вода).
- Контент, который не подвергался никакой редактуре человеком.
Такой контент обычно получается из промтов «Напиши мне текст по ключевому слову “Best online casino canada”». Контент, полученный после такого промта, может даже не зайти в индекс.
По методологии, что я описал выше, получаются полезные и интересные тексты. Хотя бы потому, что у них будут отличные поведенческие. Нейронка сама расставляет заголовки H2-H3 так, чтобы заинтересовывать пользователя и постепенно и лаконично отвечать на его запрос.
Стоит ли использовать детекторы AI-контента? Если да, то какие сервисы посоветуешь?
Они работают плохо и по своим алгоритмам. Я не использую детекторы. Если нужен лайфхак по их обходу, то расскажу о нем.
В Claude можно писать тексты в разных стилях: функционал доступен «из коробки», но мало кто замечает кнопку с пером и надписью «Custom Style». Найдите самого крутого автора из нужного ГЕО и ниши, возьмите 5-8 его крутых и объемных текстов и загрузите их в Custom Style. В итоге Claude начнет использовать стиль этого автора. Это добавляет «человечности» в глазах детекторов ИИ-контента.
Какие результаты получила твоя команда после автоматизации? Сколько сэкономили денег и времени?
Себестоимость 1000 слов со старым подходом была около $95 у копирайтеров и около $45 через ИИ. Такая высокая стоимость связаны с очень сложными ТЗ и учетом разных типов вхождений. В результате это не давало существенного профита.
Может возникнуть вопрос: как может ИИ-контент стоить $45 за 1000 слов? Дело в том, что нейросети оперируют понятием «токен» и не понимают, что такое «прямое вхождение», «разбавленное вхождение», «черезсловное вхождение». В результате невозможно с помощью промта заставить ИИ в 2 клика оптимизировать текст. Поэтому редакторам приходилось править все вручную, иногда снижая качество текста.
Когда мы написали AI-агента, который сам ходит в выдачу, анализирует интенты, выделяет под-интенты запроса, делает детальные инструкции копирайтеру, что именно и как писать в каждом абзаце, временные затраты кратно сократились. Копирайтеров перестали кошмарить бредовыми требованиями, а сами аутлайны стали представлять собой практически готовую статью. Также по такому ТЗ нейросети начали с первого раза генерировать хорошие тексты.
К чему пришли:
- Вначале себестоимость текста снизилась более чем в 2 раза: с $95 до $45 за 1000 слов.
- Позже себестоимость генерации снизилась в 6 раз: с $45 до $7 за 1000 слов. Благодаря RAG, хорошим аутлайнам и работе с интентом.
На каком этапе стоит рассматривать автоматизацию и как ее внедрять?
Если есть объем в 100 единиц контента в месяц, то пора. Здесь уже будет ощутимая выгода по времени и в деньгах.
Мы пошли следующим путем: сначала написали AI-агентов, которые выполняли большую часть работы. У нас было несколько проблемных этапов, на которых приходилось выгружать данные из одного агента и закидывать в другой. В результате подняли полноценный SaaS-сервис, с помощью которого генерируется сначала аутлайн на основе анализа текстов конкурентов, потом создается редакционная политика, и уже по ней генерируется текст.

Сначала в AI-агенте выбираем ключ, ГЕО, язык и глубину анализа выдачи.

Запускаем программу и через 5 секунд получаем ТОП поисковой выдачи. Затем выбираем конкурентов для анализа.

Оказалось, что такие задачи есть не только у нас. Поэтому сейчас предоставили софт SEO AGENTS нескольким брендам и affiliate-командам и помогаем им автоматизировать процесс создания текстов для iGaming. Так выглядит процесс, который используем:

В плане автоматизации для генерации выделю следующие микро-этапы:
- Сбор выдачи в своем интерфейсе.
- Копирование контента с выбранных сайтов в один файл.
- Автоматизация анализа интента и суб-интентов.
- Автоматизация создания аутлайна.
- Автоматизация генерации текста.
В агентстве вручную пишем редакционную политику под каждый бренд и домен. Процесс занимает пару часов. После создания редполитики можно запускать конвейер.
Есть SEO-агентства с редакциями, заточенными под постоянный выпуск ИИ-контента. В них распределяются роли: SEO-лиды готовят темы, авторы создают контент, редактора его проверяют. Как устроено у тебя, и сколько человек вовлечено в процесс?
У нас процесс устроено так:
- С помощью нейросети SEO-специалисты анализируют конкурентов, добавляют информацию о бренде или проекте клиента. В результате получается подробный аутлайн. Если сотрудникам что-то не нравится или они хотят добавить информацию, то вручную дорабатывают аутлайн.
- Аутлайн поступает в контент-отдел и редакторы генерируют статьи через те же нейросети. Затем вычитывают их и размещают на сайтах.
В агентстве работает порядка 60 SEO-специалистов, из которых 20 человек работает в SEO Global отделе, где мы продвигаем проекты под западные рынки.
Сейчас мы активно разрабатываем RAG-систему именно для iGaming, делаем базу куда войдут данные о:
- Всех брендах казино: их бонусы, игры, ГЕО, платежные методы и другие параметры.
- Всех слотах и их параметрах.
- Всей регуляторной информации по популярным ГЕО.

Планируем регулярно обновлять информацию в базе. С такими данными тексты будут получаться плюс-минус уровня копирайтеров-нейтив, а в некоторых случаях — лучше.
Естественно, будем добавлять в RAG-систему и базу знаний по Forex, Crypto и другим интересным тематикам.
Блиц! Расскажи о самых распространенных ошибках в генерации контента.
- Пытаться генерировать тексты, используя аутлайны с плохой детализацией или противоречивой информацией.
- Злоупотребление вхождениями ключевых слов в ущерб качеству текста: снижение читаемости и ценности для пользователя.
- Отсутствие редакционной политики, поданной на вход нейросети при генерации текста на основе аутлайна.
- Использование дешевых или бесплатных ИИ- моделей.