AI для каталога: не хайп, а KPI. Как мы внедряем ChatGPT и что измеряем
Автор: WebGoodPeople, Автор
Главный вопрос при внедрении AI в e-commerce — не «работает ли ChatGPT», а «что именно меняется в деньгах и операционных метриках». Без KPI AI становится дорогостоящим экспериментом, который трудно защитить перед собственниками.
Мы внедряем AI-модули в проекты на 1С-Битрикс и Next.js больше года. Вот как мы формулируем метрики до начала работ — и что реально получаем на выходе.
Три задачи, которые AI решает в каталоге
В большинстве e-commerce проектов AI даёт практический эффект в трёх зонах:
- Генерация и обновление описаний товаров. Особенно актуально для каталогов 5 000+ SKU, где контент-менеджеры физически не успевают.
- SEO-тексты и мета-теги. Массовая генерация title/description под кластеры запросов.
- Модерация и нормализация. Выявление дублей, противоречивых характеристик, битых данных.
Метрики до начала: что мы фиксируем
Перед стартом мы всегда фиксируем baseline по четырём параметрам:
| Метрика | Типичный baseline | Цель через 3 месяца |
|---|---|---|
| % SKU с описанием менее 100 символов | 40–70% | менее 10% |
| Время на 100 карточек (чел/час) | 8–12 ч | 0,5–1 ч (ревизия) |
| Органический трафик по длинному хвосту | baseline | +25–40% |
| CTR в выдаче (Search Console) | baseline | +0,3–0,8 п.п. |
Эти цифры берутся из реальных данных клиента за последние 90 дней — иначе нечего сравнивать.
Как устроена система: фоновые задачи без блокировок
Мы не внедряем AI «в поток»: каждый запрос к OpenAI API занимает 1–5 секунд, и встраивать это в синхронный запрос пользователя нельзя.
Вместо этого — очередь фоновых задач:
Новый/обновлённый товар к очереди к AI-воркеру к черновику к модератору/автоапруву к публикацииНа стороне Bitrix это агент событий OnAfterIBlockElementAdd/Update. На стороне Next.js — периодическая выборка товаров без описания по расписанию.
Ключевой параметр: уровень автоапрува. Для технических характеристик (вес, габариты, материал) — ручная проверка обязательна. Для маркетинговых описаний — автоапрув с периодическим аудитом выборки.
Что реально получают клиенты
На проекте с 12 000 SKU (металлопрокат) после трёх месяцев работы: покрытие карточек описаниями с 34% до 91%, время на обработку 100 карточек с 10 ч до 45 минут (только ревизия), органический трафик по хвостовым запросам +31% (Search Console).
На проекте с 3 500 SKU (часы, мультирынок): CTR в выдаче +0,4 п.п. за первые 6 недель, количество уникальных ключевых фраз в индексе +18%.
Что AI не делает (и не должен)
Распространённая ошибка — ожидать от AI полной автономии. Мы явно говорим клиентам: AI не заменяет эксперта в технических нишах (допуски, ГОСТ, сертификаты); генерация без ревизии может создать SEO-дубли; без логирования запросов/ответов невозможно отследить деградацию качества.
Последний пункт критичен: мы логируем каждый запрос к OpenAI с хешем входа и выхода — это позволяет аудировать качество и замечать дрейф при обновлении модели.
Итог: AI как операционный инструмент, а не R&D
AI-интеграция окупается, когда она закрывает конкретный bottleneck с измеримым KPI. Самый частый кейс — каталоги с неполным контентом, где руки команды заняты. Если у вас 5 000+ SKU и контент-менеджер не справляется — это ровно та задача, которую AI решает предсказуемо и дёшево.
Если хотите понять, применим ли этот подход к вашему каталогу — расскажите про проект, оценим за 48 часов.