Почему 80% AI‑проектов не взлетают
Мы видим один и тот же паттерн: совет директоров требует «внедрите AI». Команда выбирает красивый use case (генерация описаний товаров, например), делает демо, все хлопают, через 3 месяца совет спрашивает «где выручка?» — и пилот тихо умирает.
Причины, которые мы видим чаще всего:
- Нет зашитой метрики — «внедрили» ≠ «заработало».
- Кейс не связан с выручкой — его не защитить перед CFO.
- Нет observability — никто не знает, как AI ведёт себя в проде.
- Agency работает без co‑delivery — команда клиента не в курсе, поддерживать некому.
Какие процессы дают ROI за 8 недель
Есть четыре кандидата, у которых ROI считается за 6–8 недель и виден даже скептичному CFO. Всё остальное — R&D, и его так и надо называть, а не пилотом.
1. AI‑персонализация PDP
Блоки «похожие товары» и «с этим покупают» на embedding‑поиске. KPI: +8–15% PDP конверсия, +5–10% средний чек. Лидеры в e‑com получают до 31% выручки от рекомендаций (McKinsey, 2024).
2. Semantic search для каталога
Elasticsearch + reranker. «Тёплая куртка для зимы» находит пуховики, даже если в SKU нет слова «тёплая». KPI: доля «0 результатов» → 0, CR поиска +20%.
3. Admin copilot для контент‑менеджеров
AI‑помощник в админке Битрикса: генерация описаний, SEO‑текстов, массовый апдейт карточек. KPI: время заведения SKU −60%, экономия 4.4 ч/нед на инженера (getdx, 2025).
4. Чат‑бот с escalation в CRM
RAG поверх FAQ и базы знаний + сценарная эскалация в amoCRM / Битрикс24. KPI: self‑service 60%+, first reply < 30 сек.
Outcome‑контракт: что зашить в договор
Главный trick outcome‑контракта — сделать так, чтобы обе стороны были заинтересованы в метрике, а не в часах.
- Base fee 60–70% — на покрытие инфраструктуры, discovery, интеграции. Эта часть не зависит от KPI.
- Outcome bonus 30–40% — выплачивается при достижении метрики на заданном окне (например, +10% CR на PDP за 30 дней).
- Penalty clause — если метрика просаживается более чем на 5%, agency возвращает процент base fee.
- Observability‑доступ — клиент видит все логи, промпты, latency, ошибки. Иначе метрике нельзя доверять.
Open‑source vs API — когда что выбирать
| Критерий | API (Claude / GPT) | Open‑source (Llama / Qwen) |
|---|---|---|
| Скорость запуска | Дни | Недели |
| Стоимость на единицу | Переменная (per‑token) | Фиксированная (GPU) |
| Регуляторка (152‑ФЗ, госсектор) | Нет | Да (on‑prem) |
| Качество на русском | Высокое | Среднее (Qwen лучше) |
| Fine‑tuning под ваш домен | Ограниченный | Полный |
Guardrails и observability
- Логирование всех промптов и ответов с TTL 30 дней.
- Rate‑limits на пользователя и на IP.
- PII‑фильтры на вход и выход (никаких паспортов в логах).
- Детекция галлюцинаций: проверка ответов на цитирование источников.
- Kill‑switch: одна команда, и AI‑слой отключается, трафик идёт на fallback.
Как мерить эффект
Никогда не меряйте AI «на глаз». Всегда A/B‑тест: половина пользователей получает AI‑ вариант, половина — контрольный. Окно — минимум 2 недели и минимум 10 000 сессий в каждой ветке. Метрики — не «клики», а деньги: CR, AOV, LTV.
Rollout без паники
Начните с 5–10% трафика на AI‑вариант. Наращивайте каждые 3 дня при стабильных метриках. На 100% переключайтесь только после 2‑недельного окна подтверждённого лифта. Любой провал метрики — kill‑switch, разбор, починка, новый запуск.