Модуль 5.6 · Урок 3
Антипаттерны AI-проектов
Содержание
- Чему вы научитесь
- Главная цифра
- Антипаттерн 1: «AI решит всё»
- Антипаттерн 2: Слишком амбициозный старт
- Антипаттерн 3: Нет baseline-метрик
- Антипаттерн 4: Игнорирование Change Management
- Антипаттерн 5: Vendor Lock-in
- Антипаттерн 6: Нет мониторинга после запуска
- Антипаттерн 7: Копирование западных подходов
- Антипаттерн 8: Нет MVP
- Антипаттерн 9: Неправильная метрика успеха
- Антипаттерн 10: Нет feedback loop
- Сводная таблица
- Фреймворк восстановления
- Бонус: юридическая ответственность за AI
- Чек-лист: «Не делайте так»
- Ключевые выводы
Чему вы научитесь
- Распознавать 10 типичных антипаттернов AI-проектов
- Понимать, почему 70–80% AI-инициатив underperform
- Применять BCG-формулу 10-20-70 к своему проекту
- Использовать чек-лист «Не делайте так» для профилактики
Главная цифра
70–80% AI-инициатив в компаниях fail или underperform. Причина — не технология. В 80% случаев это управленческие ошибки.
Антипаттерн 1: «AI решит всё»
Признак: проект начат с технологии, а не с проблемы.
Реальный пример — IBM Watson for Oncology ($4 млрд): IBM вложила ~$4 млрд в Watson Health — AI для рекомендаций по лечению рака. Система обучалась на кейсах одного центра (Memorial Sloan Kettering), а не на реальных данных пациентов. Результат: в разных клиниках от 7% до 67% рекомендаций расходились с решениями врачей. На тестовых данных Watson рекомендовал препарат с FDA-предупреждением о кровотечении пациенту с тяжёлым кровотечением (синтетический тест-кейс, не реальный пациент). 12+ партнёрских клиник разорвали контракт к 2018 году. В 2022 IBM продала подразделение Watson Health. Источник: henricodolfing.com, RAND Research Report RRA2680-1, 2024.
Урок: бюджет не заменяет понимание проблемы. $4 млрд не помогли, потому что начали с технологии («Watson — мощный AI»), а не с задачи («как помочь онкологам»).
Как избежать: всегда начинать с аудита процесса → найти узкие места → потом выбирать технологию.
Антипаттерн 2: Слишком амбициозный старт
Признак: scope creep каждую неделю, timeline 12 мес → 24 мес.
Реальный пример — McDonald’s AI Drive-Thru (3 года, закрыт): McDonald’s совместно с IBM три года (2021–2024) пытались автоматизировать голосовой приём заказов на 100+ точках. Точность распознавания застряла на уровне ~80% — недостаточно для клиентского сервиса. Вирусные видео в соцсетях: AI добавил 260 куриных наггетсов в один заказ. Франчайзи жаловались на высокие расходы и медленный прогресс. В июне 2024 контракт расторгнут, система отключена. Источник: restaurantbusinessonline.com, CNBC, июнь 2024.
Урок: 80% точности кажется «почти готово», но для клиентского сервиса это катастрофа. 3 года без чёткой траектории улучшения — проект нужно было закрыть раньше.
Как избежать: правило 80/20 — выбрать 20% процесса, который даёт 80% ценности. Если за 3–6 месяцев нет прогресса к целевым метрикам — пересмотреть или закрыть.
Антипаттерн 3: Нет baseline-метрик
Признак: «Лучше ли стало?» — «Не знаем, не измеряли до».
Реальный пример: retail-компания (200 магазинов) внедрила AI для прогнозирования спроса. Через 3 месяца менеджмент спрашивает: «Это работает?» Ответ: «Мы не знаем». Бюджет на AI урезан на 60%.
Как избежать: измерить baseline до начала проекта. Документировать время, качество, стоимость, удовлетворённость.
Антипаттерн 4: Игнорирование Change Management
Признак: система работает, но adoption 10%.
Реальный пример — Klarna: разворот на 180 градусов: В феврале 2024 Klarna (финтех, Швеция) заменила работу, эквивалентную 700 аутсорсинговым операторам, AI-ботом на GPT-4. Результат казался блестящим: время решения с 11 до 2 минут, 66% чатов обрабатывает AI (2.3M за первый месяц), проекция экономии $40M/год. Но к середине 2025 компания начала нанимать людей обратно. CEO Себастьян Сиемятковски признал: «Мы слишком сфокусировались на эффективности и стоимости. Качество упало, и это неустойчиво.» По опросу Orgvue/Forrester, 55% компаний, поспешивших заменить людей AI, сожалеют об этом. Источник: klarna.com, fortune.com, май 2025.
Урок: даже если AI технически справляется, резкая замена людей без гибридной модели ведёт к падению качества. Klarna перешла на модель «Uber»: AI — базовые запросы, люди — сложные случаи.
Как избежать: модуль 5.5 полностью посвящён этому. Информирование → обучение → пилот с людьми → постоянная поддержка. Никогда не заменять 100% людей сразу.
Антипаттерн 5: Vendor Lock-in
Признак: полная зависимость от одного провайдера.
Реальный пример: SaaS-компания на OpenAI API (100 000 ₽/мес). OpenAI поднял цены на 50%. Переключиться невозможно — слишком дорого. Смирились с +50 000 ₽/мес убытков.
Как избежать: abstraction layer между приложением и LLM. Стоимость: +2–4 недели разработки. Окупается за 4–8 месяцев.
Неправильно: App → OpenAI API (прямая зависимость)
Правильно: App → LLM Service Layer → {GigaChat, OpenAI, Claude}
Антипаттерн 6: Нет мониторинга после запуска
Признак: система деградирует, никто не замечает.
Реальный пример: e-commerce — AI для категоризации товаров. Месяц 1: 95% accuracy. Месяц 3: 70% (никто не заметил). Клиенты не находят товары. Продажи упали на 15%.
Как избежать: мониторинг — часть разработки, не опция. Алерты: accuracy <80%, latency >5 сек, NPS падает. Еженедельный review dashboard.
Антипаттерн 7: Копирование западных подходов
Признак: взяли подход из TechCrunch и применили as-is в России.
Реальный пример: fintech-компания — OpenAI с English prompts для русских документов. Качество катастрофическое. 5 млн ₽ потрачено. Переделали на GigaChat + Russian fine-tuning — заработало.
Как избежать: тестировать на русских примерах первым делом. Учитывать морфологию, формальность, 152-ФЗ, культурный контекст.
Антипаттерн 8: Нет MVP
Признак: «полная система» вместо простого пилота.
Строят enterprise-решение 12 месяцев, вместо того чтобы за 4 недели проверить гипотезу на 50 примерах.
Как избежать: минимальный пилот → измерить → решить → масштабировать.
Антипаттерн 9: Неправильная метрика успеха
Признак: оптимизируем «число запросов к API», а не «экономию времени сотрудников».
Как избежать: выбрать бизнес-метрику (время/деньги/качество), а не техническую.
Антипаттерн 10: Нет feedback loop
Признак: система не совершенствуется после запуска.
Как избежать: систематический сбор обратной связи, процесс итеративного улучшения, выделенный человек (10–20% FTE).
Сводная таблица
| # | Антипаттерн | Как обнаружить | Как избежать |
|---|---|---|---|
| 1 | «AI решит всё» | Нет аудита процесса | Audit первым |
| 2 | Слишком амбициозно | Scope creep, fail 30% | Правило 80/20 |
| 3 | Нет baseline | Не знаем, лучше ли стало | Measure before |
| 4 | Нет change management | 0% adoption | План из модуля 5.5 |
| 5 | Vendor lock-in | 1 провайдер | Abstraction layer |
| 6 | Нет мониторинга | Деградация незаметна | Dashboard + алерты |
| 7 | Копипаст Запада | Не работает по-русски | Тестировать локально |
| 8 | Нет MVP | 12 мес. разработки | 4-недельный пилот |
| 9 | Неправильная метрика | Оптимизируем не то | Бизнес-метрика |
| 10 | Нет feedback loop | Система не растёт | Итеративное улучшение |
Фреймворк восстановления
Если проект уже идёт не так:
flowchart TD
A["Шаг 1: Честная диагностика<br/>Какой антипаттерн? Насколько плохо?"] --> B["Шаг 2: Быстрое решение<br/>Временные меры, human review"]
B --> C["Шаг 3: Постоянное решение<br/>Переделать, установить практики"]
C --> D["Шаг 4: Prevention<br/>Чек-лист для будущих проектов"]
Бонус: юридическая ответственность за AI
Реальный прецедент — Air Canada (2024): Чат-бот авиакомпании сообщил клиенту Джейку Моффатту, что тот может ретроактивно оформить скидку на билет по случаю утраты близкого. Такой политики не существовало. Air Canada попыталась снять ответственность, заявив, что чат-бот — «отдельная сущность, ответственная за свои действия». Суд (BC Civil Resolution Tribunal, Канада) отклонил этот аргумент: компания несёт полную юридическую ответственность за информацию, которую выдаёт её AI. Ущерб: $812 CAD (из них $650 — разница в стоимости билетов) — но прецедент создан. Источник: americanbar.org, cbc.ca, февраль 2024.
Чек-лист: «Не делайте так»
Проверьте перед запуском каждого AI-проекта:
- Выбран конкретный болезненный процесс, а не «AI вообще»
- Процесс проанализирован (process mining)
- Baseline-метрики измерены и документированы
- ROI рассчитан с реальными цифрами
- Scope ограничен (20% проблемы, не 100%)
- Протестировано на русских примерах
- Change management план создан
- Мониторинг запланирован
- Архитектура не зависит от одного vendor
- Feedback loop встроен в процесс
- Возьмите AI-проект в вашей компании (текущий или планируемый)
- Пройдитесь по 10 антипаттернам — есть ли признаки?
- Если да — определите шаг восстановления
- Пройдите чек-лист «Не делайте так» — сколько пунктов выполнено?
Ключевые выводы
- 70–80% AI-проектов underperform, и причина в 80% случаев — управление, не технология
- BCG-формула: 10% алгоритмы + 20% технология + 70% люди и процессы
- 10 антипаттернов: от «AI решит всё» до «нет feedback loop»
- Чек-лист из 10 пунктов — профилактика перед каждым проектом
- Лучше честно закрыть проект, чем тянуть sunk cost