Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль p.11 · Урок 4

Урок 4: 12 антипаттернов AI-программы — провалы, которые вы не хотите повторить

30 мин
p.11 / Урок 4 из 5

Чему вы научитесь

  • Узнавать по ранним сигналам антипаттерны, которые убивают AI-программу ещё до первой настоящей экономии
  • Разводить технологические, управленческие, культурные и контурные причины провала, а не сваливать всё на «плохое принятие людьми»
  • Исправлять антипаттерны по одному, не запуская новый пилот ради маскировки старых проблем
  • Использовать RFP, TCO и ownership discipline как защиту от vendor lock-in, fabricated ROI и бесхозных моделей
  • Быстро диагностировать, когда программу надо приостановить и пересобрать, а не «дотягивать до отчёта»

Если в p.4/06 мы разбирали, почему пилоты умирают, то здесь разбираем, как именно выглядят провалы в повседневной жизни программы. Антипаттерн — это не абстрактный риск. Это повторяющийся способ сломать проект руками самой организации.

Хорошая новость в том, что антипаттерны почти всегда видно заранее. Плохая — большинство команд их видит, но трактует как «временные неудобства».

flowchart LR
    A[Слабая задача] --> B[Нет владельца]
    B --> C[Нет данных]
    C --> D[Пилот]
    D --> E[Красивое демо]
    E --> F[Не масштабируется]
    F --> G[Отбрасывают]
    G --> H[Руководство теряет веру]
    H --> I[Следующий пилот с нуля]
    I --> A
    C -->|Разрыв цикла| J[Аудит данных и владелец]

12 антипаттернов, которые убивают AI-программу

АнтипаттернКак выглядитПочему возникаетРанний сигналКак исправить
1. Model-first вместо data-firstСначала обсуждают модели и демо, потом выясняют, что данных нетКоманда хочет быстрый вау-эффектНа первой встрече больше разговоров про LLM, чем про dataset и baselineВозвращайтесь к data audit и readiness; см. p.11/01
2. Moving targetScope меняется каждые две неделиSponsor не договорился, какой KPI главныйВ backlog постоянно добавляются новые use cases без kill решения старыхFreeze scope на pilot window и введите change control
3. Integration deferral«Интегрируем после пилота»Команда боится показать сложность legacy-контуровВ PoC нет SCADA/MES/EAM path, есть только CSV и ноутбукПроектируйте integration architecture до запуска
4. Vendor lock-in без exit clausesВендор обещает чудо, но не даёт export данных и моделейЗакупка смотрит на demo, а не на выход из контрактаВ RFP нет ownership, portability, escrow и exit-процедурИспользуйте шаблон из p.10/05
5. AI-чемпион без mandateAI-чемпион делает слайды, но не может принять ни одно решениеSponsor делегировал тему без полномочийЛюбое решение уходит на три недели «согласований»Зафиксируйте mandate, sponsor и steering committee
6. ROI fabricationВ one-pager рисуют фантастическую экономиюПроект продают ради approval любой ценойROI не бьётся с baseline и TCOВозвращайтесь к p.4/01 и считайте консервативно
7. Ignore TCOБюджет посчитан только на PoCВсе влюбились в CapEx демоВ смете нет сопровождения, MLOps, интеграции, retrainingСчитайте TCO на 3 года, а не только пилот
8. No ownerВсе формально «поддерживают», но никто не отвечаетПроект межфункциональный, поэтому ownership размытНа вопрос «кто убьёт пилот, если он слабый?» тишинаНазначьте owner с KPI из EBITDA
9. Operator-as-problemСопротивление людей трактуют как саботажПроект запустили сверху вниз, не изменив workflowОператоры обходят систему и возвращаются к блокнотуВключите operator feedback в дизайн и внедрение
10. Top-down без domain inputAI-решение проектируют без технологовЦентральная команда считает цех «чёрным ящиком»Модель красиво выглядит, но не учитывает физику процессаВстраивайте domain expert в core team с первой недели
11. Скрытый AIОт пользователя скрывают, что совет даёт модельРуководство боится вопросов и сопротивленияЛюди узнают про AI из слухов и теряют довериеПрямо объясните, где AI советует, а где человек решает
12. Nothing-to-win для operatorОт оператора требуют нового поведения, но бонус не меняетсяБизнес не продумал мотивацию и нагрузку«Зачем мне это, если премия та же, а работы больше?»Связывайте новый workflow с понятной выгодой и поддержкой

Бонус-антипаттерн: Cloud default для КИИ

Как выглядитПочему возникаетРанний сигналКак исправить
Команда по умолчанию запускает AI в внешнем облаке, хотя актив связан с КИИ или чувствительными даннымиУдобнее и быстрее сделать demo, чем пройти контурные ограниченияНа ранних встречах звучит Azure OpenAI, AWS Bedrock или внешний SaaS без разговора с ИБСначала проходите фильтр p.3/02 и p.3/05, а уже потом выбираете стек

Этот бонус-антипаттерн особенно опасен тем, что на первых неделях он выглядит как «мы очень быстро двигаемся», а потом внезапно превращается в стоп-кран от ИБ и регуляторики.

Три коротких сценария провала

Сценарий 1. «Сильный ноутбук, нулевая интеграция»

Команда делает отличный PoC на выгрузке, качество модели всех радует, sponsor доволен. Через месяц выясняется, что prediction некуда встроить: MES не готова, historian не даёт нужную частоту, сервис-деск не умеет принимать рекомендации. Это не проблема модели. Это чистый integration deferral.

Сценарий 2. «Центральный AI-офис против цеха»

В центральном офисе есть сильная ML-команда, но на проект почти не привлекают технологов и мастеров. Модель запускают сверху, операторы воспринимают её как внешний контроль и быстро находят обход. На бумаге change management есть, в жизни — operator-as-problem и top-down without domain input.

Сценарий 3. «Мы купили платформу, значит программа уже запущена»

Компания покупает дорогой vendor stack, но не фиксирует ownership данных, моделей и выхода из контракта. Через год оказывается, что всё работает только вместе с конкретным интегратором, а команды внутри не появилось. Это vendor lock-in плюс no owner.

Как лечить программу в первые 30 дней после диагностики

Распознавание антипаттерна ничего не даёт, если дальше команда снова уходит в обычный ритм. Поэтому после диагностики полезно не «запланировать transformation на полгода», а провести короткий реабилитационный цикл.

  1. Неделя 1 — заморозьте новые инициативы. Не добавляйте новые use cases, пока не понятно, почему буксуют текущие. Это особенно важно при Moving target и AI-чемпион без mandate.

  2. Неделя 1 — перепроверьте owner и success criteria. У каждого живого use case должен быть один владелец, baseline и kill criteria. Если этого нет, use case временно выводится из активной фазы.

  3. Неделя 2 — разберите data path и integration path. Схема «ноутбук → CSV → презентация» должна быть либо честно признана временной, либо закрыта реальной архитектурой. Иначе Model-first и Integration deferral будут повторяться бесконечно.

  4. Неделя 3 — пересоберите контрактный и санкционный контур. Если есть vendor lock-in, мутные права на данные или внешний cloud по умолчанию для чувствительного актива, это надо лечить до следующего rollout, а не после него.

  5. Неделя 4 — проведите operator review без фильтра менеджмента. Поговорите с мастерами, инженерами смены и реальными пользователями. Именно здесь всплывают Operator-as-problem, Скрытый AI и Nothing-to-win.

Этот 30-дневный цикл не заменяет полноценную программу исправления. Он нужен, чтобы снять системное самообманное напряжение и вернуть управление проектом в реальные руки.

Как провести экспресс-диагностику программы за одну встречу

  1. Назовите owner каждого живого use case. Если владелец размывается между тремя функциями, фиксируйте антипаттерн No owner.

  2. Попросите показать baseline и TCO. Если команда показывает только accuracy и demo, фиксируйте ROI fabrication или Ignore TCO.

  3. Спросите, куда prediction встраивается в процесс. Если ответ «потом в MES», фиксируйте Integration deferral.

  4. Поговорите с оператором, а не только с командой проекта. Если у него нет выгоды и нет доверия, вы увидите Operator-as-problem и Nothing-to-win.

  5. Проверьте контрактную и контурную сторону. Если нет exit clauses и ясного legal/security path, у вас одновременно Vendor lock-in и, возможно, Cloud default для КИИ.

Как использовать этот список без бюрократии

Антипаттерны полезны не для того, чтобы составить длинный отчёт. Они полезны как язык early warning. Хороший AI-чемпион раз в месяц проходит по этому списку и задаёт четыре вопроса:

  • Что у нас уже выглядит как системный паттерн?
  • Что можно исправить внутри квартала?
  • Что требует решения sponsor, а не project team?
  • Какой use case надо остановить, чтобы не отравлять репутацию всей программы?

Если отвечать на эти вопросы честно, большинство провалов будет заметно ещё до того, как они попадут в board deck.

Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.