Модуль p.2 · Урок 4
Урок 4: Матрица «задача × модель × контур» — постер-шпаргалка для AI-чемпиона
Чему вы научитесь
- За 3-5 минут выбирать стартовый контур для типовой промышленной AI-задачи
- Отличать задачи, где нужен LLM, от задач, где правильнее взять CV, forecasting или anomaly detection
- Быстро отсекать опасные сценарии: ПД, КИИ, иностранный SaaS, прямое воздействие на оборудование
- Читать матрицу как управленческий инструмент: задача → тип модели → контур → бюджетный класс
- Ставить команде корректное ТЗ без фразы «давайте просто подключим GPT»
Эта шпаргалка нужна до пилота, а не после него. Сначала вы выбираете не модель, а рамку решения: где живут данные, какой класс ошибки допустим и нужен ли вообще LLM. Юридическая граница уже разобрана в уроке 1 про персональные данные, уроке 2 про КИИ и уроке 5 про санкционный контур. Здесь мы превращаем эти ограничения в практическую таблицу выбора.
flowchart TD
A[Есть новая задача] --> B{Результат влияет на оборудование или безопасность?}
B -->|Да| C[Сразу контур 5-6 и человеческая валидация]
B -->|Нет| D{Есть ПД, КТ или чувствительные документы?}
D -->|Да| E[Проверить допустимость контура по урокам p.3/01 и p.3/05]
D -->|Нет| F{Задача про текст или про сигнал?}
F -->|Текст и документы| G[Смотреть LLM или RAG]
F -->|Изображение, ряд, аномалия| H[Сначала CV или TS-модель]
G --> I{Нужен черновик или решение?}
I -->|Черновик| J[Средняя или малая модель]
I -->|Решение с высокой ценой ошибки| K[Топ-модель плюс валидация]
H --> L[Edge, on-prem или private VPC]Как читать матрицу
В колонке «Контур» используются шесть контуров из урока 1 этого модуля:
1— consumer public2— public API3— облако enterprise-класса4— private VPC / dedicated tenant5— on-prem / self-hosted6— air-gap
Бюджет в таблице дан не суммой, а классом. Это намеренно. В одном заводе «дорого» — это пять инженеров и один локальный сервер, в другом — годовая лицензия на private VPC. Детальный TCO будет в уроке 6. Здесь достаточно четырёх меток:
S— пилот или точечная автоматизация, обычно API или уже существующая инфраструктураM— отделенческий контур, интеграция в процесс, но без отдельной стойки под проектL— цеховой или заводской сценарий с локальным inference, журналированием и эксплуатациейXL— критичный контур, 24/7, высокая цена простоя или обязательные меры ИБ
Постер-шпаргалка: задача × модель × контур
| Задача | Тип модели | Размер | Контур | Железо / облако | Бюджет | Типовой результат |
|---|---|---|---|---|---|---|
| Фото дефекта → описание в журнале смены | VLM или CV + малая LLM | Средний | 3-5 | VLM в облаке для обезличенных фото; локальный VLM при чувствительном производстве | M | Карточка дефекта, краткое описание, ссылка на фото |
| Расшифровка планёрки и протокол поручений | ASR + малая LLM | Малый | 3-5 | Speech-сервис в корп.облако либо локальная транскрибация + суммаризация | S-M | Протокол, список поручений, сроки и ответственные |
| Помощник по регламентам и инструкциям на 500+ документов | RAG + LLM | Средний / большой | 3-5 | YandexGPT 5.1 Pro, GigaChat 2 Max, T-Pro 2.0, Qwen3 в vLLM | M-L | Ответ по базе знаний со ссылками на документ |
| Ответ на претензию клиента или поставщика | LLM + шаблон + человек в цепочке | Средний / топ | 3-4 | Российское облако или private VPC; внешний SaaS только после проверки по p.3/01 | M | Черновик письма, аргументы, перечень приложений |
| Генерация PLC-кода из естественного языка | Флагманская LLM + формальный валидатор | Топ | 5-6 | On-prem inference и обязательная проверка инженером; прямой public API не годится | L-XL | Черновик Structured Text, тест-кейсы, список рисков |
| CV-ОТК на линии | CV detector / segmenter | Спец | 5-6 | Jetson, industrial PC, RTX на линии | M-L | Pass/fail, bounding boxes, журнал дефектов |
| Предиктивное ТО по телеметрии | Time series + anomaly detection | Спец | 5-6 | Локальный TS-стек, CPU или одна GPU для обучения | M-L | Риск отказа, окно обслуживания, список аномалий |
| Прогноз спроса и запасов запчастей | Модель прогнозирования | Спец | 3-5 | CPU-кластер, ноутбук аналитика или managed notebooks | S-M | Недельный / месячный прогноз и доверительный диапазон |
| Due diligence подрядчика на 300 документов | OCR + RAG + reasoning LLM | Большой / топ | 3-5 | Private VPC или on-prem, если есть КТ и договорные ограничения | M-L | Мемо по рискам, красные флаги, сводка по договору |
| Синтез научных статей и патентов для R&D | Флагманская reasoning-LLM + поиск | Топ | 3-5 | GPT-5.4 / Claude 4 Opus/Sonnet / Gemini 2.5–3.x Pro-класс через внешний API — только для синтетики или обезличенных материалов; для реальных патентов и чувствительного R&D нужен private/on-prem контур | S-M | Обзор литературы, карта направлений, список гипотез |
| Классификация обращений в сервис-деск | Малая LLM или классический классификатор | Малый | 3-5 | API, CPU или одна маломощная GPU | S | Категория, приоритет, маршрут заявки |
| Анализ HSE-инцидентов и near-miss | LLM + правила + taxonomy | Средний / большой | 4-6 | Private VPC или on-prem; при ПД и служебных расследованиях — только после p.3/01 | M-L | Структурированная карточка инцидента и меры предотвращения |
| Извлечение полей из накладной, акта, паспорта изделия | Document AI / OCR / VLM | Малый / средний | 3-5 | PaddleOCR, Surya OCR, VLM в private VPC, локальный OCR при чувствительных данных | S-M | JSON с полями, confidence, список пропусков |
| Поиск причин простоя по журналам смен и alarm logs | RAG + reasoning LLM | Средний / большой | 5-6 | On-prem 32B-класс или private VPC в безопасном контуре | M-L | Гипотезы первопричины, сводка по событиям, вопросы инженеру |
| Сравнение ТКП и матрица выбора поставщика | LLM + tabular reasoning | Средний | 3-4 | Корп.облако, private VPC или локальный open-weight | S-M | Сводная сравнительная таблица и список расхождений |
| Контроль СИЗ и нарушений по видеопотоку | CV detector / tracker | Спец | 5-6 | Jetson Orin / RTX / DeepStream-класс edge-стек | M-L | Алерт по нарушению, клип, журнал событий |
| Внутренний инженерный copilot по SQL, Python, ETL | Code LLM | Средний / большой | 3-5 | Private VPC, on-prem open-weight (T-Pro 2.0 / Qwen3 / DeepSeek-V3-класс) или безопасное облако enterprise-класса | M-L | Черновик кода, SQL-запрос, тесты и документация |
| Утренний брифинг для директора завода по сменным рапортам | Малая / средняя LLM + шаблоны | Малый / средний | 3-5 | Корп.облако или локальная модель на существующем сервере | S-M | Короткая сводка KPI, отклонения, блокеры |
| Анализ переписки с подрядчиком на предмет срыва сроков | LLM + retrieval | Средний | 3-5 | Private VPC или on-prem при договорной чувствительности | M | Хронология обещаний, зоны риска, проект письма |
Размер в таблице — это ориентировочный стартовый класс модели, а не рекомендация всегда брать «большой» вариант. Если задачу закрывает малая или специализированная модель, это и есть правильный первый выбор.
Что эта таблица говорит жёстко
Первый жёсткий вывод: не каждая текстовая задача — LLM-задача. Там, где данные выглядят как поток изображений, сенсоров или таблиц, стартовать нужно со специализированной модели. Для CV это обычно YOLO/Detectron2/MMDetection-класс; для редких дефектов — Anomalib; для прогноза — Prophet, Nixtla, sktime и близкие библиотеки (Detectron2; MMDetection; Anomalib; Prophet; Nixtla).
Второй жёсткий вывод: если ответ модели может повлиять на оборудование, режим безопасности или юридически значимое решение, модель не должна быть последней инстанцией. PLC-code generation, HSE-разбор и анализ первопричин всегда требуют детерминированного валидатора и человека в цепочке согласования. Это не перестраховка. Это нормальный промышленный дизайн.
Третий жёсткий вывод: для русскоязычного локального контура open-weight рынок уже зрелый. В исследовательском паке по модулю p.2 зафиксированы T-Pro 2.0 как 33B open-weight модель с MERA 0.660, Qwen3 как базовое open-family для корпоративного деплоя и Llama 3.3 70B как зрелый вариант для многоязычного использования (T-Pro 2.0 model card; Qwen3 repository; Llama 3.3 70B model card). Это означает простую вещь: для контуров 5-6 у вас уже есть рабочий выбор помимо закрытых западных API.
Где матрица чаще всего ломается
Команда ставит в одну корзину LLM и CV. Если задача начинается словами «увидеть дефект», «поймать отсутствие СИЗ», «заметить отклонение на видео», берите CV первым, а LLM — только для описания результата оператору.
RAG-проект пытаются лечить большей моделью. Если помощник по регламентам врёт, причина обычно не в том, что модель «слишком маленькая», а в OCR, chunking, retrieval и плохой базе документов.
В табличной задаче покупают флагманскую модель, хотя нужен классификатор. Классификация обращений, маршрутизация писем, разметка актов и претензий часто закрываются малой моделью или даже обычным классификатор без дорогого reasoning.
Всё чувствительное отправляют в внешний API «на пилот». Для ПД это сразу вопрос к уроку p.3/01. Для КИИ — к уроку p.3/02. Для западного SaaS в санкционном контуре — к уроку p.3/05.
ТЗ формулируют как «нужен AI-помощник». Правильное ТЗ звучит так: «Нужен grounded assistant по 800 документам с ответом не дольше двух минут, только в контуре 5, с журналом источников и без отправки ПД наружу».
Когда имеет смысл тестовый прогон на arckep.ru
arckep.ru полезен не как production-контур, а как полигон сравнения. Его место — в задачах, где вы хотите быстро понять, какой класс модели вообще нужен, не поднимая инфраструктуру.
Подход рабочий в трёх сценариях:
- сравнить 2-3 топовые модели на синтетическом кейсе «ответ на претензию» или «сводка по нескольким PDF»;
- проверить, нужен ли вам reasoning-класс вообще, или задача уверенно закрывается более дешёвым стеком;
- обкатать формулировки промптов до того, как ИТ-команда поднимет private VPC, локальный inference или корпоративный gateway.
Но правило здесь простое: реальные ПД, договоры, технологические карты, аварийные отчёты и всё, что относится к значимому объекту КИИ, в такой тестовый прогон не уходят. Для этого модуль p.3 уже написан.
Красные флаги: когда по матрице надо не «выбирать модель», а останавливать проект
| Триггер | Что это значит для выбора |
|---|---|
| Есть персональные данные сотрудников, клиентов или подрядчиков | Сначала правовое основание, локализация, уведомления и режим передачи данных. Только потом выбор модели. См. p.3/01 |
| Система ставится на значимый объект КИИ или рядом с ним | Внешний иностранный SaaS исключается. Реальный выбор сдвигается в контуры 5-6. См. p.3/02 |
| Команда хочет «автоматически выполнять» команды на оборудовании | Нужен детерминированный слой управления, инженерная верификация и журнал решений |
| Вендор не говорит, где хранятся логи и промпты | Контур не определён. Значит, проект нельзя пропускать дальше security review |
| Пилот показывает хороший ответ, но не объясняет, на чём он основан | Для RAG и юридически значимых кейсов такой пилот не масштабируется |