Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль p.2 · Урок 4

Урок 4: Матрица «задача × модель × контур» — постер-шпаргалка для AI-чемпиона

20 мин
p.2 / Урок 4 из 7

Чему вы научитесь

  • За 3-5 минут выбирать стартовый контур для типовой промышленной AI-задачи
  • Отличать задачи, где нужен LLM, от задач, где правильнее взять CV, forecasting или anomaly detection
  • Быстро отсекать опасные сценарии: ПД, КИИ, иностранный SaaS, прямое воздействие на оборудование
  • Читать матрицу как управленческий инструмент: задача → тип модели → контур → бюджетный класс
  • Ставить команде корректное ТЗ без фразы «давайте просто подключим GPT»

Эта шпаргалка нужна до пилота, а не после него. Сначала вы выбираете не модель, а рамку решения: где живут данные, какой класс ошибки допустим и нужен ли вообще LLM. Юридическая граница уже разобрана в уроке 1 про персональные данные, уроке 2 про КИИ и уроке 5 про санкционный контур. Здесь мы превращаем эти ограничения в практическую таблицу выбора.

flowchart TD
    A[Есть новая задача] --> B{Результат влияет на оборудование или безопасность?}
    B -->|Да| C[Сразу контур 5-6 и человеческая валидация]
    B -->|Нет| D{Есть ПД, КТ или чувствительные документы?}
    D -->|Да| E[Проверить допустимость контура по урокам p.3/01 и p.3/05]
    D -->|Нет| F{Задача про текст или про сигнал?}
    F -->|Текст и документы| G[Смотреть LLM или RAG]
    F -->|Изображение, ряд, аномалия| H[Сначала CV или TS-модель]
    G --> I{Нужен черновик или решение?}
    I -->|Черновик| J[Средняя или малая модель]
    I -->|Решение с высокой ценой ошибки| K[Топ-модель плюс валидация]
    H --> L[Edge, on-prem или private VPC]

Как читать матрицу

В колонке «Контур» используются шесть контуров из урока 1 этого модуля:

  • 1 — consumer public
  • 2 — public API
  • 3 — облако enterprise-класса
  • 4 — private VPC / dedicated tenant
  • 5 — on-prem / self-hosted
  • 6 — air-gap

Бюджет в таблице дан не суммой, а классом. Это намеренно. В одном заводе «дорого» — это пять инженеров и один локальный сервер, в другом — годовая лицензия на private VPC. Детальный TCO будет в уроке 6. Здесь достаточно четырёх меток:

  • S — пилот или точечная автоматизация, обычно API или уже существующая инфраструктура
  • M — отделенческий контур, интеграция в процесс, но без отдельной стойки под проект
  • L — цеховой или заводской сценарий с локальным inference, журналированием и эксплуатацией
  • XL — критичный контур, 24/7, высокая цена простоя или обязательные меры ИБ

Постер-шпаргалка: задача × модель × контур

ЗадачаТип моделиРазмерКонтурЖелезо / облакоБюджетТиповой результат
Фото дефекта → описание в журнале сменыVLM или CV + малая LLMСредний3-5VLM в облаке для обезличенных фото; локальный VLM при чувствительном производствеMКарточка дефекта, краткое описание, ссылка на фото
Расшифровка планёрки и протокол порученийASR + малая LLMМалый3-5Speech-сервис в корп.облако либо локальная транскрибация + суммаризацияS-MПротокол, список поручений, сроки и ответственные
Помощник по регламентам и инструкциям на 500+ документовRAG + LLMСредний / большой3-5YandexGPT 5.1 Pro, GigaChat 2 Max, T-Pro 2.0, Qwen3 в vLLMM-LОтвет по базе знаний со ссылками на документ
Ответ на претензию клиента или поставщикаLLM + шаблон + человек в цепочкеСредний / топ3-4Российское облако или private VPC; внешний SaaS только после проверки по p.3/01MЧерновик письма, аргументы, перечень приложений
Генерация PLC-кода из естественного языкаФлагманская LLM + формальный валидаторТоп5-6On-prem inference и обязательная проверка инженером; прямой public API не годитсяL-XLЧерновик Structured Text, тест-кейсы, список рисков
CV-ОТК на линииCV detector / segmenterСпец5-6Jetson, industrial PC, RTX на линииM-LPass/fail, bounding boxes, журнал дефектов
Предиктивное ТО по телеметрииTime series + anomaly detectionСпец5-6Локальный TS-стек, CPU или одна GPU для обученияM-LРиск отказа, окно обслуживания, список аномалий
Прогноз спроса и запасов запчастейМодель прогнозированияСпец3-5CPU-кластер, ноутбук аналитика или managed notebooksS-MНедельный / месячный прогноз и доверительный диапазон
Due diligence подрядчика на 300 документовOCR + RAG + reasoning LLMБольшой / топ3-5Private VPC или on-prem, если есть КТ и договорные ограниченияM-LМемо по рискам, красные флаги, сводка по договору
Синтез научных статей и патентов для R&DФлагманская reasoning-LLM + поискТоп3-5GPT-5.4 / Claude 4 Opus/Sonnet / Gemini 2.5–3.x Pro-класс через внешний API — только для синтетики или обезличенных материалов; для реальных патентов и чувствительного R&D нужен private/on-prem контурS-MОбзор литературы, карта направлений, список гипотез
Классификация обращений в сервис-дескМалая LLM или классический классификаторМалый3-5API, CPU или одна маломощная GPUSКатегория, приоритет, маршрут заявки
Анализ HSE-инцидентов и near-missLLM + правила + taxonomyСредний / большой4-6Private VPC или on-prem; при ПД и служебных расследованиях — только после p.3/01M-LСтруктурированная карточка инцидента и меры предотвращения
Извлечение полей из накладной, акта, паспорта изделияDocument AI / OCR / VLMМалый / средний3-5PaddleOCR, Surya OCR, VLM в private VPC, локальный OCR при чувствительных данныхS-MJSON с полями, confidence, список пропусков
Поиск причин простоя по журналам смен и alarm logsRAG + reasoning LLMСредний / большой5-6On-prem 32B-класс или private VPC в безопасном контуреM-LГипотезы первопричины, сводка по событиям, вопросы инженеру
Сравнение ТКП и матрица выбора поставщикаLLM + tabular reasoningСредний3-4Корп.облако, private VPC или локальный open-weightS-MСводная сравнительная таблица и список расхождений
Контроль СИЗ и нарушений по видеопотокуCV detector / trackerСпец5-6Jetson Orin / RTX / DeepStream-класс edge-стекM-LАлерт по нарушению, клип, журнал событий
Внутренний инженерный copilot по SQL, Python, ETLCode LLMСредний / большой3-5Private VPC, on-prem open-weight (T-Pro 2.0 / Qwen3 / DeepSeek-V3-класс) или безопасное облако enterprise-классаM-LЧерновик кода, SQL-запрос, тесты и документация
Утренний брифинг для директора завода по сменным рапортамМалая / средняя LLM + шаблоныМалый / средний3-5Корп.облако или локальная модель на существующем сервереS-MКороткая сводка KPI, отклонения, блокеры
Анализ переписки с подрядчиком на предмет срыва сроковLLM + retrievalСредний3-5Private VPC или on-prem при договорной чувствительностиMХронология обещаний, зоны риска, проект письма

Размер в таблице — это ориентировочный стартовый класс модели, а не рекомендация всегда брать «большой» вариант. Если задачу закрывает малая или специализированная модель, это и есть правильный первый выбор.

Что эта таблица говорит жёстко

Первый жёсткий вывод: не каждая текстовая задача — LLM-задача. Там, где данные выглядят как поток изображений, сенсоров или таблиц, стартовать нужно со специализированной модели. Для CV это обычно YOLO/Detectron2/MMDetection-класс; для редких дефектов — Anomalib; для прогноза — Prophet, Nixtla, sktime и близкие библиотеки (Detectron2; MMDetection; Anomalib; Prophet; Nixtla).

Второй жёсткий вывод: если ответ модели может повлиять на оборудование, режим безопасности или юридически значимое решение, модель не должна быть последней инстанцией. PLC-code generation, HSE-разбор и анализ первопричин всегда требуют детерминированного валидатора и человека в цепочке согласования. Это не перестраховка. Это нормальный промышленный дизайн.

Третий жёсткий вывод: для русскоязычного локального контура open-weight рынок уже зрелый. В исследовательском паке по модулю p.2 зафиксированы T-Pro 2.0 как 33B open-weight модель с MERA 0.660, Qwen3 как базовое open-family для корпоративного деплоя и Llama 3.3 70B как зрелый вариант для многоязычного использования (T-Pro 2.0 model card; Qwen3 repository; Llama 3.3 70B model card). Это означает простую вещь: для контуров 5-6 у вас уже есть рабочий выбор помимо закрытых западных API.

Где матрица чаще всего ломается

  1. Команда ставит в одну корзину LLM и CV. Если задача начинается словами «увидеть дефект», «поймать отсутствие СИЗ», «заметить отклонение на видео», берите CV первым, а LLM — только для описания результата оператору.

  2. RAG-проект пытаются лечить большей моделью. Если помощник по регламентам врёт, причина обычно не в том, что модель «слишком маленькая», а в OCR, chunking, retrieval и плохой базе документов.

  3. В табличной задаче покупают флагманскую модель, хотя нужен классификатор. Классификация обращений, маршрутизация писем, разметка актов и претензий часто закрываются малой моделью или даже обычным классификатор без дорогого reasoning.

  4. Всё чувствительное отправляют в внешний API «на пилот». Для ПД это сразу вопрос к уроку p.3/01. Для КИИ — к уроку p.3/02. Для западного SaaS в санкционном контуре — к уроку p.3/05.

  5. ТЗ формулируют как «нужен AI-помощник». Правильное ТЗ звучит так: «Нужен grounded assistant по 800 документам с ответом не дольше двух минут, только в контуре 5, с журналом источников и без отправки ПД наружу».

Когда имеет смысл тестовый прогон на arckep.ru

arckep.ru полезен не как production-контур, а как полигон сравнения. Его место — в задачах, где вы хотите быстро понять, какой класс модели вообще нужен, не поднимая инфраструктуру.

Подход рабочий в трёх сценариях:

  • сравнить 2-3 топовые модели на синтетическом кейсе «ответ на претензию» или «сводка по нескольким PDF»;
  • проверить, нужен ли вам reasoning-класс вообще, или задача уверенно закрывается более дешёвым стеком;
  • обкатать формулировки промптов до того, как ИТ-команда поднимет private VPC, локальный inference или корпоративный gateway.

Но правило здесь простое: реальные ПД, договоры, технологические карты, аварийные отчёты и всё, что относится к значимому объекту КИИ, в такой тестовый прогон не уходят. Для этого модуль p.3 уже написан.

Красные флаги: когда по матрице надо не «выбирать модель», а останавливать проект

ТриггерЧто это значит для выбора
Есть персональные данные сотрудников, клиентов или подрядчиковСначала правовое основание, локализация, уведомления и режим передачи данных. Только потом выбор модели. См. p.3/01
Система ставится на значимый объект КИИ или рядом с нимВнешний иностранный SaaS исключается. Реальный выбор сдвигается в контуры 5-6. См. p.3/02
Команда хочет «автоматически выполнять» команды на оборудованииНужен детерминированный слой управления, инженерная верификация и журнал решений
Вендор не говорит, где хранятся логи и промптыКонтур не определён. Значит, проект нельзя пропускать дальше security review
Пилот показывает хороший ответ, но не объясняет, на чём он основанДля RAG и юридически значимых кейсов такой пилот не масштабируется
Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.