Модуль p.10 · Урок 2
Урок 2: Российский рабочий стек — Yandex, Сбер, MTS, Cloud.ru, T-Bank
Содержание
- Чему вы научитесь
- Короткая матрица: кто за что отвечает
- 1. Yandex AI Studio и DataSphere
- 2. Сбер: GigaChat 2 Pro / 2 Max и ML-слой
- 3. MTS AI / Cotype
- 4. Cloud.ru Evolution AI Factory
- 5. T-Bank Research: T-Pro 2.0 и семейство T-Lite
- Какой стек собирать под завод: три профиля
- Алгоритм выбора между пятью российскими опорами
Чему вы научитесь
- Отличать российскую AI-платформу, корпоративную модель и open-weight семейство от маркетингового «у нас есть ИИ»
- Быстро собирать short list из Yandex, Сбера, MTS AI, Cloud.ru и T-Bank под ваш профиль предприятия
- Понимать, где нужна облачная платформа, где — on-prem модель, а где — связка обоих слоёв
- Читать тарифы и deployment-модели без иллюзий: где цена публичная, а где всё решает договор и объём
- Строить типовой стек под малое предприятие, средний завод и крупный промышленный холдинг
Если в уроке 1 мы смотрели на рынок сверху, то здесь переходим к рабочему российскому слою. Это не «компромисс вместо мирового рынка», а фактическая база закупки для предприятия в РФ на 20 апреля 2026 года. Именно этот слой позволяет запускать AI без зависимости от Azure OpenAI, AWS Bedrock, Anthropic или Google Cloud — а для КИИ и чувствительных данных это ещё и единственный реалистичный белый путь, о чём подробно сказано в уроке p.3/05.
Ниже я разбираю не всё, что существует в РФ, а пять опорных направлений:
- Yandex AI Studio / DataSphere — облачный платформенный слой;
- GigaChat / Сбер — корпоративный LLM и API-слой;
- MTS AI / Cotype — корпоративный документный и мультимодальный слой;
- Cloud.ru Evolution AI Factory — cloud-first среда для GenAI и agentic сценариев;
- T-Bank T-Pro / T-Lite — self-hosted open-weight слой.
Короткая матрица: кто за что отвечает
| Игрок | Что это по сути | Сильная сторона | Слабое место | Когда брать первым номером |
|---|---|---|---|---|
| Yandex AI Studio / DataSphere | Облачная AI/ML-платформа | Быстрый старт, экосистема, RAG/agents/search, familiar API | Для чувствительного контура on-prem надо отдельно проектировать | Когда нужен быстрый корпоративный AI в облаке РФ |
| Сбер GigaChat / ML Space | Корпоративный LLM + enterprise-варианты | Сильный русский язык, публичные тарифы API, on-prem/hybrid логика в enterprise | Для части сценариев нужен отдельный enterprise-контракт, а не только API | Когда главный кейс — документы, ассистенты, поиск, чат |
| MTS AI / Cotype | Корпоративная LLM и мультимодальный стек | On-prem, document workflows, корпоративный search/RAG | Публичная прозрачность тарифов ниже, чем у Yandex/Сбера | Когда ядро проекта — документы, знания, multimodal assist |
| Cloud.ru Evolution AI Factory | Cloud-first AI platform | Agents, Managed RAG, inference, notebooks в одной среде | Цены в основном через калькулятор и договор, а не в простом прайс-листе | Когда нужен один cloud-first контур «от эксперимента до продакшна» |
| T-Bank T-Pro / T-Lite | Open-weight семейство | Apache-2.0, self-host, сильный русский бенчмарк | Нет готовой enterprise-платформы «из коробки» — всё надо собирать самим или с интегратором | Когда нужен on-prem без vendor lock-in |
1. Yandex AI Studio и DataSphere
У Яндекса сейчас две практические опоры для enterprise-сценария.
Первая — Yandex AI Studio: платформа, где живут модели, agent tools, search и сценарии работы с корпоративными данными. На публичной странице сервиса Яндекс пишет о 130+ млрд токенов в месяц, 40+ тыс. клиентов и 50+ компаниях из РБК-500, а также отдельно выделяет для enterprise data isolation, stateless-режим и отключаемое логирование (Yandex AI Studio). Это важно не как маркетинговая цифра, а как индикатор зрелости платформенного слоя.
Вторая — DataSphere: облачная среда для notebooks, compute и ML-разработки (DataSphere docs). Она полезна не только data scientist-команде. Для закупки это означает, что Яндекс может закрыть и прикладной inference, и исследовательский слой без разрыва по платформе.
Отдельно важно, что YandexGPT 5 официально в проде. На странице сервиса сказано, что YandexGPT 5 Pro — модель для сложных задач, а YandexGPT Lite — для быстрых ответов; есть option dedicated inference с гарантированными ресурсами (YandexGPT 5). В анонсе от 25 февраля 2025 года Яндекс отдельно объявил YandexGPT 5 Pro и YandexGPT 5 Lite, а в мартовском дайджесте указал, что с 3 апреля 2025 года YandexGPT 5 Pro стала основной моделью ветки Latest (Yandex blog, 25.02.2025; Yandex digest, 04.2025).
| Что проверять у Yandex | Что подтверждено публично | Практический вывод |
|---|---|---|
| Модели | YandexGPT Pro / Lite, embeddings, classifiers, search-компоненты (Yandex AI Studio) | Подходит для ассистентов, RAG, text classification, agent workflows |
| Безопасность | Логическая изоляция данных, stateless-режим, IAM, шифрование (Yandex AI Studio) | Для чувствительных данных это один из сильнейших аргументов платформы |
| Тарификация | Есть pricing policy, rates зависят от режима и продукта; страница обновлялась 24.02.2026 (pricing policy) | Точные ставки по токенам и search-компонентам перед закупкой нужно перепроверять — нужна проверка |
| Развёртывание | Cloud-first, dedicated inference доступен, on-prem требуется отдельная архитектура/партнёрский слой | Хорошо для enterprise cloud, хуже как чистый «коробочный on-prem» выбор |
Практически Yandex лучше всего подходит там, где вы хотите быстро запустить корпоративный чат, RAG по документам, классификатор обращений или агентный workflow без сборки инфраструктуры с нуля.
2. Сбер: GigaChat 2 Pro / 2 Max и ML-слой
У Сбера сильная сторона в том, что у него прозрачнее публичный API-контур, чем у многих других корпоративных игроков. На 20 апреля 2026 года в публичной документации для разработчиков доступны именно GigaChat 2 Lite, GigaChat 2 Pro и GigaChat 2 Max, а модели первого поколения автоматически переведены на второе поколение (модели GigaChat; тарифы для юрлиц, обновлено 29.01.2026).
С 1 февраля 2026 года Сбер снизил пакетные тарифы для юрлиц, а для быстрой экономики проекта удобнее держать в голове pay-as-you-go ориентиры (тарифы для юрлиц, обновлено 29.01.2026):
GigaChat 2 Pro— около0,5 ₽за1000токенов в pay-as-you-go, включая НДС; в пакетах и асинхронном режиме цена ниже, её нужно уточнять на дату закупки (тарифы для юрлиц);GigaChat 2 Max— около0,65 ₽за1000токенов в pay-as-you-go, включая НДС; в пакетах и асинхронном режиме цена тоже ниже и требует актуализации перед закупкой (тарифы для юрлиц);- минимальный платёж —
600 ₽/мес, если сервис использовался, но общий объём операций оказался меньше этой суммы (тарифы для юрлиц).
По модели:
GigaChat 2 Pro— контекст128 000токенов, inputтекст, изображение, аудио, поддержка функций и пакетной обработки (GigaChat 2 Pro);GigaChat 2 Max— такой же публично заявленный контекст128 000, но более сильные бенчмарки по MMLU, ruMMLU и Arena-Hard RU (GigaChat 2 Max).
| Вопрос | GigaChat 2 Pro | GigaChat 2 Max |
|---|---|---|
| Когда брать | Массовые прикладные кейсы: документы, суммаризация, knowledge assistant | Более тяжёлые сценарии: длинный контекст, higher-end reasoning, сложный retrieval-answering |
| Публичная цена | около 500 ₽ за 1 млн токенов в pay-as-you-go; пакетные и асинхронные тарифы ниже и требуют актуализации на дату закупки (тарифы для юрлиц) | около 650 ₽ за 1 млн токенов в pay-as-you-go; пакетные и асинхронные тарифы ниже и требуют актуализации на дату закупки (тарифы для юрлиц) |
| Контекст | 128K | 128K |
| Что важно для закупки | Хорошая экономическая база для массового ассистента | Лучше не брать «по умолчанию во всё», а включать туда, где реально нужна тяжёлая модель |
3. MTS AI / Cotype
MTS AI интересен не как «ещё одна русская LLM», а как корпоративный стек вокруг документов, RAG и мультимодальности. На продуктовой странице Cotype явно указано:
- доступно on-premise deployment;
- есть интеграция с email, Jira, внутренними базами и репозиториями;
- есть отдельный RAG Module;
- Cotype Pro работает с контекстом
32 000токенов, а Cotype Nano названа open-source моделью, способной работать на CPU и GPU (Cotype product page).
Для procurement это означает простую вещь: MTS AI надо оценивать не только как «модель», а как готовый корпоративный knowledge/document stack.
| Что смотреть у MTS AI | Что видно публично | Что это значит для завода |
|---|---|---|
| Deployment | On-prem явно заявлен на продуктовой странице (Cotype) | Хорошо для документов, внутреннего поиска и чувствительных данных |
| Variants | Cotype Pro и Cotype Nano, у Pro контекст 32K, у Nano open-source позиционирование (Cotype) | Можно строить разные уровни стека: enterprise + edge/light |
| Use cases | Virtual assistants, document search, text generation, HR, support (Cotype) | Это платформа вокруг knowledge work, а не только чат-бот |
| Прайс | Публичного прайс-листа нет | Цена и границы SLA определяются в договоре — нужна проверка |
Если ядро проекта — документы, база знаний, много форматов файлов, корпоративный поиск и AI-ассистент по внутренним регламентам, MTS AI почти всегда надо хотя бы включать в short list.
4. Cloud.ru Evolution AI Factory
Cloud.ru идёт как cloud-first конструктор GenAI-среды. На продуктовой странице Evolution AI Factory перечислены Evolution ML Inference, Foundation Models, Managed RAG, ML Finetuning, Notebooks, AI Agents, а также claims про 9 дата-центров уровня Tier III, 24/7 техподдержку и позиционирование «от эксперимента до продакшна» (Cloud.ru Evolution AI Factory).
Отдельно для закупки важны три строки на этой же странице:
- доступны open-source и enterprise-модели;
- есть managed RAG;
- есть AI Agents и low-code/workflow-подход для запуска прикладных сценариев (Cloud.ru Evolution AI Factory).
Это делает Cloud.ru логичным кандидатом там, где заказчик хочет не собирать стек из отдельных сервисов, а взять один облачный контур и быстрее выйти в прикладной production.
| Вопрос | Ответ по публичной странице Cloud.ru | Практический вывод |
|---|---|---|
| Есть ли inference и RAG? | Да: ML Inference и Managed RAG (Cloud.ru) | Подходит для корпоративного поиска и чат-ассистентов |
| Есть ли agentic слой? | Да: AI Agents и AI Workflows (Cloud.ru) | Хорошо для low-code автоматизации процессов |
| Есть ли публичный понятный прайс? | Продуктовая страница ведёт к калькулятору и договорной модели, а не к простому фиксированному листу | Для RFP обязательно просите 3-year TCO и лимиты по GPU / inference |
| Можно ли использовать в безопасном корпоративном контуре? | Cloud.ru отдельно заявляет соответствие ФЗ-152 и механизмы защиты данных (Cloud.ru) | Для ПД и regulated workloads надо всё равно проверять конкретную архитектуру |
5. T-Bank Research: T-Pro 2.0 и семейство T-Lite
T-Bank — это не публичный hyperscaler, а важный open-weight слой российского рынка. Для закупки это полезно там, где вы хотите минимизировать vendor lock-in, оставить модель в своём контуре и не платить за токены внешнему API.
На карточке t-tech/T-pro-it-2.0 в Hugging Face явно указано:
- лицензия
apache-2.0; - базовое семейство
Qwen 3; - бенчмарк
MERA = 0.660,ruMMLU = 0.790(T-pro-it-2.0).
У T-lite-it-1.0 на карточке есть MERA = 0.552 и позиционирование как модели для дальнейшего fine-tuning, а не «готового чат-ассистента из коробки» (T-lite-it-1.0).
Здесь есть важная деталь по актуальности. На 20 апреля 2026 года в публичной организации t-tech уже видны более поздние ревизии семейства 2.1 (t-tech org). Но для единообразия этого трека ниже я использую T-Pro 2.0 как базовый reference: именно у неё есть устоявшийся публичный benchmark и широкое обсуждение в research-паке.
| Семейство | Что подтверждено | Для чего брать |
|---|---|---|
| T-Pro 2.0 | Apache-2.0, Qwen 3 base family, MERA 0.660 (HF model card) | Самостоятельный on-prem inference, RAG, корпоративные ассистенты без внешнего API |
| T-Lite | Лёгкая open-weight модель, полезна как inexpensive local layer (HF model card) | Router, local pre-processing, дешёвый базовый inference |
Практическая граница такая: T-Pro — не платформа. Это строительный материал. Если у команды нет своего Kubernetes / vLLM / SGLang / observability-слоя, нужна либо интеграторская сборка, либо переход в готовую платформу — например, Yandex/Сбер/Cloud.ru. Техническая сторона self-hosted-развёртывания подробно разобрана в уроке p.9/02.
Какой стек собирать под завод: три профиля
| Профиль предприятия | Рекомендуемый стек | Почему именно он | Где риск |
|---|---|---|---|
| Лёгкий: малое предприятие, 1–2 кейса, мало своей AI-команды | Yandex AI Studio для быстрых пилотов + T-Pro 2.0 для локального self-hosted контура, если данные нельзя выпускать наружу | Минимум времени на запуск, при этом есть путь в on-prem | Можно увязнуть между «облако быстро» и «self-hosted дёшево» без явного owner-а |
| Средний завод: документы, FAQ, внутренний search, 1–2 CV кейса | GigaChat Corporate / API для документов + Cotype для knowledge-heavy сценариев + Cloud.ru как platform layer при необходимости agents / managed RAG | Хороший баланс между русским языком, договором, on-prem-логикой и готовыми сервисами | Без жёсткого TCO-расчёта легко переплатить за лишние платформенные сервисы |
| Крупный холдинг: regulated контур, КИИ, разные периметры | GigaChat / Cotype в корпоративном контуре + собственный Kubernetes и self-hosted open-weight слой на T-Pro / Qwen / DeepSeek + промышленный интегратор | Позволяет развести regulated и non-regulated зоны и избежать lock-in | Нужна зрелая ИТ/ИБ-команда и проектное управление уровня программы |
Алгоритм выбора между пятью российскими опорами
Определите, что вы покупаете: модель или платформу. T-Pro — это модельный слой. Yandex, Cloud.ru — платформенный. Сбер и MTS AI стоят между ними, но тоже требуют отдельного ответа на вопрос о deployment.
Проверьте контур. Если нужны on-prem и отключение внешних вызовов, shortlist резко сужается. Это тема p.2/01 и p.3/05.
Сравните не только качество, но и доступность расчёта. Публичные API-тарифы Сбера полезны, потому что их можно быстро подставить в ROI. Договорные цены Cloud.ru и MTS AI придётся выбивать через RFP.
Оцените скорость выхода в production. Yandex и Cloud.ru обычно выигрывают по быстрому старту. Self-hosted на T-Pro выигрывает по контролю и независимости, но проигрывает по времени запуска.
Решите, нужен ли вам vendor lock-in. Если нет — обязательно держите в short list open-weight ветку через T-Pro и стек из модуля p.9.