Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль p.10 · Урок 2

Урок 2: Российский рабочий стек — Yandex, Сбер, MTS, Cloud.ru, T-Bank

30 мин
p.10 / Урок 2 из 5

Чему вы научитесь

  • Отличать российскую AI-платформу, корпоративную модель и open-weight семейство от маркетингового «у нас есть ИИ»
  • Быстро собирать short list из Yandex, Сбера, MTS AI, Cloud.ru и T-Bank под ваш профиль предприятия
  • Понимать, где нужна облачная платформа, где — on-prem модель, а где — связка обоих слоёв
  • Читать тарифы и deployment-модели без иллюзий: где цена публичная, а где всё решает договор и объём
  • Строить типовой стек под малое предприятие, средний завод и крупный промышленный холдинг

Если в уроке 1 мы смотрели на рынок сверху, то здесь переходим к рабочему российскому слою. Это не «компромисс вместо мирового рынка», а фактическая база закупки для предприятия в РФ на 20 апреля 2026 года. Именно этот слой позволяет запускать AI без зависимости от Azure OpenAI, AWS Bedrock, Anthropic или Google Cloud — а для КИИ и чувствительных данных это ещё и единственный реалистичный белый путь, о чём подробно сказано в уроке p.3/05.

Ниже я разбираю не всё, что существует в РФ, а пять опорных направлений:

  • Yandex AI Studio / DataSphere — облачный платформенный слой;
  • GigaChat / Сбер — корпоративный LLM и API-слой;
  • MTS AI / Cotype — корпоративный документный и мультимодальный слой;
  • Cloud.ru Evolution AI Factory — cloud-first среда для GenAI и agentic сценариев;
  • T-Bank T-Pro / T-Lite — self-hosted open-weight слой.

Короткая матрица: кто за что отвечает

ИгрокЧто это по сутиСильная сторонаСлабое местоКогда брать первым номером
Yandex AI Studio / DataSphereОблачная AI/ML-платформаБыстрый старт, экосистема, RAG/agents/search, familiar APIДля чувствительного контура on-prem надо отдельно проектироватьКогда нужен быстрый корпоративный AI в облаке РФ
Сбер GigaChat / ML SpaceКорпоративный LLM + enterprise-вариантыСильный русский язык, публичные тарифы API, on-prem/hybrid логика в enterpriseДля части сценариев нужен отдельный enterprise-контракт, а не только APIКогда главный кейс — документы, ассистенты, поиск, чат
MTS AI / CotypeКорпоративная LLM и мультимодальный стекOn-prem, document workflows, корпоративный search/RAGПубличная прозрачность тарифов ниже, чем у Yandex/СбераКогда ядро проекта — документы, знания, multimodal assist
Cloud.ru Evolution AI FactoryCloud-first AI platformAgents, Managed RAG, inference, notebooks в одной средеЦены в основном через калькулятор и договор, а не в простом прайс-листеКогда нужен один cloud-first контур «от эксперимента до продакшна»
T-Bank T-Pro / T-LiteOpen-weight семействоApache-2.0, self-host, сильный русский бенчмаркНет готовой enterprise-платформы «из коробки» — всё надо собирать самим или с интеграторомКогда нужен on-prem без vendor lock-in

1. Yandex AI Studio и DataSphere

У Яндекса сейчас две практические опоры для enterprise-сценария.

Первая — Yandex AI Studio: платформа, где живут модели, agent tools, search и сценарии работы с корпоративными данными. На публичной странице сервиса Яндекс пишет о 130+ млрд токенов в месяц, 40+ тыс. клиентов и 50+ компаниях из РБК-500, а также отдельно выделяет для enterprise data isolation, stateless-режим и отключаемое логирование (Yandex AI Studio). Это важно не как маркетинговая цифра, а как индикатор зрелости платформенного слоя.

Вторая — DataSphere: облачная среда для notebooks, compute и ML-разработки (DataSphere docs). Она полезна не только data scientist-команде. Для закупки это означает, что Яндекс может закрыть и прикладной inference, и исследовательский слой без разрыва по платформе.

Отдельно важно, что YandexGPT 5 официально в проде. На странице сервиса сказано, что YandexGPT 5 Pro — модель для сложных задач, а YandexGPT Lite — для быстрых ответов; есть option dedicated inference с гарантированными ресурсами (YandexGPT 5). В анонсе от 25 февраля 2025 года Яндекс отдельно объявил YandexGPT 5 Pro и YandexGPT 5 Lite, а в мартовском дайджесте указал, что с 3 апреля 2025 года YandexGPT 5 Pro стала основной моделью ветки Latest (Yandex blog, 25.02.2025; Yandex digest, 04.2025).

Что проверять у YandexЧто подтверждено публичноПрактический вывод
МоделиYandexGPT Pro / Lite, embeddings, classifiers, search-компоненты (Yandex AI Studio)Подходит для ассистентов, RAG, text classification, agent workflows
БезопасностьЛогическая изоляция данных, stateless-режим, IAM, шифрование (Yandex AI Studio)Для чувствительных данных это один из сильнейших аргументов платформы
ТарификацияЕсть pricing policy, rates зависят от режима и продукта; страница обновлялась 24.02.2026 (pricing policy)Точные ставки по токенам и search-компонентам перед закупкой нужно перепроверять — нужна проверка
РазвёртываниеCloud-first, dedicated inference доступен, on-prem требуется отдельная архитектура/партнёрский слойХорошо для enterprise cloud, хуже как чистый «коробочный on-prem» выбор

Практически Yandex лучше всего подходит там, где вы хотите быстро запустить корпоративный чат, RAG по документам, классификатор обращений или агентный workflow без сборки инфраструктуры с нуля.

2. Сбер: GigaChat 2 Pro / 2 Max и ML-слой

У Сбера сильная сторона в том, что у него прозрачнее публичный API-контур, чем у многих других корпоративных игроков. На 20 апреля 2026 года в публичной документации для разработчиков доступны именно GigaChat 2 Lite, GigaChat 2 Pro и GigaChat 2 Max, а модели первого поколения автоматически переведены на второе поколение (модели GigaChat; тарифы для юрлиц, обновлено 29.01.2026).

С 1 февраля 2026 года Сбер снизил пакетные тарифы для юрлиц, а для быстрой экономики проекта удобнее держать в голове pay-as-you-go ориентиры (тарифы для юрлиц, обновлено 29.01.2026):

  • GigaChat 2 Pro — около 0,5 ₽ за 1000 токенов в pay-as-you-go, включая НДС; в пакетах и асинхронном режиме цена ниже, её нужно уточнять на дату закупки (тарифы для юрлиц);
  • GigaChat 2 Max — около 0,65 ₽ за 1000 токенов в pay-as-you-go, включая НДС; в пакетах и асинхронном режиме цена тоже ниже и требует актуализации перед закупкой (тарифы для юрлиц);
  • минимальный платёж — 600 ₽/мес, если сервис использовался, но общий объём операций оказался меньше этой суммы (тарифы для юрлиц).

По модели:

  • GigaChat 2 Pro — контекст 128 000 токенов, input текст, изображение, аудио, поддержка функций и пакетной обработки (GigaChat 2 Pro);
  • GigaChat 2 Max — такой же публично заявленный контекст 128 000, но более сильные бенчмарки по MMLU, ruMMLU и Arena-Hard RU (GigaChat 2 Max).
ВопросGigaChat 2 ProGigaChat 2 Max
Когда братьМассовые прикладные кейсы: документы, суммаризация, knowledge assistantБолее тяжёлые сценарии: длинный контекст, higher-end reasoning, сложный retrieval-answering
Публичная ценаоколо 500 ₽ за 1 млн токенов в pay-as-you-go; пакетные и асинхронные тарифы ниже и требуют актуализации на дату закупки (тарифы для юрлиц)около 650 ₽ за 1 млн токенов в pay-as-you-go; пакетные и асинхронные тарифы ниже и требуют актуализации на дату закупки (тарифы для юрлиц)
Контекст128K128K
Что важно для закупкиХорошая экономическая база для массового ассистентаЛучше не брать «по умолчанию во всё», а включать туда, где реально нужна тяжёлая модель

3. MTS AI / Cotype

MTS AI интересен не как «ещё одна русская LLM», а как корпоративный стек вокруг документов, RAG и мультимодальности. На продуктовой странице Cotype явно указано:

  • доступно on-premise deployment;
  • есть интеграция с email, Jira, внутренними базами и репозиториями;
  • есть отдельный RAG Module;
  • Cotype Pro работает с контекстом 32 000 токенов, а Cotype Nano названа open-source моделью, способной работать на CPU и GPU (Cotype product page).

Для procurement это означает простую вещь: MTS AI надо оценивать не только как «модель», а как готовый корпоративный knowledge/document stack.

Что смотреть у MTS AIЧто видно публичноЧто это значит для завода
DeploymentOn-prem явно заявлен на продуктовой странице (Cotype)Хорошо для документов, внутреннего поиска и чувствительных данных
VariantsCotype Pro и Cotype Nano, у Pro контекст 32K, у Nano open-source позиционирование (Cotype)Можно строить разные уровни стека: enterprise + edge/light
Use casesVirtual assistants, document search, text generation, HR, support (Cotype)Это платформа вокруг knowledge work, а не только чат-бот
ПрайсПубличного прайс-листа нетЦена и границы SLA определяются в договоре — нужна проверка

Если ядро проекта — документы, база знаний, много форматов файлов, корпоративный поиск и AI-ассистент по внутренним регламентам, MTS AI почти всегда надо хотя бы включать в short list.

4. Cloud.ru Evolution AI Factory

Cloud.ru идёт как cloud-first конструктор GenAI-среды. На продуктовой странице Evolution AI Factory перечислены Evolution ML Inference, Foundation Models, Managed RAG, ML Finetuning, Notebooks, AI Agents, а также claims про 9 дата-центров уровня Tier III, 24/7 техподдержку и позиционирование «от эксперимента до продакшна» (Cloud.ru Evolution AI Factory).

Отдельно для закупки важны три строки на этой же странице:

  • доступны open-source и enterprise-модели;
  • есть managed RAG;
  • есть AI Agents и low-code/workflow-подход для запуска прикладных сценариев (Cloud.ru Evolution AI Factory).

Это делает Cloud.ru логичным кандидатом там, где заказчик хочет не собирать стек из отдельных сервисов, а взять один облачный контур и быстрее выйти в прикладной production.

ВопросОтвет по публичной странице Cloud.ruПрактический вывод
Есть ли inference и RAG?Да: ML Inference и Managed RAG (Cloud.ru)Подходит для корпоративного поиска и чат-ассистентов
Есть ли agentic слой?Да: AI Agents и AI Workflows (Cloud.ru)Хорошо для low-code автоматизации процессов
Есть ли публичный понятный прайс?Продуктовая страница ведёт к калькулятору и договорной модели, а не к простому фиксированному листуДля RFP обязательно просите 3-year TCO и лимиты по GPU / inference
Можно ли использовать в безопасном корпоративном контуре?Cloud.ru отдельно заявляет соответствие ФЗ-152 и механизмы защиты данных (Cloud.ru)Для ПД и regulated workloads надо всё равно проверять конкретную архитектуру

5. T-Bank Research: T-Pro 2.0 и семейство T-Lite

T-Bank — это не публичный hyperscaler, а важный open-weight слой российского рынка. Для закупки это полезно там, где вы хотите минимизировать vendor lock-in, оставить модель в своём контуре и не платить за токены внешнему API.

На карточке t-tech/T-pro-it-2.0 в Hugging Face явно указано:

  • лицензия apache-2.0;
  • базовое семейство Qwen 3;
  • бенчмарк MERA = 0.660, ruMMLU = 0.790 (T-pro-it-2.0).

У T-lite-it-1.0 на карточке есть MERA = 0.552 и позиционирование как модели для дальнейшего fine-tuning, а не «готового чат-ассистента из коробки» (T-lite-it-1.0).

Здесь есть важная деталь по актуальности. На 20 апреля 2026 года в публичной организации t-tech уже видны более поздние ревизии семейства 2.1 (t-tech org). Но для единообразия этого трека ниже я использую T-Pro 2.0 как базовый reference: именно у неё есть устоявшийся публичный benchmark и широкое обсуждение в research-паке.

СемействоЧто подтвержденоДля чего брать
T-Pro 2.0Apache-2.0, Qwen 3 base family, MERA 0.660 (HF model card)Самостоятельный on-prem inference, RAG, корпоративные ассистенты без внешнего API
T-LiteЛёгкая open-weight модель, полезна как inexpensive local layer (HF model card)Router, local pre-processing, дешёвый базовый inference

Практическая граница такая: T-Pro — не платформа. Это строительный материал. Если у команды нет своего Kubernetes / vLLM / SGLang / observability-слоя, нужна либо интеграторская сборка, либо переход в готовую платформу — например, Yandex/Сбер/Cloud.ru. Техническая сторона self-hosted-развёртывания подробно разобрана в уроке p.9/02.

Какой стек собирать под завод: три профиля

Профиль предприятияРекомендуемый стекПочему именно онГде риск
Лёгкий: малое предприятие, 1–2 кейса, мало своей AI-командыYandex AI Studio для быстрых пилотов + T-Pro 2.0 для локального self-hosted контура, если данные нельзя выпускать наружуМинимум времени на запуск, при этом есть путь в on-premМожно увязнуть между «облако быстро» и «self-hosted дёшево» без явного owner-а
Средний завод: документы, FAQ, внутренний search, 1–2 CV кейсаGigaChat Corporate / API для документов + Cotype для knowledge-heavy сценариев + Cloud.ru как platform layer при необходимости agents / managed RAGХороший баланс между русским языком, договором, on-prem-логикой и готовыми сервисамиБез жёсткого TCO-расчёта легко переплатить за лишние платформенные сервисы
Крупный холдинг: regulated контур, КИИ, разные периметрыGigaChat / Cotype в корпоративном контуре + собственный Kubernetes и self-hosted open-weight слой на T-Pro / Qwen / DeepSeek + промышленный интеграторПозволяет развести regulated и non-regulated зоны и избежать lock-inНужна зрелая ИТ/ИБ-команда и проектное управление уровня программы

Алгоритм выбора между пятью российскими опорами

  1. Определите, что вы покупаете: модель или платформу. T-Pro — это модельный слой. Yandex, Cloud.ru — платформенный. Сбер и MTS AI стоят между ними, но тоже требуют отдельного ответа на вопрос о deployment.

  2. Проверьте контур. Если нужны on-prem и отключение внешних вызовов, shortlist резко сужается. Это тема p.2/01 и p.3/05.

  3. Сравните не только качество, но и доступность расчёта. Публичные API-тарифы Сбера полезны, потому что их можно быстро подставить в ROI. Договорные цены Cloud.ru и MTS AI придётся выбивать через RFP.

  4. Оцените скорость выхода в production. Yandex и Cloud.ru обычно выигрывают по быстрому старту. Self-hosted на T-Pro выигрывает по контролю и независимости, но проигрывает по времени запуска.

  5. Решите, нужен ли вам vendor lock-in. Если нет — обязательно держите в short list open-weight ветку через T-Pro и стек из модуля p.9.

Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.