Модуль p.3 · Урок 5
Урок 5: Санкции 2026 — как работать без OpenAI
Содержание
- Чему вы научитесь
- Что именно недоступно российскому предприятию как штатный корпоративный контур
- Серые схемы: когда их вообще обсуждают
- Чем заменять западный стек в белом контуре
- Российские корпоративные LLM
- Open-weight из КНР: когда это уже не «китайский риск», а рабочий инструмент
- Что реально смотреть в китайском open-weight сегменте
- Чек-лист для on-prem-модели: что требовать от интегратора
- Матрица «что использовать под какой сценарий»
Чему вы научитесь
- Быстро отличать «официально доступный сервис» от серой схемы, которая держится на прокси, дочке или чужом договоре
- Понимать, какие западные AI-сервисы для российского промышленного предприятия нельзя брать как опорный контур уже на этапе закупки
- Выбирать между российскими корпоративными LLM и open-weight моделями из КНР под конкретный сценарий
- Ставить интегратору правильные требования к on-prem-развёртыванию: аудит весов, изоляция, запрет внешних вызовов и контроль лицензии
- Связывать санкционный выбор с двумя соседними уроками модуля: уроком 1 про персональные данные и уроком 2 про КИИ
Главный вопрос здесь звучит не так: «какая модель умнее». Правильный вопрос: «какой контур закупки, эксплуатации и права доступа у нас вообще реален». Для российского промышленного предприятия OpenAI, Anthropic, Gemini, Azure OpenAI, AWS Bedrock и GitHub Copilot — это в лучшем случае нестабильный внешний ресурс, а не базовый корпоративный стандарт. Для значимых объектов КИИ такой внешний контур нужно считать закрытым ещё жёстче: не только из-за санкций, но и из-за запрета на иностранное ПО, о котором мы говорили в уроке 2 (Указ Президента РФ № 166 от 30.03.2022; КонсультантПлюс, Указ № 166 в ред. от 07.04.2025).
Что именно недоступно российскому предприятию как штатный корпоративный контур
| Сервис | Что подтверждает первоисточник | Практический вывод для промышленного предприятия | Для КИИ |
|---|---|---|---|
| OpenAI | OpenAI прямо пишет, что API разрешён только в странах из списка, а доступ вне списка может привести к блокировке или приостановке аккаунта; Россия в перечне поддерживаемых стран отсутствует (OpenAI Supported Countries) | Нельзя закладывать в закупку как официальный канал для российского юрлица | Нет — внешний иностранный SaaS-контур не использовать |
| Anthropic / Claude API | Anthropic публикует список поддерживаемых стран и регионов; Россия в нём отсутствует (Anthropic Supported Countries) | Официальный прямой договор для российского предприятия не опорная схема | Нет |
| Google AI Studio / Gemini API | Google публикует список доступных регионов для Gemini API и Google AI Studio; Россия в списке отсутствует, а сама страница предлагает использовать Vertex AI только в поддерживаемых регионах (Google AI Studio and Gemini API Available Regions) | Для российского предприятия прямой Gemini API не надо считать гарантированно доступным сервисом | Нет |
| Vertex AI / Gemini on Vertex | Vertex AI работает в конкретных зарубежных регионах Google Cloud, но это не снимает проблему санкционной закупки и иностранного облака (Vertex AI Locations) | Даже если сервис технически существует, для РФ-предприятия это не «белый» базовый контур | Нет |
| Azure OpenAI Service | Microsoft объявила о приостановке всех новых продаж продуктов и сервисов в России 4 марта 2022 года (Microsoft, 04.03.2022) | Azure OpenAI нельзя брать как стандартный канал закупки для российского юрлица | Нет |
| AWS Bedrock | Amazon сообщил, что больше не принимает новые AWS sign-ups из России и Беларуси с марта 2022 года (Amazon, update on Russia and Belarus) | AWS Bedrock не надо считать штатным и устойчивым путём для нового российского корпоративного контура | Нет |
| Hugging Face Inference Providers / HF Inference | Hugging Face официально даёт managed inference через Inference Providers, а биллинг compute-сервисов ведёт по картам через Stripe (HF Inference Providers; HF Billing) | Публичные модели и веса доступны, но managed inference и корпоративный биллинг для РФ — нестабильный путь. Реально полезна прежде всего часть с open-weight моделями | Нет для managed inference; только on-prem для open-weight |
| GitHub Copilot | Copilot — платный сервис GitHub/Microsoft; при этом Microsoft сохраняет режим остановки новых продаж в России с 4 марта 2022 года (Microsoft, 04.03.2022; GitHub Copilot Plans) | Для российского предприятия это не базовый корпоративный инструмент разработки, который можно спокойно включить в долгий roadmap | Нет |
Ключевой вывод: «официально недоступно» не означает, что сервис нельзя открыть через VPN или сторонний шлюз. Это означает, что его нельзя ставить в основу промышленной архитектуры, бюджета и договорной модели. Для CDTO этого достаточно, чтобы вынести сервис из списка базовых опций.
Серые схемы: когда их вообще обсуждают
Серые схемы на рынке есть. Самые частые две:
- дочерняя компания или проектный офис в нейтральной юрисдикции, который сам покупает доступ к западному AI-сервису;
- AI-gateway или proxy-API, который прячет различия между OpenAI, Claude, Gemini и другими моделями за единым endpoint, например Eden AI или российский ProxyAPI.
Но эти схемы годятся только для узкого класса задач: нет КИИ, нет персональных данных, нет гостайны, нет критичной коммерческой тайны и нет зависимости производства от этого канала. Иначе вы строите не архитектуру, а управляемое нарушение.
| Серая схема | Где она реально встречается | Главный риск | Когда ещё можно обсуждать |
|---|---|---|---|
| Дочка в нейтральной стране | Международный холдинг, R&D, маркетинг, аналитика, pre-sales | Контроль над данными уходит в другой контур; российский заказчик часто теряет прямую управляемость договором и аудитом | Только для некритичных задач и вне КИИ |
| Прокси-API / AI-gateway | Быстрое тестирование нескольких западных моделей через единый API | Появляется ещё один посредник, через которого проходят запросы и ответы; это ухудшает контроль логов, инцидентов и юрисдикции | Только для синтетических или обезличенных данных |
| Иностранный партнёр как оператор сервиса | Совместный международный проект | Размывается ответственность: чьи данные, чья база, чьё уведомление, чья реакция на инцидент | Только если российский контур не является оператором критичных данных |
flowchart TD
A[Нужен внешний AI-сервис] --> B{Есть КИИ или значимый производственный контур?}
B -->|Да| C[Иностранный SaaS исключить]
C --> D[Смотреть on-prem российские модели или audited open-weight]
B -->|Нет| E{Есть ПД или чувствительная КТ?}
E -->|Да| F[Сначала урок 1: локализация, основания, договор, логирование]
F --> G[После этого смотреть российский облачный или локальный контур]
E -->|Нет| H{Нужен быстрый эксперимент?}
H -->|Да| I[Допустим sandbox через proxy или arckep.ru на обезличенных данных]
H -->|Нет| J[Стройте белый корпоративный контур сразу]Чем заменять западный стек в белом контуре
Если вам нужен рабочий корпоративный путь, выбор обычно сводится к трём группам: российские B2B-модели, локально развёрнутые open-weight модели и узкий sandbox для экспериментов.
Российские корпоративные LLM
| Платформа | Что подтверждено первоисточником | Как использовать на предприятии | Граница применимости |
|---|---|---|---|
| YandexGPT 5.1 Pro | Yandex открыл доступ к YandexGPT 5.1 Pro 28.08.2025, а в документации по тарификации модель присутствует как актуальная линейка (Yandex Cloud, 28.08.2025; Yandex AI Studio Pricing) | Корпоративный поиск по знаниям, суммаризация документов, ассистенты, классификация обращений | Для КИИ проверяйте отдельный контур, договор и интеграцию. Не подменяет требования урока 2 |
| GigaChat 2 Pro / 2 Max | В публичной документации Сбера на дату подготовки урока доступны именно GigaChat 2 Pro и GigaChat 2 Max, а модели первого поколения переведены на второе поколение (Sber Docs: Models; Sber Docs: Updates) | Русскоязычные ассистенты, анализ документов, поиск по внутренним базам, встраивание в корпоративные процессы | Если вам продают «GigaChat 3 Pro», просите точное коммерческое наименование и ссылку на актуальную публичную документацию |
| MTS AI / Cotype | MWS AI позиционирует Cotype как корпоративную LLM с on-prem-развёртыванием; в апреле 2025 года вышел Cotype Pro 2, а в апреле 2026 года — мультимодальная модель Cotype Light 3 (9B параметров) (Cotype Product; Cotype Pro 2, 01.04.2025; Cotype multimodal, 02.04.2026) | Хороший вариант там, где критичны on-prem, русский язык и интеграция с документами и RAG | Проверяйте не только качество модели, но и зрелость интегратора, который поведёт внедрение |
| T-Bank AI | У Т-Банка есть официальный AI-центр и собственные LLM/ассистенты как внутренняя технологическая компетенция (T-Bank AI) | Рассматривайте как источник экспертизы, партнёрства или отраслевой компетенции, а не как универсальный массовый публичный API по умолчанию | Коммерческая модель внешнего enterprise-доступа для широкого B2B на дату подготовки урока — нужна проверка |
Для обкатки промптов, маршрутизации и user-flow на обезличенных данных можно использовать arckep.ru: это удобно как тренировочный полигон без VPN и с рублёвой оплатой. Но arckep.ru — это именно песочница для практики и проверки идей, а не способ обойти требования по КИИ, ПД и коммерческой тайне.
Open-weight из КНР: когда это уже не «китайский риск», а рабочий инструмент
Для промышленности именно open-weight путь часто оказывается самым рациональным. Причина простая: вы не покупаете иностранный SaaS, а забираете модель в свой контур и сами управляете железом, доступами, логами и обновлениями.
Но здесь типовая ошибка обратная. Команды думают, что если модель можно скачать с GitHub или Hugging Face, то юридический и ИБ-вопрос закрыт. Это не так. Вам нужны минимум четыре вещи:
- точное имя checkpoint и хеш поставки;
- понятная лицензия на коммерческое использование;
- изоляция от внешней сети и запрет несанкционированных outbound-вызовов;
- аудит контейнеров, зависимостей, стартовых скриптов и механизма обновления.
Что реально смотреть в китайском open-weight сегменте
| Семейство | Что подтверждено первоисточником | Где применять | Что проверить до запуска |
|---|---|---|---|
| Qwen3 | Официальный репозиторий Qwen публикует открытые веса семейства Qwen3 и инструкции для локального запуска через Transformers, vLLM и другие фреймворки (QwenLM/Qwen3) | Универсальные ассистенты, RAG, аналитика документов, tool-use в локальном контуре | В исходных материалах иногда встречается название «Qwen 3 Max», но для on-prem нужно фиксировать конкретный checkpoint из семейства Qwen3; обозначение «Qwen 3 Max» как open-weight-варианта — нужна проверка |
| DeepSeek-V3 / R1 | DeepSeek публикует официальный репозиторий DeepSeek-V3 и официальные версии V3.2 / V3.2-Exp для локального запуска (DeepSeek-V3 GitHub; DeepSeek-V3.2-Exp GitHub) | Сильные reasoning- и coding-сценарии, особенно там, где нужен свой inference-контур | Просите точную ревизию модели: DeepSeek-V3, V3.2 или V3.2-Exp, с фиксацией версии, хеша и условий поставки |
| GLM-4.5 | Z.ai открыто публикует GLM-4.5 и GLM-4.5-Air под MIT-лицензией и даёт репозиторий для локального использования (zai-org/GLM-4.5) | Агентные сценарии, код, reasoning, корпоративные ассистенты | Название «GLM-5» как отдельный подтверждённый open-weight-релиз на дату подготовки урока — нужна проверка |
| Kimi K2 | Moonshot официально описывает Kimi K2 как модель с архитектурой MoE, 1 трлн общих параметров и 32 млрд активируемых параметров на токен (Moonshot API Platform; Kimi K2 report, 11.07.2025) | Сложные agentic- и coding-сценарии | Если вам предлагают Kimi как on-prem/open-weight поставку, требуйте официальный источник релиза, хеш весов и лицензионные условия; режим локального enterprise-развёртывания под российского заказчика — нужна проверка |
Практическое правило жёсткое: китайская open-weight модель имеет смысл, только если вы готовы владеть эксплуатацией. Если у вас нет команды для локального inference, сетевой изоляции, мониторинга и red-team проверки промптов, open-weight быстро превращается в дорогую имитацию суверенности.
Чек-лист для on-prem-модели: что требовать от интегратора
Зафиксируйте точную модель. Не «Qwen» и не «DeepSeek», а конкретный checkpoint, версия, дата публикации и контрольная сумма артефактов.
Проверьте лицензию. У юриста должен быть ответ: можно ли коммерческое использование, дообучение, модификация, перепродажа сервиса и передача результата третьим лицам.
Отрежьте сеть наружу. Для промышленного контура базовый режим — без внешних вызовов, кроме контролируемых зеркал обновлений и репозиториев, если они вообще разрешены.
Проверьте контейнеры и зависимости. Нужны SBOM, результаты сканирования уязвимостей и список внешних библиотек. Это особенно важно для agentic-стека с большим числом обвязок.
Проверьте журналирование. Логи запросов, ответов и действий агентов должны оставаться в вашем контуре, а не в облаке поставщика.
Сделайте red-team на своих сценариях. Не ограничивайтесь общими бенчмарками. Проверяйте prompt injection, утечки фрагментов документации, опасные действия tool-use и ошибки маршрутизации.
Разведите sandbox и production. Эксперименты с новой моделью нельзя проводить в том же контуре, где живут реальные технологические данные.
Для КИИ оформляйте это как отдельный проект ИБ. Не как «ещё один сервер с моделью», а как объект с понятным классом, границами и мерами защиты. Здесь снова нужен урок 2.
Матрица «что использовать под какой сценарий»
| Сценарий | Что брать | Что не брать | Почему |
|---|---|---|---|
| Обучение команды, тест промптов, сравнение моделей на синтетике | arckep.ru, российские облачные модели, локальный sandbox | Боевые данные из ERP, CRM, АСУ ТП | Учиться нужно быстро, но только на обезличенных и безопасных наборах |
| Корпоративный поиск по внутренним регламентам вне КИИ | YandexGPT 5.1 Pro, GigaChat 2 Pro/2 Max, Cotype, локальный Qwen3 | OpenAI/Claude/Gemini через случайный прокси | Белый договор и предсказуемая поддержка важнее модного бренда |
| Помощник инженера или диспетчера в значимом контуре КИИ | Только on-prem российская модель или audited open-weight в изолированном контуре | Любой иностранный SaaS: OpenAI, Anthropic, Gemini, Azure OpenAI, Bedrock | Здесь работают ограничения урока 2: для КИИ внешний иностранный SaaS-контур не опция |
| Обработка документов с ПД клиентов или сотрудников | Российский контур после проверки по уроку 1; при высоком риске — локальная модель | Серые схемы, gateway, западный API | Сначала правовое основание, локализация и логирование, потом модель |
| Аналитика по коммерческой тайне и технологическим картам | Локальный Cotype, Qwen3, DeepSeek, GLM-4.5 в изолированном контуре | Облако без жёсткого договора и без контроля логов | Потеря режима КТ часто опаснее, чем проигрыш в качестве модели |
| Международный пилот через зарубежную дочку | Дочка с отдельным договором и отдельным набором данных | Прямое смешивание российского чувствительного контура с иностранным SaaS | Такая схема допустима только когда контуры действительно разведены юридически и технически |