Модуль p.3 · Урок 6
Урок 6: ГОСТы по ИИ и ISO 42001 — что применять
Содержание
- Чему вы научитесь
- Кто вообще выпускает эти стандарты
- Четыре уровня риска AI в КИИ по ПНСТ 1046-2026
- Что дают конкретные ГОСТы, кроме красивой папки на проверке
- Добровольны ли стандарты и когда они внезапно становятся обязательными
- Как использовать ГОСТ как рабочий инструмент, а не как библиотеку на полке
- Международные ISO: что брать в проект прямо сейчас
- Где чаще всего ломаются проекты
- Итоги для модуля p.3
Чему вы научитесь
- Отличать законы и приказы от стандартов и понимать, зачем в AI-проекте нужны оба слоя
- Быстро собирать набор ГОСТ и ПНСТ под три сценария: пилот вне КИИ, промышленный контур и значимый объект КИИ
- Раскладывать AI-систему по четырём уровням риска ПНСТ 1046-2026 и выбирать для неё режим управления
- Понимать, когда стандарты по ИИ добровольны, а когда фактически становятся обязательными через ТЗ, договор и внутренний контур контроля
- Использовать ГОСТ как аргумент на защите проекта перед CISO, службой ИБ и закупками
После урока 2 про КИИ и урока 3 про ФСТЭК 117 обычно возникает один и тот же вопрос: «Хорошо, закон и регулятор понятны. А по каким документам реально проектировать и сдавать систему?» Ответ — по стандартам. С 1 января 2025 года в заработал пакет базовых AI-ГОСТов, включая словарь, качество данных, робастность и систему менеджмента (ГОСТ Р 71476-2024, дата введения 01.01.2025; ГОСТ Р 71484.2-2024, дата введения 01.01.2025; ГОСТ Р ИСО/МЭК 42001-2024, дата введения 01.01.2025; ГОСТ Р ИСО/МЭК 24029-2-2024, дата введения 01.01.2025). С 1 апреля 2026 года к ним добавился ПНСТ 1046-2026 по AI в КИИ (ПНСТ 1046-2026).
закон отвечает на вопрос «что запрещено и кто отвечает», а стандарт — на вопрос «как доказать, что архитектура, данные, тесты и управление риском выбраны не случайно» (162-ФЗ, ст. 26; 162-ФЗ, ст. 27).
Кто вообще выпускает эти стандарты
Технический комитет по стандартизации № 164 «Искусственный интеллект» создан приказом Росстандарта № 1732 от 25 июля 2019 года и работает как российское зеркало международного подкомитета ISO/IEC JTC 1/SC 42 по искусственному интеллекту (ТК 164).
Первая причина — терминология. Если в договоре интегратор пишет «AI-модуль», ИБ пишет «автоматизированная система», а бизнес пишет «цифровой помощник», спор начинается раньше проекта. ГОСТ Р 71476-2024 с 1 января 2025 года даёт базовый словарь и опорные понятия, чтобы ТЗ, модель угроз и акт приёмки говорили на одном языке (ГОСТ Р 71476-2024).
Вторая причина — перенос международной практики в российский контур. ТК 164 не выдумывает документы в вакууме, а адаптирует и локализует ISO/IEC 22989, ISO/IEC 42001, ISO/IEC 5259 и другие документы под российскую систему стандартизации (ТК 164; ISO/IEC 22989:2022; ISO/IEC 42001:2023; ISO/IEC 5259-2:2024). Поэтому спор «брать международный ISO или российский ГОСТ» обычно ложный: в большинстве базовых тем российский ГОСТ уже является адаптированным входом в ту же международную логику.
| Стандарт | Дата введения | Что закрывает | Где применять в AI-проекте |
|---|---|---|---|
| ГОСТ Р 59277-2020 | 01.03.2021 | Классификацию систем искусственного интеллекта | На старте проекта, чтобы зафиксировать тип системы и не путать аналитический сервис с автономным контуром |
| ПНСТ 836-2023 | 01.01.2024 | Функциональную безопасность и связь AI с безопасными функциями | Там, где ошибка модели может повлиять на технологический процесс, охрану труда или аварийную защиту |
| ГОСТ Р 71476-2024 | 01.01.2025 | Термины и концепции AI | В ТЗ, договоре, модели угроз, политике управления моделями |
| ГОСТ Р 71484.2-2024 | 01.01.2025 | Показатели качества данных для аналитики и машинного обучения | Для датасетов, разметки, витрин признаков, векторных индексов и входных данных LLM |
| ПНСТ 1007-2025 | 01.10.2025 | Классификацию ПАК по назначению в КИИ | Когда AI поставляется как часть программно-аппаратного комплекса в промышленный контур |
| ГОСТ Р ИСО/МЭК 42001-2024 | 01.01.2025 | Систему менеджмента ИИ | Для роли владельца модели, процесса изменений, аудита, реестра рисков и жизненного цикла |
| ГОСТ Р ИСО/МЭК 24029-2-2024 | 01.01.2025 | Оценку робастности нейронных сетей формальными методами | Для критичных моделей, где нужно доказывать устойчивость к возмущениям и аномальным входам |
| ПНСТ 1046-2026 | 01.04.2026 | Общие положения по применению AI в составе ПАК объектов КИИ: жизненный цикл, надёжность, управляемость и риски | Для всех AI-систем внутри КИИ, особенно на значимых объектах |
Если коротко, пакет минимум для промышленности выглядит так: 59277 для классификации, 71476 для языка проекта, 71484.2 для данных, 42001 для управления, 24029-2 для робастности и 1046 для КИИ. Всё остальное — надстройки под отрасль и контур.
flowchart TD
A[Где будет работать AI-система?] --> B{Значимый объект КИИ?}
B -->|Да| C[Берите ПНСТ 1046-2026 + нормы КИИ из урока 2 + меры ФСТЭК из урока 3]
B -->|Нет| D{Есть влияние на технологическую безопасность?}
D -->|Да| E[Добавьте ПНСТ 836-2023 и проверки робастности по ГОСТ Р ИСО/МЭК 24029-2-2024]
D -->|Нет| F[Остаётся базовый пакет: 59277 + 71476 + 71484.2 + 42001]
C --> G{Есть персональные данные?}
E --> G
F --> G
G -->|Да| H[Связывайте проект с уроком 1: правовое основание, локализация, уведомления]
G -->|Нет| I[Документируйте контур, данные, риски и режим изменений]Четыре уровня риска AI в КИИ по ПНСТ 1046-2026
ПНСТ 1046-2026 действует с 1 апреля 2026 года и распространяется на системы искусственного интеллекта, применяемые в составе программно-аппаратных комплексов объектов КИИ (ПНСТ 1046-2026). Стандарт задаёт общие положения для процессов жизненного цикла СИИ в КИИ и связывает проект с требованиями к надёжности, управляемости, объяснимости и рискам (ПНСТ 1046-2026).
Ниже — практическая интерпретация для промышленного предприятия, а не буквальная таблица из текста ПНСТ 1046-2026. Эту шкалу имеет смысл использовать как управленческий перевод влияния AI на устойчивость объекта, автономности решений и потенциального ущерба.
| Уровень риска | Как выглядит система | Что для CDTO это означает | Какой контур выбирать |
|---|---|---|---|
| Уровень 1 — критический | AI участвует в обеспечении устойчивого функционирования КИИ, защите, отказоустойчивости или в функции, сбой которой может сорвать работу объекта | Требуйте максимальную управляемость, доказуемость, ручной override, доверенный контур и формальную верификацию там, где она применима (ПНСТ 1046-2026; ГОСТ Р ИСО/МЭК 24029-2-2024) | Только локальный или доверенный контур внутри КИИ; внешнее облако здесь не вариант |
| Уровень 2 — высокий | AI автоматически принимает решения с прямым воздействием на оборудование, технологический режим или защитные сценарии | Нужны жёсткие ограничения области применения, журналирование, тесты на деградацию, fallback-процедура и контроль человека на границах сценария (ПНСТ 1046-2026; ПНСТ 836-2023) | Локальный контур, жёсткая сегментация, запрет на «самообучение в проде» без процедуры изменений |
| Уровень 3 — средний | AI даёт рекомендации оператору, а человек подтверждает действие | Можно внедрять быстрее, но нужен human-in-the-loop, объяснимость, регламент отклонения рекомендаций и контроль качества данных (ПНСТ 1046-2026; ГОСТ Р 71484.2-2024) | Допустим промышленный внутренний контур без прямой автоматической команды оборудованию |
| Уровень 4 — низкий | AI работает как аналитика, поиск знаний, помощник инженера или copilot без прямого воздействия на объект | Основной риск смещается с аварийности на данные, доступы, корректность рекомендаций и жизненный цикл модели (ПНСТ 1046-2026; ГОСТ Р ИСО/МЭК 42001-2024) | Можно пилотировать быстрее, но всё равно через формальный реестр моделей и данных |
Вопрос «можно ли эту модель поставить в цех» бессмысленен без вопроса «какой у неё уровень автономности и что произойдёт, если она ошибётся». Поэтому ПНСТ 1046-2026 полезен даже тем, кто пока не находится на значимом объекте КИИ: он заставляет заранее отделять помощника от управляющего контура.
Что дают конкретные ГОСТы, кроме красивой папки на проверке
ГОСТ Р 59277-2020 нужен не для бюрократии, а чтобы зафиксировать класс системы уже на старте проекта. Если вы не классифицировали решение, потом сложно обосновать, почему к нему применили один набор мер, а не другой (ГОСТ Р 59277-2020).
ПНСТ 836-2023 нужен там, где AI связан с функциями безопасности. Его практический смысл для промышленности — не пускать модель в контур, где ошибка алгоритма может превратиться в инцидент процесса. Если AI влияет на останов, допуск, аварийный сценарий, допускать его как обычный BI-инструмент нельзя (ПНСТ 836-2023).
ГОСТ Р 71484.2-2024 про качество данных — это ваш инструмент против самого частого самообмана. Модель может быть дорогой и современной, но если у вас дрейфующие датчики, неполная разметка дефектов или грязный архив ремонтов, провалится не модель, а проект. Стандарт полезен тем, что переводит разговор из вкусовщины в измеримые показатели качества данных (ГОСТ Р 71484.2-2024; ISO/IEC 5259-2:2024).
ГОСТ Р ИСО/МЭК 42001-2024 нужен для управления, а не для презентации. Он вводит системный контур: владелец AI-системы, политика, цели, риск-реестр, контроль изменений, аудит, корректирующие действия. Если у вас несколько моделей, подрядчик и длинный жизненный цикл, без этого вы очень быстро начинаете жить в режиме «никто не отвечает за версию в проде» (ГОСТ Р ИСО/МЭК 42001-2024; ISO/IEC 42001:2023).
ГОСТ Р ИСО/МЭК 24029-2-2024 — документ не для каждого пилота, но для критичных систем он полезен. Когда модель принимает решения вблизи эксплуатационных ограничений, обычного «accuracy на тесте» мало. Нужны доказательства устойчивости к граничным условиям, шуму и аномальным входам (ГОСТ Р ИСО/МЭК 24029-2-2024).
Добровольны ли стандарты и когда они внезапно становятся обязательными
По общему правилу документы национальной системы стандартизации применяются на добровольной основе — это прямо сказано в статье 26 Федерального закона № 162-ФЗ (162-ФЗ, ст. 26). Но «добровольно» в промышленном AI-проекте не равно «можно не делать».
Стандарты фактически становятся обязательными в четырёх случаях:
- когда на них есть ссылка в нормативном правовом акте по правилам статьи 27 162-ФЗ (162-ФЗ, ст. 27);
- когда вы сами включили их в ТЗ, договор или внутренний корпоративный стандарт;
- когда поставщик публично заявил соответствие стандарту — тогда возникает обязанность ему соответствовать по статье 26 части 3 162-ФЗ (162-ФЗ, ст. 26 ч. 3);
- когда без них вы не можете доказать разумность выбранных мер на внутреннем аудите, у CISO или у регулятора.
Отдельно полезен ГОСТ Р 71752-2024 по требованиям к содержанию технического задания на AI. Он действует с 1 января 2025 года и помогает не забыть в ТЗ то, что потом обычно всплывает как спор: метрики качества данных, порядок приёмки, требования к объяснимости, журналам, ограничениям сценария и отказоустойчивости (ГОСТ Р 71752-2024).
Практически это означает следующее: если вы строите пилот на заводе и хотите, чтобы проект пережил переход из демонстрации в эксплуатацию, стандарты надо включать не постфактум, а в исходное ТЗ и договор с интегратором. Иначе подрядчик сдаст «работающую демку», а вам останется доказывать, что она пригодна для эксплуатации.
Как использовать ГОСТ как рабочий инструмент, а не как библиотеку на полке
Сначала классифицируйте систему. Зафиксируйте по ГОСТ Р 59277-2020, что именно вы внедряете: аналитический модуль, рекомендательную систему, управляющий контур или помощника оператора.
Определите контур. Отдельно запишите, находится ли система вне КИИ, внутри КИИ или на значимом объекте КИИ. Это связывает уроки 2 и 6 в один процесс, а не в две параллельные папки.
Назначьте уровень риска. По логике ПНСТ 1046-2026 определите, есть ли прямое воздействие на объект, может ли AI остановить процесс, изменить режим или сорвать устойчивость работы.
Соберите реестр данных. Для каждого набора данных зафиксируйте происхождение, качество, владельца, правила обновления и удаления. Здесь базовый документ — ГОСТ Р 71484.2-2024.
Назначьте владельца модели и владельца риска. Это логика ГОСТ Р ИСО/МЭК 42001-2024: без владельца системы менеджмента AI быстро превращается в «ничейный» код на сервере подрядчика.
Опишите режим изменений. Кто меняет промпт, датасет, вес модели, параметры маршрутизации, и кто утверждает вывод в прод. Для уровня 1–2 в КИИ это должно быть формализовано жёстко.
Запланируйте испытания. Для рекомендационных систем хватит сценарного тестирования и контроля качества данных; для критичных нейросетей добавляйте оценку робастности по ГОСТ Р ИСО/МЭК 24029-2-2024.
Включите стандарты в ТЗ и акты приёмки. Не пишите абстрактно «система должна быть безопасной». Пишите, какие разделы стандарта закрываются, какими артефактами и какими протоколами проверки.
Тренируйтесь на обезличенных кейсах. Для практики с моделями и тестирования промптов используйте обезличенные сценарии; удобно прогонять их через arckep.ru, но не смешивайте учебную отладку с боевыми данными и тем более с КИИ-контуром.
Международные ISO: что брать в проект прямо сейчас
Международные документы нужны не для галочки, а как каркас управленческой зрелости.
- ISO/IEC 42001:2023 — берите как основу для организационного контура AI: роли, политика, аудит, цели, корректирующие действия (ISO/IEC 42001:2023).
- ISO/IEC 23894:2023 — используйте как модель риск-менеджмента AI, особенно если на предприятии уже живёт корпоративный риск-процесс и не хочется изобретать отдельный «AI-риск» (ISO/IEC 23894:2023).
- ISO/IEC 22989:2022 — нужен как международный первоисточник для понятий; в российской документации его роль во многом закрывает ГОСТ Р 71476-2024 (ISO/IEC 22989:2022; ГОСТ Р 71476-2024).
- Серия ISO/IEC 5259 — полезна для качества данных, если у вас длинный жизненный цикл модели и несколько источников данных; в российском контуре первым рабочим документом для этого уже стал ГОСТ Р 71484.2-2024 (ISO/IEC 5259-2:2024; ГОСТ Р 71484.2-2024).
Для российского промышленного проекта правило простое: мыслить можно через ISO, а в ТЗ, договоре и актах приёмки удобнее опираться на российские обозначения ГОСТ и ПНСТ.
Где чаще всего ломаются проекты
Первая ошибка — писать в ТЗ только функциональность: «бот отвечает на вопросы технологов», «модель прогнозирует простой», «сервис ищет дефекты». Без слоя стандартов вы не зафиксировали ни требования к данным, ни режим изменения модели, ни границы автономности.
Вторая ошибка — считать, что ISO 42001 закрывает всё. Он не закрывает качество данных, не заменяет робастность, не подменяет требования ФСТЭК и не решает юридические границы работы в КИИ. Это каркас управления, а не волшебная индульгенция.
Третья ошибка — притягивать тяжёлые стандарты туда, где они не нужны. Для внутреннего copilot инженера, который работает на обезличенной базе знаний и не влияет на объект управления, формальная верификация нейросети будет лишней. Но реестр данных, владелец модели и порядок изменений всё равно обязательны как минимум по здравому смыслу и по логике ГОСТ Р ИСО/МЭК 42001-2024.
Итоги для модуля p.3
Если свести всё к одному управленческому правилу, оно звучит так: сначала определяете правовой контур и допустимость AI в объекте, потом — класс системы и уровень её риска, и только после этого выбираете стандартный пакет. Именно в такой последовательности связаны урок 1 про персональные данные, урок 2 про КИИ и урок 3 про ФСТЭК 117.