Модуль m.9 · Урок 1
AI-политика для редакции из 3 человек: минимальный шаблон
Чему вы научитесь
- Понимать, зачем редакции нужна AI-политика — для команды, для аудитории, для юридической защиты
- Собирать минимальную политику из 7 пунктов, которая влезает в одну страницу
- Видеть подводные камни: что делают NYT, BBC, Reuters, Guardian и где они расходятся
- Внедрить политику за неделю без консультантов и юристов
- Масштабировать её от соло-автора к редакции из 30 человек без перелопачивания документа
Зачем AI-политика нужна именно редакции
Есть три ответа, и все три практические.
Для команды — устранить разночтения. Один журналист использует AI для редактуры черновика — это норма. Другой пишет полный текст Claude, подписывается своим именем и публикует без проверки — это катастрофа. Без AI-политики обе практики живут рядом, и в день, когда случится утечка или ошибка, редакция узнаёт об этом одновременно с аудиторией. Политика не про запреты ради запретов, а про общий минимум, ниже которого никто не опускается.
Для аудитории — повысить доверие. В 2024–2026 NYT, BBC, Reuters, Guardian опубликовали свои AI-политики. Это не было слабостью — наоборот, зрелым ответом на вопрос, который читатели всё равно задавали. Молчаливая редакция в 2026 воспринимается как скрывающая; открытая — как уверенная в своих процессах.
Юридика — защита от претензий. AI-политика + маркировка AI-контента (C2PA/SynthID из M.4.6) + согласия на биометрию (M.8.3, M.8.4) — это три слоя защиты от обвинений в обмане аудитории и от регуляторных рисков по 152-ФЗ и грядущим поправкам в УК о дипфейках.
Семь пунктов минимальной политики
Это ядро, которое работает для соло-автора, редакции из 3 человек и редакции из 30. Детали отличаются, принципы — нет.
- AI не пишет полные материалы. Журналисты используют AI как инструмент (редактура, расшифровка, ресёрч, идеи), но подписывают тексты своим именем и несут за них ответственность. Полная генерация — запрещена.
- Существенное влияние AI маркируется. Если AI значимо повлиял на структуру материала (не только на правку опечаток) — в конце ставится пометка, какой инструмент и на каком этапе использовался.
- Факты, полученные через AI, верифицируются. AI-выдача — источник гипотезы, не источник факта. Всё, что пойдёт в публикацию, проверяется по первоисточнику (пайплайн из M.4.6).
- Конфиденциальная информация не идёт во внешние AI. Данные источников, черновики расследований, коммерческая тайна, ПД героев — только в локальные модели (Whisper, LM Studio) или enterprise-инстансы с договором о неиспользовании данных для обучения.
- Клонирование голоса и лица — только с письменного согласия. 152-ФЗ ст. 11 (M.8.3, M.8.4). Для любого публичного или частного лица — подписанное согласие именно на синтез, не общее согласие на обработку ПД.
- Генеративные изображения и видео помечаются явно. В подписи к иллюстрации указано: «Сгенерировано AI (инструмент)». Исключение — технические иконки и декоративные элементы.
- Политика пересматривается раз в квартал. AI меняется быстро: модели, цены, юридика. Замороженный документ устаревает за 6 месяцев. Квартальный ревью — короткий, 30-минутный, с фиксацией правок.
| Пункт | Enforcement | Частота нарушений (обычно) |
|---|---|---|
| 1. Нет полной генерации | Редактор проверяет на etape ревью | Низкая при обучении |
| 2. Маркировка влияния AI | Чек-лист перед публикацией | Высокая без привычки |
| 3. Верификация фактов | Фактчекер, пайплайн M.4.6 | Средняя под дедлайном |
| 4. Конфиденциальность | Канал только через enterprise-инстанс | Низкая при чётких правилах |
| 5. Согласие на биометрию | Шаблон договора в проекте | Средняя, если нет шаблона |
| 6. Маркировка изображений | Подпись в CMS | Высокая без автоматизации |
| 7. Квартальный ревью | Встреча в календаре, 30 мин | Средняя, решается ритуалом |
Шаблон политики — можно брать и адаптировать
AI-политика редакции [Название] — одна страница
Как это делают в мире
NYT — Principles for Using Generative AI in the Newsroom (май 2024). Основной принцип: «Generative AI иногда помогает с частью процесса, но работа всегда управляется и подотчётна журналистам». Разрешено: черновики заголовков, саммари статей, SEO, брейнсторминг вопросов, ресёрч. Запрещено: писать статьи, существенно их переписывать, обходить пейволл, создавать изображения или видео для публикации без маркировки. Внутренний инструмент Echo — для суммаризации и подготовки черновиков заголовков.
BBC AI Principles (2024) + AI Guidance. Три стержневых принципа: (1) действовать в интересах общества, (2) приоритет таланту и создателям, (3) открытость с аудиторией об использовании AI. Добавлены редакционные требования: каждое применение AI должно быть обосновано конкретной задачей, у системы всегда есть редакционно ответственный человек, аудитория информируется о роли AI. Генеративный AI прямо запрещён для новостных материалов и фактологического ресёрча — только для заголовков, саммари и технических задач. Обязательное обучение AI для всего штата.
Reuters — Journalistic Standards и AI Principles. Жёстче всех в визуале: генеративный AI не используется для создания или модификации изображений — никаких исключений. Остальное — транспарентность (раскрытие инструмента, если он повлиял на результат), финальная верификация всегда человеком, никогда не использовать непроверенные факты из AI. Разграничение: структурированные данные (автоматика допустима) vs editorial copy (только человек).
The Guardian. В феврале 2025 объявила партнёрство с OpenAI: контент Guardian появляется в ChatGPT с атрибуцией и ссылками, параллельно в редакции разворачивается ChatGPT Enterprise. Ранее Guardian судилась с AI-компаниями за несанкционированное использование контента — и только после партнёрства начала внедрять AI внутри. Внутренние демо прошли у 270 сотрудников UK-ньюсрума и у всех команд US и Australia. Акцент — на человеческий надзор и пользу для читателя.
Российский контекст. Публичных AI-политик у крупных российских СМИ пока мало. T-Ж, VC.ru, Habr, «Нож» используют AI в продакшене (M.7.3), но формальных документов на сайтах нет. Для русскоязычных редакций в 2026 — это шанс оказаться первыми с открытой политикой, а не объясняться постфактум.
Антипаттерны — как делать не надо
- Запретить всё AI целиком. Команда всё равно будет использовать, но скрытно: в личных аккаунтах, через телефон, без следов. Хуже, чем чёткие правила.
- Документ на 20+ страниц. Никто не читает, никто не помнит. Максимум — 1–2 страницы, всё остальное уходит в приложения.
- Политика без enforcement. Написали, выложили на сайт, ни разу не обсуждали. Через полгода никто не помнит пункты. Нужны чек-лист перед публикацией и регулярный ревью.
- Декларативный язык без конкретики. «Мы используем AI ответственно» — пустая фраза. Заменять на поведения: «факты проверяем по первоисточнику», «генеративные картинки помечаем».
- Скопировать политику NYT без адаптации. Их процессы рассчитаны на 1 700 журналистов. Для редакции из 3 — это оверкилл, который вы не соблюдёте.
Как внедрить за неделю
- День 1–2. Берёте шаблон выше, адаптируете под свою редакцию: убираете нерелевантные пункты, добавляете специфику (например, для видео-редакции — отдельный пункт про аватары из M.8.4).
- День 3. 60-минутная встреча с командой: разбор каждого пункта, фиксация возражений, правки по горячим следам. Цель — не «принять политику», а «достичь согласия, что каждый её соблюдает».
- День 4. Публикация политики в разделе «О редакции» или на отдельной странице. Упоминание в рассылке читателям — «мы обновили процессы, вот как работаем с AI».
- День 5–7. Чек-лист в CMS перед публикацией, добавление шаблона согласия на биометрию в общую папку, назначение ответственного за квартальный ревью.
Первый месяц после запуска — мониторинг: сколько материалов прошло через чек-лист, где возникают разногласия, какие пункты часто нарушаются. Через 3 месяца — первый официальный ревью и корректировка.
Масштабирование: 3 → 10 → 30 человек
- 3 человека. Устный консенсус + одностраничный текст на сайте. Enforcement — через общую привычку и короткий чек-лист. Ревью — 30 минут раз в квартал в общем чате.
- 10 человек. Документ остаётся одностраничным, но добавляется onboarding для новых сотрудников: полчаса разбора политики в первую неделю. Назначается один ответственный редактор за AI-практики (может совмещать).
- 30 человек. Политика + внутренние гайдлайны по конкретным сценариям (видео, визуал, расследования). Появляется роль AI-редактора или AI-куратора. Регулярный аудит — раз в квартал с выборкой материалов и проверкой соблюдения пунктов. Обучение новых — формальный курс на день.
Ключевое правило: публичная политика остаётся одной страницей на всех масштабах. Внутренние процессы растут, страница — нет.
Русский контекст — что добавить
Для русскоязычных медиа к базовым 7 пунктам стоит дописать:
- Соответствие 152-ФЗ — согласия на биометрию обязательны, штрафы до 700 тыс руб за нарушение оформления, 15–20 млн руб за утечку биометрии (M.8.3).
- Локализация данных — с 1 июля 2025 ПД граждан РФ не хранятся в иностранных базах. Для редакций с героями-россиянами — использовать Yandex SpeechKit, SaluteSpeech, локальные модели, а не ElevenLabs/OpenAI напрямую.
- Оплата международных сервисов — через arckep.ru рублями без VPN для части команды, что снимает риск обхода санкций личными картами.
- Выбор моделей — Claude через arckep, GigaChat, YandexGPT для чувствительного контента; OpenAI/Anthropic напрямую — только для общих задач без ПД.
Главное
Минимальная AI-политика — одна страница, семь пунктов, квартальный ревью. Этого достаточно для редакции из 3 человек и как основа для редакции из 30. NYT, BBC, Reuters, Guardian подтверждают: открытая политика укрепляет доверие, а не подрывает. Для русскоязычных медиа — это ещё и юридическая защита по 152-ФЗ и готовящимся поправкам в УК о дипфейках.
В следующем уроке M.9.2 — паттерны СМИ: как выглядит AI-пайплайн в ежедневной редакции, какие роли возникают (AI-редактор, фактчекер, куратор данных), примеры T-Ж, VC.ru, Habr, «Ножа».