Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль m.4 · Урок 1

Урок 1: Почему фактчек — вопрос выживания в 2026

25 мин
m.4 / Урок 1 из 6

Чему вы научитесь

  • Видеть масштаб проблемы AI-галлюцинаций в цифрах, а не в общих словах
  • Различать цену ошибки для юриста и для журналиста — и почему у журналиста она тяжелее
  • Понимать, что именно изменилось в дисциплине фактчека между 2024 и 2026 годами
  • Ориентироваться в картe модуля M.4: какой урок закрывает какой класс рисков
  • Проверить свою работу тремя вопросами «что я сделаю сегодня, не дожидаясь M.4.6»

Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.

Цифры, от которых не отмахнуться

На 16 апреля 2026 открытая база Damien Charlotin фиксирует 1317 задокументированных случаев галлюцинаций ИИ в судебных документах — реальные штрафы, реальные юрисдикции, реальные имена адвокатов. До весны 2025 такие случаи попадали в базу раз в неделю; к концу 2025 — 2–3 в день. Тренд не переломлен: модели стали умнее, но практиков, готовых вставить сгенерированный текст без проверки, за год стало кратно больше.

Цифры по качеству AI-поисковиков ещё жёстче. Исследование Tow Center при Columbia (март 2025) протестировало восемь движков на поиске цитат по новостному материалу: средний уровень фабрикации — 60%. Grok-3 — 94% выдуманных цитирований. «Лучший в классе» Perplexity — 37%. Ни один движок не показал точность, на которую можно опереться без ручной проверки. Источник: Tow Center, CJR.

История с детекторами — симметричная. В апреле 2025 FTC вынесла proposed order против компании Workado за рекламу AI-детектора как «98% точного». В августе 2025 — финальный consent order. Независимое тестирование показало: 98% — это точность только на академических текстах; на общем контенте — 53%, то есть чуть лучше подбрасывания монеты. Пресс-релиз FTC.

Это не экзотика. Это новая рабочая реальность.


Цена ошибки: юрист vs журналист

Юристу за галлюцинацию в процессуальном документе грозит штраф $3000 (дело MyPillow, июль 2025) или $10 000 (калифорнийский апеллянт Амир Мостафави, сентябрь 2025). Неприятно, но это персональная санкция, оплачиваемая из собственного кармана. Для журналиста цена устроена иначе — и, по совокупности, тяжелее.

Класс рискаПоследствиеПример
РепутационныйОпровержение → отток читательского доверияCNET, 2023: публикация AI-материалов с ошибками привела к отметке «недоверен» в базе Википедии
ПравовойИск о клевете, особенно при обвинении живого лицаMicrosoft Copilot против Мартина Бернклау (Тюбинген, Германия)
ЛицензионныйДля СМИ в РФ — отзыв регистрации или блокировка через РоскомнадзорПравоприменение 2022–2025
КарьерныйАвтор материала с опровергнутыми фактами выпадает из индустрииBI-case 2023, The Messenger-case 2024
ИнституциональныйРедакция теряет доступ к источникам, которых AI-материал оскорбилDocumented cases Reuters Institute, 2025

Ключевая разница: штраф юриста платится один раз и закрывается. Опровержение в материале журналиста остаётся в архиве Google и в памяти источников — на годы. Один иск о клевете против издания может стать последним; для вольного автора — стать последним в профессии.

Кейс Бернклау показывает это прямо. Немецкий судебный репортёр Microsoft Copilot описал как «беглого пациента психбольницы, мошенника и наркоторговца» — на основе текстов самого Бернклау о процессах, которые тот освещал. Под угрозой оказалась не статья, а карьера человека, всю жизнь писавшего о правосудии. Этот кейс мы разберём полностью в M.4.3 (как диагностировать контекстную галлюцинацию) и в M.4.6 (как его отлавливал бы пайплайн фактчека). Пока — держите в голове как ориентир.


Что изменилось с 2024 года

Между 2024 и 2026 сдвинулись не столько инструменты, сколько рамка рисков. Пять сдвигов, которые делают дисциплину 2024 года недостаточной.

Суды выучили паттерн. В 2023–2024 судьи ловили AI-галлюцинации случайно. В 2025 — системно: появились внутренние инструкции для клерков, чеклисты проверки цитирований, шаблоны санкционных ордеров. База Charlotin стала рабочим инструментом прокуратуры. Порог «заметили — наказали» опустился.

Читатели выучили слово «AI slop». Публика калибруется быстрее, чем редакции успевают переучиваться. Вайбы «сгенерированного» текста — избыточные списки, шаблонные связки, предсказуемая ритмика — распознаются сходу. Параллельно падает терпимость к опровержениям: один AI-fail сокращает возвращаемость аудитории сильнее, чем человеческая ошибка той же степени.

Регуляторы вписывают AI в законодательство. Европейский AI Act (Regulation 2024/1689) внедряется поэтапно; обязательная маркировка AI-контента и дипфейков по статье 50 вступает в силу 2 августа 2026. В РФ обсуждаются поправки о маркировке — финальный контур неизвестен, но подготовиться к нему — задача редакции, а не «когда-нибудь потом». Детали — в M.9.

Конкуренты обгоняют за счёт дисциплины. NYT в феврале 2025 ввёл формальную AI-политику: одобренный список инструментов (Copilot, Google Vertex, NotebookLM, внутренний Echo) и прямой запрет AI-драфтов, AI-изображений, обхода paywall. Это превращает дисциплину в конкурентное преимущество: читатели, выбирая между «редакцией с прозрачной политикой» и «редакцией, которая молчит», выбирают первое.

AI-поисковики из «помощи» превратились в «источник галлюцинаций по умолчанию». Год назад Perplexity и ChatGPT Search были инструментом разведки. В 2026 — при тех же 37–94% фабрикации цитирований — ими нельзя пользоваться без ручной верификации каждого утверждения. Это не «недоделано», это фундаментальное свойство, о котором мы поговорили в M.1.2.


Почему модель не видит разницы между правдой и правдоподобием

Короткое повторение фундамента из M.1.2 — теперь в журналистской рамке. LLM не хранит базу фактов; она хранит распределение «какой токен обычно идёт после какого». Для модели строка «по данным Reuters Institute Digital News Report 2024, 67% журналистов» и строка «по данным Reuters Institute Digital News Report 2024, 72% журналистов» одинаково правдоподобны. Разницу между ними создаёт не модель — её создаёт первичный документ и проверка человека.

Для читателя-профессионала цитата с DOI, ссылкой на архив, датой — это аргумент. Для модели это шаблон, по которому можно сгенерировать точно так же выглядящий, но не существующий источник. Ваша журналистская интуиция «вот авторитетное утверждение» в работе с AI — ловушка: чем авторитетнее звучит цитата, тем выше вероятность, что она собрана статистикой, а не найдена в базе.

Отсюда практический вывод для всего модуля M.4: проверка AI-черновика — это не «прочитать и подумать, звучит ли правдоподобно». Это переход каждого утверждения через первичный источник с человеком в цикле.


Карта модуля M.4: что закрывает каждый урок

Шесть уроков — шесть классов рисков и инструментов. Ни один урок не самодостаточен: они работают как контур.

  • M.4.1 (текущий). Рамка и мотивация. Зачем дисциплина следующих пяти уроков.
  • M.4.2. Методология Bellingcat / GIJN / IFCN и пирамида верификации. То, что отличает профессионального фактчекера от любителя — воспроизводимость и чеклист на каждом уровне. Откуда брать стандарт.
  • M.4.3. Типология галлюцинаций глубже, чем в M.1.2: четыре типа разбираем на конкретных текстах — каждый с диагностическими сигналами. Здесь подробно проанализируем кейс Бернклау как образцовую контекстную галлюцинацию.
  • M.4.4. OSINT-инструменты для визуала: reverse image (Яндекс.Картинки для лиц, Google Lens для западного веба, TinEye для точных копий), геолокация по теням через SunCalc, InVID-WeVerify для видео. Практикум — найти, где и когда снято фото.
  • M.4.5. AI-детекторы текста: почему они не работают для журналистики, какие false positive критичны, в каких редких сценариях детектор всё-таки полезен — и ключевое правило: никогда не обвинять публично на основании одного детектора.
  • M.4.6. Пайплайн фактчека AI-черновика от начала до конца. Плюс C2PA и SynthID как проверяемый провенанс. Плюс российская специфика: IFCN через Проверено.Медиа, Лапша, StopFake — и правовые риски рунет-журналистики.

После M.4.6 у вас должен быть рабочий чеклист, по которому можно защитить материал перед редактором. До него — промежуточные инструменты: Bellingcat-методология в M.4.2, OSINT в M.4.4, детекторный скепсис в M.4.5.


Сквозной кейс: Мартин Бернклау

Один пример будет проходить через весь модуль. Бернклау — немецкий судебный репортёр из Тюбингена. Microsoft Copilot, отвечая на запрос о нём, склеил имя журналиста с именами фигурантов дел, которые тот освещал, и представил Бернклау как человека, сбежавшего из психбольницы и совершавшего мошенничества. Каждый отдельный факт в ответе Copilot брался из реального текста, опубликованного самим Бернклау; ложной была связка.

Почему этот кейс удобен для курса: он показывает четвёртый тип галлюцинации — самый опасный в правовом смысле и самый незаметный в беглой проверке. Три первых типа (фабрикация источника, цитаты, искажение ссылки) ловятся открытием ссылок. Четвёртый — только чтением источника на предмет «что там на самом деле сказано».

В M.4.3 мы разберём, какие именно сигналы в тексте Copilot выдавали ложную связку. В M.4.6 — проведём этот же текст через полный пайплайн фактчека и покажем, на каком именно шаге ошибка бы поймалась. Пока — запомните имя и юрисдикцию: Мартин Бернклау, Тюбинген, Баден-Вюртемберг. Разбор кейса — в The Conversation.


Три вопроса к себе — сегодня, до M.4.6

Ответьте письменно, не откладывая. Это не риторика — это первая проверка вашей текущей дисциплины.

Вопрос 1. Последний AI-ответ, который вы приняли за факт и использовали в работе или пересказе коллеге: открыли ли вы хоть одну ссылку из него? Если да — прочли ли статью целиком или только заголовок?

Вопрос 2. Есть ли в материале, над которым вы работаете прямо сейчас, цифры, имена или цитаты, взятые из AI без верификации в первичном источнике? Сколько таких утверждений — по честному подсчёту?

Вопрос 3. Есть ли у вас или в вашей редакции письменный чеклист фактчека AI-черновика? Не «общее понимание», а бумажный/файловый документ, по которому можно пройти за 20 минут и зафиксировать результаты?

Если хотя бы на один вопрос ответ — «нет», вы уже окупили время, потраченное на этот урок. Если на все три — «нет», то следующие пять уроков для вас — обязательная программа, а не расширение кругозора.


Главное из урока

  • Галлюцинации AI — не редкость, а норма: 1317 задокументированных судебных случаев на апрель 2026, 60% средней фабрикации цитирований в AI-поисковиках, 53% реальной точности AI-детекторов вместо заявленных 98%.
  • Цена ошибки у журналиста тяжелее, чем у юриста: штраф закрывается разово, репутация и иск о клевете — нет.
  • Между 2024 и 2026 изменилась рамка рисков: суды выучили паттерн, читатели калибруются на AI slop, регуляторы пишут законы, конкуренты побеждают за счёт дисциплины.
  • Модель не отличает правду от правдоподобия: чем авторитетнее звучит сгенерированная цитата, тем выше риск, что это шаблон, а не факт.
  • Модуль M.4 — шесть уроков: методология Bellingcat, типология галлюцинаций на кейсах, OSINT, AI-детекторы, пайплайн фактчека с C2PA и российской спецификой.
  • Сквозной кейс модуля — Мартин Бернклау, немецкий судебный репортёр, пример контекстной галлюцинации. Разбор в M.4.3 и M.4.6.

В следующем уроке M.4.2 «Методология: пирамида верификации Bellingcat» — про то, что именно отличает профессионального фактчекера от любителя, и как применить 5 принципов IFCN к AI-черновику за 20 минут. Учимся не только ловить галлюцинации, но и делать это воспроизводимо — так, чтобы любой редактор мог повторить проверку по вашим следам.

Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.