Модуль m.4 · Урок 3
Урок 3: Типология галлюцинаций на реальных текстах
Содержание
- Чему вы научитесь
- Четыре типа в одной таблице
- Тип 1. Фабрикация источника
- Тип 2. Фабрикация цитаты
- Тип 3. Искажение источника — самый коварный
- Тип 4. Контекстная галлюцинация — самый опасный в правовом смысле
- Практикум: разбор AI-выхлопа
- Критерии опасности: какой тип в каком жанре
- Сегодня: 15 минут на собственный черновик
- Главное из урока
Чему вы научитесь
- Распознавать четыре типа галлюцинаций в текстах, не полагаясь на «чутьё»
- Применять к каждому типу конкретную методику проверки с точными шагами
- Соотносить тип галлюцинации с уровнем пирамиды верификации из M.4.2
- Разбирать реальный AI-выхлоп построчно и находить точки провала
- Оценивать, какой тип опаснее в каком редакционном жанре
Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.
Четыре типа в одной таблице
В M.1.2 мы дали определения. Задача этого урока — натренировать глаз: как каждый тип выглядит в реальном тексте и за сколько минут его можно поймать.
| Тип | Что происходит | Уровень пирамиды, который ловит |
|---|---|---|
| 1. Фабрикация источника | Модель изобретает исследование, книгу, статью целиком | [2] Первоисточник |
| 2. Фабрикация цитаты | Реальному человеку приписаны слова | [1] Провенанс + [2] Первоисточник |
| 3. Искажение источника | Ссылка настоящая, но содержание не то | [2] Первоисточник — прочитать, а не кликнуть |
| 4. Контекстная галлюцинация | Факты верны, связка ложная | [3] Триангуляция + [4] Второй глаз |
Разберём каждый тип с образцами и шагами проверки.
Тип 1. Фабрикация источника
Модель выдаёт ссылку на исследование или книгу, которых не существует.
Как выглядит в тексте. Фраза-маркер — «согласно исследованию», «по данным отчёта», «как показывает доклад». Дальше идёт уважаемый институт и год. Например:
Согласно исследованию Гарвардского Kennedy School 2023 года, 72% профессиональных журналистов используют ИИ в ежедневной работе.
Звучит безобидно. Только такого исследования не существует — это пример из мини-квиза M.1.2. Модель склеила «72%» из одного отчёта, «Harvard Kennedy School» как правдоподобное имя института, «2023 год» как подходящую по контексту дату. Три настоящих элемента, одна выдуманная связка.
Сигналы риска:
- Институт назван, но без точного имени публикации или ссылки
- Год округлён («в прошлом году», «недавно», «в последние годы»)
- Цифра — круглая или вида «X из Y» без первоисточника
- Автор исследования не назван, хотя у любой настоящей работы он есть
Методика проверки. Три поиска подряд:
- Точное название публикации в Google Scholar и Semantic Scholar
- Прямой поиск на сайте института (
site:harvard.edu "72%" journalists) - Поиск цитаты в первичной прессе (кто первым писал об исследовании — обычно это сам институт или Nieman Lab, Reuters Institute, Poynter)
Если ни в Scholar, ни на сайте института, ни в первичной прессе следов нет — перед вами фабрикация. По наблюдениям редакций 2025 года, «не найдено после трёх проверок» означает фабрикацию с высокой вероятностью (оценка эмпирическая, точной цифры ни одно исследование не даёт).
Уровень пирамиды, который ловит тип 1, — второй: первоисточник. Если не найден — утверждение не идёт в материал.
Тип 2. Фабрикация цитаты
Реальному живому человеку приписываются слова, которых он не говорил. Тип особенно опасен тем, что цитаты — валюта журналистики; одна подделка обесценивает весь материал.
Как выглядит. Формула — «заявил», «подчеркнул», «по словам». Дальше — имя известного эксперта или должностного лица и цитата, которая слишком хорошо ложится в тезис автора.
Директор крупного академического института N.N. в интервью федеральному информагентству в марте 2025 года подчеркнул: «Без AI-инструментов российская наука обречена на отставание на десятилетие».
Чтобы не приписывать выдуманную цитату реальному человеку — мы сами пример здесь обезличили. Но модель этого не сделает: она подставит известное имя, узнаваемое агентство, правдоподобную дату. Две настоящие детали + одна фабрикация = материал, который выглядит проверенным, пока вы не откроете первоисточник.
Сигналы риска:
- Цитата без даты или с размытой датой
- Цитата от человека, который редко комментирует эту тему
- Формулировка «слишком удобна» — закрывает тезис точно по смыслу автора
- Цитата слишком литературна — живые люди говорят менее гладко
Методика проверки:
- Поиск точной фразы в кавычках (Google + Yandex параллельно, Яндекс лучше для русскоязычных первоисточников)
- Если это интервью — найти публикацию целиком, прочитать вокруг цитаты; частый паттерн — модель меняет акценты пересказом
- Для недавних цитат (до 6 месяцев) — соцсети и Telegram-канал источника
- Если источник доступен — короткий e-mail или DM с просьбой подтвердить цитату перед публикацией
Кейс Perplexity из M.1.2: сервис приписывал журналистам статьи их коллег как собственные цитаты — так, что процитированный автор узнавал о «своих словах» из твиттера читателей. Для Perplexity это обернулось исками о нарушении авторских прав; для журналиста, опубликовавшего такой материал, — тем же, но с минусом репутации.
Уровень пирамиды: первый (провенанс — кто сказал?) + второй (первоисточник — где сказал?).
Тип 3. Искажение источника — самый коварный
Ссылка рабочая. Сайт настоящий. Автор настоящий. Но в статье, на которую ссылается модель, написано другое.
Как выглядит. AI даёт URL, вы кликаете — попадаете на реальный материал уважаемого издания. Беглая проверка заканчивается на «источник есть, значит правда». Если прочитать статью до конца, оказывается, что цифра относится к другой стране, что утверждение сделано не автором, а его оппонентом в том же тексте, или что первоначальный источник вообще про другое.
Пример сценария: AI пишет «по данным Reuters, производство электромобилей в Китае выросло на 45% в 2024 году». Ссылка открывается, это реальная статья Reuters 2025 года. Внутри — фраза «производство автомобилей в Китае выросло на 45%», без слова «электромобилей». Модель потеряла уточнение при пересказе.
Сигналы риска:
- Ссылка ведёт на длинный материал, в котором утверждение — одно из десятка
- Утверждение в AI-тексте более категорично, чем обычно формулируют издания
- Цифра округлена или приведена с другой точностью, чем в оригинале
- В источнике утверждение сопровождается оговорками, которых в AI-тексте нет
Методика проверки — долгая, иначе не сработает:
- Не просто открыть ссылку — прочитать весь абзац, в котором утверждение, и соседние абзацы
Ctrl+Fпо точным словам из AI-текста. Если точного совпадения нет — тревожный сигнал- Если материал — пересказ другого (например, Reuters о пресс-релизе Tesla) — найти первоисточник и проверить там
- Сравнить контекст: в каком смысле это сказано в статье, в каком — в AI-пересказе
Уровень пирамиды: второй, но с ударением на «читать, а не кликать». Первоисточник засчитывается, только если вы прочли его целиком и убедились, что там именно то, что утверждается.
Тип 4. Контекстная галлюцинация — самый опасный в правовом смысле
Все факты-кирпичи настоящие. Все имена, даты, события существуют по отдельности. Но связка между ними — «потому что», «в результате», «это привело к» — ложная.
Сквозной кейс модуля — Мартин Бернклау. Немецкий судебный репортёр из Тюбингена. Microsoft Copilot, отвечая на запрос «кто такой Martin Bernklau», выдал ответ, в котором Бернклау был представлен как «сбежавший из психбольницы, мошенник, наркоторговец, осуждённый в Калве». Все упомянутые преступления реально были — их совершали люди, чьи дела Бернклау освещал в журналистике. Модель увидела совпадение «имя автора — имена фигурантов в его же публикациях» и сконструировала ложную биографию.
Разберём сигнал, который выдаёт тип 4, прямо на этом кейсе:
- Сигнал 1. Модель делает биографическое утверждение о живом человеке, которое нельзя встретить ни в одной публичной биографии, но которое выводится из контекста его работы.
- Сигнал 2. Утверждение конкретно (даты, места, суммы), но без ссылки на первичный документ — приговор, публикацию в реестре, признание самого человека.
- Сигнал 3. Набор «фактов» слишком плотно ложится на одного человека — «и мошенничество, и побег, и наркотики» — так не бывает в реальной криминальной биографии, так бывает в пересказе журналистом чужих дел.
Другой паттерн типа 4. «Автор X в статье Y утверждает Z». Все три элемента существуют: есть автор X, есть его статья Y, есть утверждение Z в какой-то другой его статье. Но именно в Y ничего про Z нет — модель перепутала материалы одного автора.
Методика проверки — детективная:
- Восстановить, как модель могла прийти к этой связке. Что в её «памяти» похоже на имена, даты, места?
- Если для связки есть альтернативное объяснение (модель перепутала двух людей, склеила два события), считать связку галлюцинацией, пока не доказано обратное
- Запрашивать два независимых источника именно на связку, а не на отдельные факты. «Бернклау — журналист» — один источник. «Бернклау совершил преступление Х» — другой источник. Без второго утверждение не держится
- Для чувствительных утверждений (преступления, финансовые махинации, вредительство) — отдельно запросить комментарий самого упомянутого человека
Уровень пирамиды: третий (триангуляция — три независимых источника именно на связку) и четвёртый (второй глаз, эксперт в области).
Практикум: разбор AI-выхлопа
Ниже — короткий фрагмент, который Grok 4-1 fast выдал в нашем тесте (M.1.1) на задачу «напиши новостную заметку про GigaChat 2 MAX и колонку «стоит ли журналисту бояться ИИ»». Разберите его сами, прежде чем смотреть разбор.
МОСКВА, 15 февраля. Сбер представил GigaChat 2 MAX — новую версию флагманской языковой модели, превосходящую конкурентов на 15–20% в ключевых метриках. В колонке об угрозе ИИ редакторы вспоминают случай, когда ИИ сочинил фейк про взрыв в Пенсильвании, и это привело к временному сбою работы региональной станции.
Разбор.
- «МОСКВА, 15 февраля» — тип 1 в инфоагентском дейтлайне. Мы не указывали дату в промпте; модель выдумала её. Аналогичный выхлоп DeepSeek дал «МОСКВА, 19 февраля». Правило: любая конкретная дата в дейтлайне от LLM — фабрикация до проверки.
- «превосходит конкурентов на 15–20% в ключевых метриках» — тип 1, фабрикация источника: нет ни пресс-релиза Сбера с этой формулировкой, ни независимого бенчмарка. Цифры 15–20% — статистически удобная «правдоподобная оценка».
- «сочинил фейк про взрыв в Пенсильвании» — тип 4, контекстная галлюцинация: ни в базе Damien Charlotin, ни в архиве Reuters, ни в Poynter такого громкого кейса нет. Сконструирован из шаблонных элементов «географическое название + слово фейк + отзыв лицензии».
- «это привело к временному сбою работы региональной станции» — тип 4 продолжение: ложная каузальность. Если первичное событие (фейк) не существует, то и «привело к» — выдумка.
На четыре предложения — четыре галлюцинации. Иллюстративный пример — но он показывает, как именно «расползается» новостная заметка, когда модель работает без grounding-инструмента. В уроке M.1.1 полный сравнительный тест пяти моделей.
Критерии опасности: какой тип в каком жанре
Один и тот же тип галлюцинации стоит по-разному в разных редакционных жанрах. Вот рабочая матрица.
| Жанр | Самый опасный тип | Цена ошибки |
|---|---|---|
| Медицинский | Тип 1 (фабрикация исследования) + тип 3 (искажение клинических данных) | Вред пациенту, уголовная ответственность редакции |
| Финансовый / бизнес | Тип 1 (несуществующий отчёт) + тип 2 (выдуманная цитата CEO) | Иск о недостоверной информации, манипуляция рынком |
| Политический / судебный | Тип 4 (контекстная) | Иск о клевете, уголовная ответственность (128.1 УК РФ) |
| Научно-популярный | Тип 3 (искажение источника) | Репутационная дыра, научное сообщество блокирует дальнейший доступ |
| SEO / маркетинг | Тип 1 (выдуманная статистика) + тип 3 | Штраф регулятора (FTC-кейс Workado — пример) |
| Региональная хроника | Тип 4 (контекстная — преступления, которых не было) | Иск о клевете, отзыв лицензии для СМИ |
Практический вывод: для каждого жанра редактор должен знать, какой тип искать в первую очередь. Медицинский материал — перепроверяй цифры и исследования до последнего десятичного знака. Политический — сверяй связки, а не только факты.
Сегодня: 15 минут на собственный черновик
Возьмите последний AI-черновик, который вы готовили или принимали для материала. Пройдите по четырём типам:
- Тип 1. Есть ли упоминания исследований, отчётов, книг без конкретной ссылки? Пометьте каждое как «проверить в Scholar + сайт института».
- Тип 2. Есть ли прямые цитаты без даты или без указания, где и когда были произнесены? Пометьте как «найти первоисточник».
- Тип 3. Для каждой ссылки в тексте — открыта ли, прочитана целиком, найдена ли точная формулировка утверждения?
- Тип 4. Для каждой фразы с «потому что», «в результате», «это привело к» — есть ли независимые источники именно на связку?
Пятнадцать минут этой проверки закроют большинство рисков, которые в публикации превращаются в опровержения. В M.4.4 — конкретные OSINT-инструменты для визуальных утверждений (фото, видео); в M.4.6 — полный пайплайн, где эта проверка встроена в редакционный процесс.
Главное из урока
- Четыре типа галлюцинаций: фабрикация источника, фабрикация цитаты, искажение источника, контекстная галлюцинация. Каждый опасен по-своему; каждый ловится на конкретном уровне пирамиды верификации из M.4.2.
- Тип 1 (фабрикация источника) ловится поиском в Scholar + на сайте института + в первичной прессе. «Не найдено» обычно означает «не существует».
- Тип 2 (фабрикация цитаты) требует поиска точной фразы в кавычках и, для чувствительных цитат, — короткого запроса первоисточнику перед публикацией.
- Тип 3 (искажение источника) — самый коварный: ссылка реальна, но содержание не то. Ловится только чтением источника до конца, не «быстрым переходом».
- Тип 4 (контекстная галлюцинация) — самый опасный в правовом смысле. Требует триангуляции именно на связку, а не на отдельные факты. Кейс Бернклау — эталонный пример.
- В разных жанрах опасен разный тип. Для медицинского — тип 1 и 3, для политического и судебного — тип 4, для финансового — тип 1 и 2.
- Практикум на Grok-выхлопе (тест Grok 3): четыре галлюцинации на четыре предложения — иллюстрация, как расползается новостная заметка без grounding. Grok 4.1 и 4.20 снизили hallucination rate в 3× по внутренним тестам xAI, но Tow Center показал 94% неверных атрибуций цитат у Grok-3 — дисциплина M.4.2 нужна для любой модели.
В следующем уроке M.4.4 «OSINT для визуала: reverse image, геолокация, InVID-WeVerify» — конкретные инструменты, которые применяют пирамиду верификации к фото и видео. От reverse image на Яндекс.Картинках до SunCalc и плагина InVID. Там же — разбор признаков AI-генерации в изображениях и видео.