Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль m.4 · Урок 3

Урок 3: Типология галлюцинаций на реальных текстах

30 мин
m.4 / Урок 3 из 6

Чему вы научитесь

  • Распознавать четыре типа галлюцинаций в текстах, не полагаясь на «чутьё»
  • Применять к каждому типу конкретную методику проверки с точными шагами
  • Соотносить тип галлюцинации с уровнем пирамиды верификации из M.4.2
  • Разбирать реальный AI-выхлоп построчно и находить точки провала
  • Оценивать, какой тип опаснее в каком редакционном жанре

Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.

Четыре типа в одной таблице

В M.1.2 мы дали определения. Задача этого урока — натренировать глаз: как каждый тип выглядит в реальном тексте и за сколько минут его можно поймать.

ТипЧто происходитУровень пирамиды, который ловит
1. Фабрикация источникаМодель изобретает исследование, книгу, статью целиком[2] Первоисточник
2. Фабрикация цитатыРеальному человеку приписаны слова[1] Провенанс + [2] Первоисточник
3. Искажение источникаСсылка настоящая, но содержание не то[2] Первоисточник — прочитать, а не кликнуть
4. Контекстная галлюцинацияФакты верны, связка ложная[3] Триангуляция + [4] Второй глаз

Разберём каждый тип с образцами и шагами проверки.


Тип 1. Фабрикация источника

Модель выдаёт ссылку на исследование или книгу, которых не существует.

Как выглядит в тексте. Фраза-маркер — «согласно исследованию», «по данным отчёта», «как показывает доклад». Дальше идёт уважаемый институт и год. Например:

Согласно исследованию Гарвардского Kennedy School 2023 года, 72% профессиональных журналистов используют ИИ в ежедневной работе.

Звучит безобидно. Только такого исследования не существует — это пример из мини-квиза M.1.2. Модель склеила «72%» из одного отчёта, «Harvard Kennedy School» как правдоподобное имя института, «2023 год» как подходящую по контексту дату. Три настоящих элемента, одна выдуманная связка.

Сигналы риска:

  • Институт назван, но без точного имени публикации или ссылки
  • Год округлён («в прошлом году», «недавно», «в последние годы»)
  • Цифра — круглая или вида «X из Y» без первоисточника
  • Автор исследования не назван, хотя у любой настоящей работы он есть

Методика проверки. Три поиска подряд:

  1. Точное название публикации в Google Scholar и Semantic Scholar
  2. Прямой поиск на сайте института (site:harvard.edu "72%" journalists)
  3. Поиск цитаты в первичной прессе (кто первым писал об исследовании — обычно это сам институт или Nieman Lab, Reuters Institute, Poynter)

Если ни в Scholar, ни на сайте института, ни в первичной прессе следов нет — перед вами фабрикация. По наблюдениям редакций 2025 года, «не найдено после трёх проверок» означает фабрикацию с высокой вероятностью (оценка эмпирическая, точной цифры ни одно исследование не даёт).

Уровень пирамиды, который ловит тип 1, — второй: первоисточник. Если не найден — утверждение не идёт в материал.


Тип 2. Фабрикация цитаты

Реальному живому человеку приписываются слова, которых он не говорил. Тип особенно опасен тем, что цитаты — валюта журналистики; одна подделка обесценивает весь материал.

Как выглядит. Формула — «заявил», «подчеркнул», «по словам». Дальше — имя известного эксперта или должностного лица и цитата, которая слишком хорошо ложится в тезис автора.

Директор крупного академического института N.N. в интервью федеральному информагентству в марте 2025 года подчеркнул: «Без AI-инструментов российская наука обречена на отставание на десятилетие».

Чтобы не приписывать выдуманную цитату реальному человеку — мы сами пример здесь обезличили. Но модель этого не сделает: она подставит известное имя, узнаваемое агентство, правдоподобную дату. Две настоящие детали + одна фабрикация = материал, который выглядит проверенным, пока вы не откроете первоисточник.

Сигналы риска:

  • Цитата без даты или с размытой датой
  • Цитата от человека, который редко комментирует эту тему
  • Формулировка «слишком удобна» — закрывает тезис точно по смыслу автора
  • Цитата слишком литературна — живые люди говорят менее гладко

Методика проверки:

  1. Поиск точной фразы в кавычках (Google + Yandex параллельно, Яндекс лучше для русскоязычных первоисточников)
  2. Если это интервью — найти публикацию целиком, прочитать вокруг цитаты; частый паттерн — модель меняет акценты пересказом
  3. Для недавних цитат (до 6 месяцев) — соцсети и Telegram-канал источника
  4. Если источник доступен — короткий e-mail или DM с просьбой подтвердить цитату перед публикацией

Кейс Perplexity из M.1.2: сервис приписывал журналистам статьи их коллег как собственные цитаты — так, что процитированный автор узнавал о «своих словах» из твиттера читателей. Для Perplexity это обернулось исками о нарушении авторских прав; для журналиста, опубликовавшего такой материал, — тем же, но с минусом репутации.

Уровень пирамиды: первый (провенанс — кто сказал?) + второй (первоисточник — где сказал?).


Тип 3. Искажение источника — самый коварный

Ссылка рабочая. Сайт настоящий. Автор настоящий. Но в статье, на которую ссылается модель, написано другое.

Как выглядит. AI даёт URL, вы кликаете — попадаете на реальный материал уважаемого издания. Беглая проверка заканчивается на «источник есть, значит правда». Если прочитать статью до конца, оказывается, что цифра относится к другой стране, что утверждение сделано не автором, а его оппонентом в том же тексте, или что первоначальный источник вообще про другое.

Пример сценария: AI пишет «по данным Reuters, производство электромобилей в Китае выросло на 45% в 2024 году». Ссылка открывается, это реальная статья Reuters 2025 года. Внутри — фраза «производство автомобилей в Китае выросло на 45%», без слова «электромобилей». Модель потеряла уточнение при пересказе.

Сигналы риска:

  • Ссылка ведёт на длинный материал, в котором утверждение — одно из десятка
  • Утверждение в AI-тексте более категорично, чем обычно формулируют издания
  • Цифра округлена или приведена с другой точностью, чем в оригинале
  • В источнике утверждение сопровождается оговорками, которых в AI-тексте нет

Методика проверки — долгая, иначе не сработает:

  1. Не просто открыть ссылку — прочитать весь абзац, в котором утверждение, и соседние абзацы
  2. Ctrl+F по точным словам из AI-текста. Если точного совпадения нет — тревожный сигнал
  3. Если материал — пересказ другого (например, Reuters о пресс-релизе Tesla) — найти первоисточник и проверить там
  4. Сравнить контекст: в каком смысле это сказано в статье, в каком — в AI-пересказе

Уровень пирамиды: второй, но с ударением на «читать, а не кликать». Первоисточник засчитывается, только если вы прочли его целиком и убедились, что там именно то, что утверждается.


Тип 4. Контекстная галлюцинация — самый опасный в правовом смысле

Все факты-кирпичи настоящие. Все имена, даты, события существуют по отдельности. Но связка между ними — «потому что», «в результате», «это привело к» — ложная.

Сквозной кейс модуля — Мартин Бернклау. Немецкий судебный репортёр из Тюбингена. Microsoft Copilot, отвечая на запрос «кто такой Martin Bernklau», выдал ответ, в котором Бернклау был представлен как «сбежавший из психбольницы, мошенник, наркоторговец, осуждённый в Калве». Все упомянутые преступления реально были — их совершали люди, чьи дела Бернклау освещал в журналистике. Модель увидела совпадение «имя автора — имена фигурантов в его же публикациях» и сконструировала ложную биографию.

Разберём сигнал, который выдаёт тип 4, прямо на этом кейсе:

  • Сигнал 1. Модель делает биографическое утверждение о живом человеке, которое нельзя встретить ни в одной публичной биографии, но которое выводится из контекста его работы.
  • Сигнал 2. Утверждение конкретно (даты, места, суммы), но без ссылки на первичный документ — приговор, публикацию в реестре, признание самого человека.
  • Сигнал 3. Набор «фактов» слишком плотно ложится на одного человека — «и мошенничество, и побег, и наркотики» — так не бывает в реальной криминальной биографии, так бывает в пересказе журналистом чужих дел.

Другой паттерн типа 4. «Автор X в статье Y утверждает Z». Все три элемента существуют: есть автор X, есть его статья Y, есть утверждение Z в какой-то другой его статье. Но именно в Y ничего про Z нет — модель перепутала материалы одного автора.

Методика проверки — детективная:

  1. Восстановить, как модель могла прийти к этой связке. Что в её «памяти» похоже на имена, даты, места?
  2. Если для связки есть альтернативное объяснение (модель перепутала двух людей, склеила два события), считать связку галлюцинацией, пока не доказано обратное
  3. Запрашивать два независимых источника именно на связку, а не на отдельные факты. «Бернклау — журналист» — один источник. «Бернклау совершил преступление Х» — другой источник. Без второго утверждение не держится
  4. Для чувствительных утверждений (преступления, финансовые махинации, вредительство) — отдельно запросить комментарий самого упомянутого человека

Уровень пирамиды: третий (триангуляция — три независимых источника именно на связку) и четвёртый (второй глаз, эксперт в области).


Практикум: разбор AI-выхлопа

Ниже — короткий фрагмент, который Grok 4-1 fast выдал в нашем тесте (M.1.1) на задачу «напиши новостную заметку про GigaChat 2 MAX и колонку «стоит ли журналисту бояться ИИ»». Разберите его сами, прежде чем смотреть разбор.

МОСКВА, 15 февраля. Сбер представил GigaChat 2 MAX — новую версию флагманской языковой модели, превосходящую конкурентов на 15–20% в ключевых метриках. В колонке об угрозе ИИ редакторы вспоминают случай, когда ИИ сочинил фейк про взрыв в Пенсильвании, и это привело к временному сбою работы региональной станции.

Разбор.

  • «МОСКВА, 15 февраля» — тип 1 в инфоагентском дейтлайне. Мы не указывали дату в промпте; модель выдумала её. Аналогичный выхлоп DeepSeek дал «МОСКВА, 19 февраля». Правило: любая конкретная дата в дейтлайне от LLM — фабрикация до проверки.
  • «превосходит конкурентов на 15–20% в ключевых метриках» — тип 1, фабрикация источника: нет ни пресс-релиза Сбера с этой формулировкой, ни независимого бенчмарка. Цифры 15–20% — статистически удобная «правдоподобная оценка».
  • «сочинил фейк про взрыв в Пенсильвании» — тип 4, контекстная галлюцинация: ни в базе Damien Charlotin, ни в архиве Reuters, ни в Poynter такого громкого кейса нет. Сконструирован из шаблонных элементов «географическое название + слово фейк + отзыв лицензии».
  • «это привело к временному сбою работы региональной станции» — тип 4 продолжение: ложная каузальность. Если первичное событие (фейк) не существует, то и «привело к» — выдумка.

На четыре предложения — четыре галлюцинации. Иллюстративный пример — но он показывает, как именно «расползается» новостная заметка, когда модель работает без grounding-инструмента. В уроке M.1.1 полный сравнительный тест пяти моделей.


Критерии опасности: какой тип в каком жанре

Один и тот же тип галлюцинации стоит по-разному в разных редакционных жанрах. Вот рабочая матрица.

ЖанрСамый опасный типЦена ошибки
МедицинскийТип 1 (фабрикация исследования) + тип 3 (искажение клинических данных)Вред пациенту, уголовная ответственность редакции
Финансовый / бизнесТип 1 (несуществующий отчёт) + тип 2 (выдуманная цитата CEO)Иск о недостоверной информации, манипуляция рынком
Политический / судебныйТип 4 (контекстная)Иск о клевете, уголовная ответственность (128.1 УК РФ)
Научно-популярныйТип 3 (искажение источника)Репутационная дыра, научное сообщество блокирует дальнейший доступ
SEO / маркетингТип 1 (выдуманная статистика) + тип 3Штраф регулятора (FTC-кейс Workado — пример)
Региональная хроникаТип 4 (контекстная — преступления, которых не было)Иск о клевете, отзыв лицензии для СМИ

Практический вывод: для каждого жанра редактор должен знать, какой тип искать в первую очередь. Медицинский материал — перепроверяй цифры и исследования до последнего десятичного знака. Политический — сверяй связки, а не только факты.


Сегодня: 15 минут на собственный черновик

Возьмите последний AI-черновик, который вы готовили или принимали для материала. Пройдите по четырём типам:

  1. Тип 1. Есть ли упоминания исследований, отчётов, книг без конкретной ссылки? Пометьте каждое как «проверить в Scholar + сайт института».
  2. Тип 2. Есть ли прямые цитаты без даты или без указания, где и когда были произнесены? Пометьте как «найти первоисточник».
  3. Тип 3. Для каждой ссылки в тексте — открыта ли, прочитана целиком, найдена ли точная формулировка утверждения?
  4. Тип 4. Для каждой фразы с «потому что», «в результате», «это привело к» — есть ли независимые источники именно на связку?

Пятнадцать минут этой проверки закроют большинство рисков, которые в публикации превращаются в опровержения. В M.4.4 — конкретные OSINT-инструменты для визуальных утверждений (фото, видео); в M.4.6 — полный пайплайн, где эта проверка встроена в редакционный процесс.


Главное из урока

  • Четыре типа галлюцинаций: фабрикация источника, фабрикация цитаты, искажение источника, контекстная галлюцинация. Каждый опасен по-своему; каждый ловится на конкретном уровне пирамиды верификации из M.4.2.
  • Тип 1 (фабрикация источника) ловится поиском в Scholar + на сайте института + в первичной прессе. «Не найдено» обычно означает «не существует».
  • Тип 2 (фабрикация цитаты) требует поиска точной фразы в кавычках и, для чувствительных цитат, — короткого запроса первоисточнику перед публикацией.
  • Тип 3 (искажение источника) — самый коварный: ссылка реальна, но содержание не то. Ловится только чтением источника до конца, не «быстрым переходом».
  • Тип 4 (контекстная галлюцинация) — самый опасный в правовом смысле. Требует триангуляции именно на связку, а не на отдельные факты. Кейс Бернклау — эталонный пример.
  • В разных жанрах опасен разный тип. Для медицинского — тип 1 и 3, для политического и судебного — тип 4, для финансового — тип 1 и 2.
  • Практикум на Grok-выхлопе (тест Grok 3): четыре галлюцинации на четыре предложения — иллюстрация, как расползается новостная заметка без grounding. Grok 4.1 и 4.20 снизили hallucination rate в 3× по внутренним тестам xAI, но Tow Center показал 94% неверных атрибуций цитат у Grok-3 — дисциплина M.4.2 нужна для любой модели.

В следующем уроке M.4.4 «OSINT для визуала: reverse image, геолокация, InVID-WeVerify» — конкретные инструменты, которые применяют пирамиду верификации к фото и видео. От reverse image на Яндекс.Картинках до SunCalc и плагина InVID. Там же — разбор признаков AI-генерации в изображениях и видео.

Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.