Модуль m.4 · Урок 5
Урок 5: AI-детекторы текста: почему не работают и как не попасть в иск
Содержание
- Чему вы научитесь
- Зачем вообще детекторы
- FTC против Workado: первый регуляторный прецедент
- GPTZero: самый популярный — и цифры, которые важно знать
- Четыре причины, почему детекторы проваливают
- Когда детектор всё-таки полезен: правило четырёх сигналов
- Три практических сценария
- Сценарий 1: скрининг 100 писем в редакцию
- Сценарий 2: фрилансер прислал материал «это моё оригинальное»
- Сценарий 3: студент, соискатель, частное лицо
- SynthID: единственный детектор, которому можно верить
- Что делать, если обвинили вас
- Правила для редакции
- Главное из урока
Чему вы научитесь
- Читать цифры точности AI-детекторов критически: где бенчмарк честный, где маркетинговый
- Объяснять, почему GPTZero ошибается в 61% на эссе не-носителей английского, и что это значит для редакции
- Различать статистические детекторы (GPTZero, Originality, Copyleaks) и криптографические водяные знаки (SynthID)
- Применять правило четырёх сигналов и знать, когда детектор всё-таки приносит пользу
- Защищаться, если обвинили лично вас — не вторым детектором, а процессом и артефактами
Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.
Зачем вообще детекторы
Рынок AI-детекторов текста в 2026 — это миллиарды долларов. Редакции просят их у фрилансеров, учебные заведения — у студентов, рекрутеры — у соискателей. Спрос понятен: после того как десятки тысяч «humanized» AI-черновиков начали оседать в новостях, заявках и дипломах, заказчику хочется кнопку «нейросеть да/нет».
Проблема в том, что кнопка есть, а кнопка не работает. Точнее — работает не так, как обещает маркетинг. Этот урок объясняет, почему, и даёт редакционные правила, при которых детектор перестаёт быть источником юридических рисков.
FTC против Workado: первый регуляторный прецедент
28 апреля 2025 Федеральная торговая комиссия США (FTC) вынесла proposed order против компании Workado, LLC. 28 августа 2025 — финальный consent order. Смысл: Workado продавал AI Content Detector с заявленной точностью 98%. Независимое тестирование показало — 53% на общем контенте. Цифра 98% действительно наблюдалась, но только на узкой выборке академических текстов, на которых детектор был обучен.
FTC запретила Workado рекламировать точность, которую компания не может подтвердить независимыми тестами. Это первый официальный прецедент: регулятор приравнял завышенную точность AI-детектора к недобросовестной рекламе. Для редактора, который ссылается на «детектор показал 98%», это важный сигнал — такая цифра юридически больше не считается подтверждением.
GPTZero: самый популярный — и цифры, которые важно знать
GPTZero — самый массовый AI-детектор, используется в школах, вузах, редакциях. Данные по false positives собраны из трёх независимых источников:
| Бенчмарк | False positives | Условия |
|---|---|---|
| Chicago Booth, 2026 | 0,24% | Большая выборка, тексты носителей английского, длина > 500 слов |
| Ryne.ai / O’Sullivan peer-reviewed | 10% | Независимое тестирование на общем контенте |
| Stanford, 2023 | 61,3% | TOEFL-эссе студентов-иностранцев (non-native English) |
Три цифры — не ошибка, не разные версии детектора и не статистический шум. Это один и тот же детектор, который ведёт себя по-разному в зависимости от того, кто и что пишет. На эссе студента из Китая, Индии или России, пишущего по-английски, GPTZero систематически видит AI-генерацию там, где её нет.
Это не программная ошибка, а следствие того, как обучен детектор: на текстах, которые люди пишут «правильно», по шаблонам. Носитель английского пишет вариативно, с идиомами и неряшливыми конструкциями. L2-писатель старается писать грамотно и однообразно — то есть ровно так, как пишет языковая модель. Детектор путает грамотность с AI.
Для редакции это означает: пропускать тексты не-носителей через детектор без поправки — значит систематически обвинять именно тех, у кого английский второй язык. Это этическая и юридическая ловушка.
Четыре причины, почему детекторы проваливают
Даже без L2-эффекта детекторы текста ломаются ещё по четырём причинам:
- Гонка вооружений. С каждой новой моделью (GPT-5, Claude 4, Gemini 3) выходят сервисы «humanize AI text» — Quillbot, StealthGPT, Humbot. Они специально натренированы обходить детекторы. Детекторы догоняют с лагом в недели и не всегда успевают
- L2-bias. См. выше: 61,3% false positives на non-native English означает, что для текстов международных авторов детектор неприменим в принципе
- Короткие тексты. Статистические сигналы («перплексия», «burstiness») считаются на длине. Ниже 300 слов — точность падает в разы. Комментарий в соцсети, короткий пресс-релиз, твит — детектор на них врёт примерно поровну в обе стороны
- Парафраз. Прогон через любой перефразировщик (Quillbot, QuillGPT, ручная редактура в два прохода) обнуляет большинство статистических сигналов. AI-черновик → перефразировщик → чистый результат для детектора
Маркетинг детекторов этого не говорит, но техническая литература говорит прямо: детектор отлично работает на том, что никто не прячет, и плохо работает на том, что прячут.
Когда детектор всё-таки полезен: правило четырёх сигналов
Вывод «не использовать детекторы вообще» был бы слишком радикальным. Они полезны — но только как один из четырёх сигналов, никогда как единственный. Решение принимается, когда минимум три сигнала из четырёх указывают в одну сторону:
- Сигнал 1 — результат детектора. GPTZero, Originality, Copyleaks, Turnitin. Записываем процент, но не показываем как аргумент
- Сигнал 2 — стиль и лексика. AI slop-маркеры, разобранные в M.1.3: «в эпоху», «важно отметить», «давайте углубимся», идеальные транзишны, нулевая конкретика. Читается глазом за пять минут
- Сигнал 3 — проверяемость фактов. Типология галлюцинаций из M.4.3: вымышленные источники, несуществующие URL, фабрикованные цитаты. Если в тексте три ссылки, и две из них 404 — это сильнее любого детектора
- Сигнал 4 — метаданные и цепочка. Кто прислал, откуда материал, есть ли черновики, когда создан файл, история правок. Правдивый процесс имеет следы; AI-черновик чаще всего — нет
Только когда три-четыре сигнала совпадают — есть основание для редакционного решения. И даже тогда: не публиковать обвинение, а запросить у автора подтверждение процесса — черновики, заметки, интервью-записи.
Три практических сценария
Сценарий 1: скрининг 100 писем в редакцию
Редактор отдела писем получает в день 50–200 текстов от читателей. Пропускать вручную — невозможно. Здесь детектор полезен как первый фильтр: все письма с высоким AI-score идут в отдельную папку «посмотреть внимательнее». Ни одно письмо не отклоняется только по детектору — его результат используется как приоритизация внимания редактора, не как решение.
Сценарий 2: фрилансер прислал материал «это моё оригинальное»
Стандартная ситуация: внешний автор прислал текст, пометил как свою работу, вы видите slop-маркеры. Процедура:
- Пропускаем через детектор (сигнал 1)
- Читаем глазом на slop (сигнал 2)
- Проверяем три любые фактические ссылки на существование (сигнал 3)
- Просим автора прислать черновики/заметки (сигнал 4)
Если три из четырёх указывают на AI — разговор с автором. Формулировка не «ваш текст сгенерирован ИИ», а «по нашим критериям текст не проходит — пришлите процесс работы, или перерабатываем вместе». Это корректный редакционный разговор, а не обвинение.
Сценарий 3: студент, соискатель, частное лицо
Самая опасная зона. Публичное обвинение студента в ChatGPT-списывании или соискателя в AI-резюме — прямая дорога в суд и в репутационный скандал. Правило: для чувствительных случаев детектор не используется как решение вообще. Вместо — устный разговор о методах работы: «расскажите, как вы писали этот текст, какими источниками пользовались, какие были трудности». Человек, писавший сам, ответит легко. AI-генератор — забуксует на третьем вопросе.
SynthID: единственный детектор, которому можно верить
Отдельно стоит упомянуть SynthID — технологию Google DeepMind. В отличие от статистических детекторов, SynthID — это криптографический водяной знак, встраиваемый в момент генерации моделью. Технически это не «детектор AI-текста вообще», а «детектор конкретного AI-текста, который сгенерировала модель Google».
Что важно знать на апрель 2026:
- Покрытие: Imagen, Veo, Lyria 3, Gemini (включая Nano Banana / Nano Banana Pro) — все генеративные выходы Google помечаются SynthID. По arxiv-препринту «SynthID-Image» (октябрь 2025) — 10+ млрд промаркированных изображений и кадров
- Детектор публичный: deepmind.google/technologies/synthid
- Знак переживает кроппинг, фильтры, сжатие, ротацию, скриншоты — намного устойчивее статистики
- В отличие от GPTZero, это не вероятностный guess, а факт: подпись либо есть, либо нет
Ограничения, без которых не обойтись:
- SynthID только для Google-контента. Если текст сгенерирован Claude, ChatGPT, Grok, YandexGPT, GigaChat — SynthID не поможет
- Отсутствие знака не доказывает, что текст написан человеком. Может быть Claude, может быть пересохранённый старый Gemini, может быть ручная редактура
- Стандарт пока не принят другими вендорами
То есть SynthID — это сигнал «в плюс»: знак есть — точно сгенерировано Google. Но «знака нет — значит, не AI» — неверный вывод.
Что делать, если обвинили вас
Если детектор сработал на вашем тексте, и заказчик/редактор/преподаватель требует объяснений — не оправдывайтесь через другой детектор. Логически это тот же аргумент, юридически не защищает. Правильная защита — показать процесс, который AI-генерация оставить не может:
- Черновики в разных состояниях: первый набросок, правки, финал. Хранятся в Google Docs или Notion — история версий за вас всё говорит
- Запись экрана в процессе письма: OBS, Loom, любой tool скринкастинга. 30 секунд записи показывают «живую» работу
- Метаданные документа: дата создания, дата последней правки, количество ревизий. В Word/Docs это видно
- Для кода — история Git: коммиты с осмысленными сообщениями, рост по частям
- Свидетельские артефакты: заметки из интервью, расшифровки записей, ссылки на источники, которыми вы реально пользовались
Практическое следствие: работайте в инструментах, где процесс остаётся в истории. Google Docs, Notion, Obsidian с Git-sync — любой такой tool даёт вам доказательную базу на случай обвинения.
Правила для редакции
Короткий свод, который можно положить в редакционный документ уже сегодня. В M.9 этот блок расширится в полноценную AI-политику, но базовые четыре правила применимы сразу:
- Никогда не публикуем обвинение в AI-генерации на одном сигнале. Минимум три из четырёх — и даже тогда это разговор, не публикация
- Детектор — это скрининг, не вердикт. В любом редакционном решении результат детектора фиксируется, но не формулируется как «детектор показал X»
- Для текстов не-носителей английского детектор не применяется без поправки. Альтернатива — ручная проверка фактов и стиля
- Для чувствительных случаев (авторское право, репутация, юридический процесс) — юрист, а не детектор. Любое публичное обвинение проходит через юридическую проверку до публикации
Главное из урока
Детекторы AI-текста в 2026 — это индустрия с завышенными обещаниями. FTC уже оштрафовала Workado за рекламу «98% точности» при реальных 53%. GPTZero даёт 61,3% false positives на текстах не-носителей английского. Любой детектор проваливается на коротких текстах и обходится парафразом.
Это не значит «детекторы бесполезны». Это значит: детектор — один из четырёх сигналов, никогда единственный. Публичное обвинение на одном сигнале — потенциальный иск о клевете. SynthID — единственный детектор, которому можно доверять как факту, но он работает только на Google-контенте и только если знак ещё не срезан.
В следующем, последнем уроке модуля — практический пайплайн фактчека: как взять готовый AI-черновик и за 20 минут довести его до публикуемого стандарта, с использованием всех инструментов из M.4.1–M.4.5 плюс российской специфики (ГАС «Правосудие», реестр иноагентов, двойной контур Проверено/StopFake).