Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль m.6 · Урок 2

Урок 2: Negative prompts и словарь AI-маркеров 2026

25 мин
m.6 / Урок 2 из 4

Чему вы научитесь

  • Отличать классические AI-маркеры 2023–2024 (почти вымерли) от актуальных маркеров 2026 года
  • Встраивать словарь запрещённых слов и структур в промпт, в Custom Instructions и в Skill — три уровня защиты
  • Видеть, как меняется реальный выхлоп до и после negative prompts на живых примерах из нашего voice-test
  • Собирать свой личный словарь маркеров — не AI-штампов, а ваших собственных повторяющихся оборотов
  • Сочетать negative prompts с Figlow-методикой из предыдущего урока так, чтобы голос был и без скатывания в slop, и с вашей интонацией

Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.


Что такое AI-маркер

AI-маркер — это статистически частотное слово, оборот или структура текста, которые опытный читатель распознаёт как «это сгенерировала модель». Не «плохо написано», а именно «написано моделью». Для журналиста или редактора такие маркеры — катастрофа: читатель автоматически теряет доверие к тексту, даже если факты внутри проверены.

Маркеры живут на трёх уровнях:

  1. Лексический — отдельные слова и штампы («delve», «в эпоху цифровизации»)
  2. Структурный — формат подачи (автоматические списки вместо связных абзацев, триады «X, Y, and Z» в каждом предложении)
  3. Ритмический — одинаковая длина фраз, предсказуемое чередование коротких и длинных предложений

В предыдущем уроке вы собрали положительную модель своего голоса — Claude Project с Custom Instructions и Knowledge Base. Negative prompts — обратная сторона той же монеты: то, чего в тексте быть не должно. Без этой «обратной» части даже обученная на ваших текстах модель иногда съезжает в корпоративный AI-голос.


Словарь маркеров-2026 — главный артефакт урока

Начнём с того, что список образца 2023–2024 года устарел. Два года назад профессиональное сообщество массово зафиксировало, что GPT «обожает слово delve» — это было правдой: corpus-исследования Stanford и Cornell, репортажи The Guardian и The Verge фиксировали взрывной рост частотности. Сегодня — уже нет. Наш голосовой тест пяти моделей это подтвердил: ни у Claude Sonnet 4.6, ни у GPT-5.4 классические маркеры не всплыли ни разу. Новые модели научились их не писать по умолчанию, если промпт просит живой голос.

Но маркеры никуда не делись. Они мутировали.

Английская классика — почти вымерла

Список, от которого современные модели уже защищены, но который всё ещё встречается в слабых промптах и в бесплатных версиях моделей:

delve, leverage, unlock, seamless, robust, game-changer, revolutionary, cutting-edge, in the ever-evolving landscape, in today's fast-paced world, navigate the complex landscape.

Эти слова всё ещё стоит держать в запрещённом списке — как страховку. Если модель вдруг начинает их использовать, это сигнал «промпт неряшливый, бюджет кончается, стоит перезапуститься».

Английские маркеры 2026 года

Это то, чего современные модели всё ещё не избегают без прямого запрета:

  • moreover, furthermore, ultimately — служебные связки, которыми модели механически склеивают абзацы
  • it's worth noting, it's important to remember — пустые вводные, которые съедают ритм
  • Триады-перечисления вроде «accurate, reliable, and scalable» в каждом втором предложении
  • Переходы типа «that said», «having said that» там, где достаточно одного предложения

Русские маркеры-2026 — главное

Русские маркеры отличаются от английских, и большинство словарей в интернете их не покрывают. Вот что мы реально зафиксировали в нашем тесте пяти моделей на колонке и новости:

Grok-стиль эмо-сленга — замена корпоратива на кликбейт:

«железный мозг», «бац!», «верный чернорабочий», «хакерят», «пилить газету». Формально это не канцелярит, и на первый взгляд звучит живо. На самом деле это такой же штамп, только мимикрирующий под разговорную речь. Grok выдавал это стабильно в тестах — если не запретить явно, появится в каждой второй колонке.

DeepSeek-стиль англицизмов в русском тексте:

sudden death описаний природы, top-of-mind, seamless experience. Это промежуточный слой между английским промптом и русским ответом — модель недоперевела выражение, которое в её обучающей выборке встречается на английском.

Классические русские маркеры, которые всё ещё живы:

«в эпоху», «в современном мире», «стремительно меняющемся», «несомненно», «позволяет», «представляет собой», «играет важную роль». Эти обороты пока остаются любимыми в GigaChat и YandexGPT — в Claude и GPT почти вымерли.

Русские эмо-канцелярит-гибриды — особая форма 2026 года: «в условиях стремительно меняющегося медиапространства» или «на фоне динамично развивающегося цифрового ландшафта». Формально — канцелярит, но с маркетинговым привкусом. Читателю ясно: писал не человек.

Структурные маркеры — не слова, а форматы

Эти маркеры опаснее лексических, потому что их труднее заметить в своём тексте:

  • Пустое «введение» в 2–3 предложения перед темой — «В наше время вопрос Х становится всё более актуальным» — после которого начинается собственно материал
  • Заключительный абзац про значимость — «Таким образом, Х играет ключевую роль в Y, и в будущем его важность будет только расти»
  • Автолисты без смыслового повода — модель любит превращать связный текст в буллеты даже когда список не нужен
  • Триады однородных прилагательных — «важный, актуальный и интересный» в каждом втором предложении
  • Зеркальная структура абзацев — каждый абзац начинается с общего тезиса и заканчивается обобщением, и это повторяется три-четыре раза подряд

Если в вашем тексте есть хотя бы три из этих структурных маркеров — читатель поймёт, что писал AI, даже если ни одного запрещённого слова там нет.


Три уровня встраивания negative prompts

Словарь — это не просто файл, который вы держите в заметках. У него есть три точки встраивания в рабочий процесс, от самого быстрого к самому надёжному.

Уровень 1 — в прямой промпт

Самый быстрый способ. Копируете список в конец промпта одноразово:

Перепиши текст X в моём стиле.

НЕ ИСПОЛЬЗУЙ: delve, leverage, moreover, furthermore,
«в эпоху», «в современном мире», «стремительно меняющемся»,
«железный мозг», «бац!», «seamless», «robust».
НЕ ДЕЛАЙ СПИСКОВ без явного повода.
НЕ НАЧИНАЙ с вводного абзаца «о значимости темы».

Работает на любой модели — Claude, GPT-5.4, Gemini 3.1 Pro, GigaChat. Минус: придётся копировать в каждый новый чат. Подходит для разовых задач.

Уровень 2 — в Custom Instructions Claude Project

Это способ по умолчанию, если вы прошли предыдущий урок. Negative prompts встраиваются в раздел «ЗАПРЕЩЕНО» Custom Instructions вашего Project — и дальше работают автоматически во всех чатах внутри этого Project. Настроили один раз, забыли.

Интеграция с Figlow-методикой выглядит так: положительная часть Custom Instructions описывает ваш голос («абзацы 3–4 предложения», «открытие — конкретный образ или цифра»), отрицательная — запрещает AI-маркеры. Две стороны одной системы.

Уровень 3 — в Skill для Claude Code

Для продвинутых: создаёте ~/.claude/skills/anti-slop/SKILL.md с полным словарём. Skill применяется в любом чате Claude Code автоматически по триггеру — например, когда в промпте есть слово «напиши», «отредактируй», «перепиши». Skills разбирали в модуле M.2 трека «Кодинг с агентами» — тот же механизм работает для текстовых задач.

Плюс Skill перед Custom Instructions: работает вне Project, на всех задачах. Минус: требует Claude Code, не применяется на веб-интерфейсе.


Разбор «до/после» на живых выхлопах

Это центральная часть урока. Все примеры взяты из нашего voice-test пяти моделей — промпт один и тот же, модели разные. Показываем, как меняется выхлоп с встроенным negative prompt.

Пример 1. Grok без защиты:

«Бац! — пушкинский мотив выныривает из ниоткуда, но не как пыльный барельеф с ограды музея».

Что не так: «Бац!» — эмо-штамп, «пыльный барельеф» — шаблонная метафора из школьного сочинения. Текст звучит живо только за счёт синтаксиса, но образ пустой.

Grok с negative prompt (добавили в промпт запрет на «бац!», «пыльный», на восклицательные междометия):

«Пушкинский мотив всплывает неожиданно — и не как музейный экспонат, а как реплика из разговора, который идёт третий час».

Разница: вместо междометия — конкретное сравнение, вместо штампа «пыльный барельеф» — рабочая метафора через ситуацию разговора.

Пример 2. Grok про ИИ, без защиты:

«Этот железный мозг — как верный чернорабочий: тащит тяжести, а ты рулишь».

Что не так: «железный мозг» и «верный чернорабочий» — два эмо-штампа за одну фразу. Метафора антропоморфизирует ИИ, это слабая позиция в серьёзной журналистике.

С negative prompt:

«ИИ разгружает рутину: транскрипты, саммари, первый драфт новостей — около четырёх часов в день моей прежней работы. Оставляет редакторское решение человеку».

Разница: вместо метафоры — конкретика. Читателю ясно, что именно делает ИИ, сколько времени экономит и где остаётся человек.

Пример 3. Типичная AI-вода в русском:

«В современном мире искусственный интеллект стремительно меняет медиаиндустрию, открывая новые возможности для журналистов и редакций по всему миру».

Что не так: все четыре классических русских маркера в одной фразе — «в современном мире», «стремительно меняет», «открывая новые возможности», «по всему миру». Абсолютно пустое предложение, которое можно вырезать без потери смысла.

С negative prompt:

«По данным OpenAI Enterprise Report 2025, средний пользователь ChatGPT в корпоративной среде экономит около 80 минут в день на текстовых задачах — транскрипции встреч, саммаризации писем, черновой редактуре. Для редакции из пяти репортёров это примерно 6–7 часов высвобождённого времени в неделю».

Разница: конкретный источник с датой, конкретная цифра, конкретные задачи, аккуратный пересчёт на редакцию. Ни одного AI-маркера — и каждое утверждение можно проверить руками, как мы учили в M.4.6.


Как найти свои собственные маркеры

Важный поворот: не все маркеры — AI-шные. Есть личные маркеры, которые выдают именно вас. Они не делают текст похожим на AI, но от повторения теряют силу. Если вы пишете еженедельную колонку, через полгода читатель начинает узнавать ваши любимые обороты не как почерк, а как предсказуемость.

Процесс поиска:

  1. Соберите 10–20 своих текстов за последние полгода в одну папку
  2. Скормите Claude с промптом: «Найди слова, обороты и образы, которые в этих текстах повторяются чаще 3 раз. Разбей на две группы: рабочие (часть стиля) и повторяющиеся без смыслового повода (кандидаты на замену). Приведи примеры контекстов для каждого».
  3. Результат — ваш личный словарь. Часть оставляете как подпись, часть — добавляете в собственный «запрещённый список» в Custom Instructions

Это не AI-маркеры, а маркеры утомления — они появляются, когда писатель работает на автопилоте. Negative prompts помогают и здесь: если вы знаете свои три любимых оборота, запрет на их использование заставляет искать новые формулировки.


Запреты не заменяют обучение

Главное ограничение negative prompts: это защита от мусора, а не гарантия качества. Без положительной модели голоса (Figlow-методика из предыдущего урока) вы получите нейтральный «хороший» текст — без штампов, но и без вашей интонации.

Лучшая связка выглядит так:

  • Figlow-методика (M.6.1) даёт положительную модель голоса — что должно быть в тексте
  • Negative prompts (этот урок) защищают от скатывания в AI-обобщённость — чего быть не должно
  • Вместе они работают как два полюса: положительный задаёт направление, отрицательный не даёт съехать на обочину

Если у вас пока нет времени на полный Figlow-процесс (3–4 часа) — negative prompts одни уже уберут самые грубые AI-маркеры. Настройка — 15 минут. Это минимальная гигиена для любого, кто публикует тексты, сгенерированные ИИ.


Готовый шаблон промпта на русском

Копируется целиком в Custom Instructions Project или в конец разового промпта. Подходит для Claude, GPT-5.4, Gemini 3.1 Pro, GigaChat, YandexGPT.

ВАЖНО ПРИ ГЕНЕРАЦИИ

НЕ ИСПОЛЬЗУЙ СЛОВА:
- delve, leverage, unlock, seamless, robust, game-changer
- moreover, furthermore, ultimately, it's worth noting
- «в эпоху», «в современном мире», «стремительно меняющемся»
- «несомненно», «позволяет», «представляет собой», «играет важную роль»
- «железный мозг», «бац!», «пилить», «хакерят», «чернорабочий»
- Англицизмы в русском: sudden death, top-of-mind, seamless experience

НЕ ИСПОЛЬЗУЙ СТРУКТУРЫ:
- Вводный абзац «о значимости темы» перед собственно материалом
- Заключительный абзац про «важность, перспективы, будущее»
- Автосписки там, где нужен связный абзац
- Триады «X, Y и Z» в каждом втором предложении
- Зеркальные абзацы: тезис в начале, обобщение в конце, и так три раза подряд

ВМЕСТО ЭТОГО:
- Конкретные имена, цифры, даты, названия
- Один рабочий образ вместо трёх сравнений
- Связный текст абзацами по 3–4 предложения
- Открытие — конкретика, не вопрос и не «в наше время»
- Финал — конкретное утверждение от первого лица

Этот шаблон легко расширять — добавлять свои личные маркеры, отраслевую специфику, запреты, связанные с форматом издания.


Русский контекст

Русские маркеры требуют отдельного словаря — и по лексике, и по структуре. Англоязычные гайды по AI-writing этого не покрывают: ни delve, ни moreover не переносятся в русский напрямую. Наши аналоги — свои.

GigaChat и YandexGPT используют набор «любимых» оборотов, который не совпадает с Claude или GPT. В наших тестах GigaChat тяготеет к «позволяет», «играет ключевую роль», «в условиях». YandexGPT — к «необходимо отметить», «важно понимать». Если работаете с российскими моделями — собирайте свой словарь под них отдельно.

Для русских редакций negative prompts особенно ценны. Причина в том, что русскоязычные AI-маркеры хуже замечает большинство редакторов — они воспринимаются как привычный корпоративный или околоофициальный язык. В результате AI-тексты в русских СМИ часто проходят редакторскую вычитку, хотя читатель их узнаёт как сгенерированные. Запрещённый список отсекает это на уровне генерации, до того, как текст попадает к редактору.


Главное из урока

Negative prompts — не замена обучению модели, а её гигиена. За 15 минут настройки вы получаете защиту от классических и новых AI-маркеров на всех трёх уровнях: промпт, Custom Instructions, Skill. Словарь 2026 года отличается от 2023-го: классика почти вымерла, но появились эмо-штампы, англицизмы и структурные маркеры — автолисты и пустые вводные абзацы.

Сочетание с Figlow-методикой из предыдущего урока работает как система: положительная модель задаёт голос, запрещённый список не даёт с него съехать. Проверка простая — пропустите свой текст через тот же Claude с вопросом «Какие обороты в этом тексте статистически частотные для AI-генерации?» Модель честно подсветит свои же маркеры, если вы их пропустили.

В следующем уроке — M.6.3 «AI как редактор, не автор». Там разберём паттерн Бена Томпсона и Криса Лемы: почему сильные авторы используют ИИ на этапе черновика или критики, но никогда — на этапе готового текста. И как перенастроить свой рабочий процесс так, чтобы ИИ стал вторым редактором, а не первым автором.

Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.