Модуль m.1 · Урок 3
Урок 3: AI slop vs авторский голос
Чему научитесь
- Что такое AI slop и почему это не синоним «плохого промпта»
- Узнавать голос модели по трём сигналам: лексика, позиция, риск
- Пройти слепой мини-тест на авторский голос против slop
- Применять три первых правила, чтобы модель перестала писать за вас «средненько»
- Понимать, где slop допустим, а где его читатель поймает сразу
Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.
«Slop — это когда плохо попросил»? Нет
Самое распространённое заблуждение: «У меня текст получился никакой, потому что я коряво сформулировал промпт». Или: «Надо поменять модель — возьму подороже». Бывает и то и другое, но главная причина в другом.
AI slop — это статистически предсказуемая усреднённость. Модель обучена на огромном корпусе «нормального текста» и оптимизирована выдавать средний результат, который не вызовет претензий у среднего читателя. Это её штатный режим. Не баг, не следствие «дешёвой модели» — это то, ради чего она настроена.
Поэтому первый шаг к собственному голосу — понять: по умолчанию модель будет писать плоско, даже если это Claude Sonnet 4.6. Пока вы не дали ей своего материала, своего голоса, своих ограничений, — вы получаете усреднённый интернет.
Теперь перейдём к делу. Как отличить свой текст от сгенерированного за три сигнала.
Сигнал 1: лексические маркеры 2026
Старая классика английского slop — слова delve, leverage, unlock, navigate the complex landscape, in the ever-evolving — почти ушли из новых моделей. Клод и GPT-5.4 уже знают, что за delve их палят с первого абзаца, и стараются их избегать.
Но маркеры никуда не делись — они мутировали.
В английском 2026 остались: moreover, furthermore, ultimately, it's worth noting, game-changer, seamless, robust. Плюс любая конструкция из трёх однородных членов на каждое предложение («accurate, reliable, and scalable»).
В русском маркеры хуже предсказуемы, потому что русский корпус моделей меньше. Но в нашем живом тесте пяти моделей (Claude Sonnet 4.6, GPT-5.4, Gemini 3.1 Pro, Grok 4-1 fast, DeepSeek V3.2) вылезли вполне конкретные вещи:
- Grok в колонке про ИИ: «этот железный мозг — как верный чернорабочий: тащит тяжести, а ты рулишь»; «пилить им газету не даст!»; «хватай инструмент». Это не корпоратив, это эмо-сленг — замена одной крайности на другую.
- Grok в лонгриде про Пушкина: «вдруг — бац! — пушкинский мотив выныривает из ниоткуда»; «современные писатели его хакерят»; «Pugachev разит наповал одной фразой» (имя латиницей в русском тексте — бонусный маркер).
- DeepSeek в лонгриде: «sudden death описаний природы» — английская фраза, встроенная в русский без перевода.
Общий паттерн: модель не знает, что такое «российская колонка», и пытается компенсировать эмо-энергией или прямыми кальками с английского. Результат — мгновенно узнаваемый искусственный голос.
Сигнал 2: отсутствие позиции
Slop описывает, но не утверждает. Модель умеет пересказать все точки зрения, найти баланс, дать корректный нейтральный вывод. А живой автор — занимает позицию, и она чувствуется уже с первого абзаца.
Вот одна и та же задача — колонка «стоит ли журналисту бояться ИИ» — у двух моделей.
Grok:
«Эй, коллеги, вы там ночами не ворочаетесь, думая, как ChatGPT вас с работы выживет? А зря. Этот железный мозг — как верный чернорабочий: тащит тяжести, а ты рулишь».
Здесь много тональной суеты, но нет позиции. Модель громко говорит «не бойтесь», но ничего не утверждает о профессии. Это шум, имитирующий живой голос.
Claude Sonnet 4.6 на тот же промпт:
«Чем активнее редакции внедряют автоматизацию, тем очевиднее становится разница между текстом и журналистикой. Текст — это слова на экране. Журналистика — это когда ты звонишь чиновнику в одиннадцать вечера, он бросает трубку, и ты понимаешь, что попал в точку».
Разница видна невооружённым глазом. У Claude есть тезис («разница между текстом и журналистикой»), конкретный образ (звонок в одиннадцать вечера), и вывод («это и есть профессия»). Это не голос по умолчанию — это хорошо выстроенный промпт плюс модель, у которой голос сильнее от природы.
GPT-5.4 — та же задача:
«Бояться ИИ журналисту стоит ровно в одном случае: если он сам давно пишет как автомат. По шаблону, без риска, без интонации, без живого интереса к людям. Тогда да, машина опасна».
Тот же уровень — жёсткая позиция, конкретное утверждение, ни одного нейтрализующего «с одной стороны, с другой стороны».
Сигнал работает в любую сторону: если вы читаете текст и не можете одной фразой сформулировать, что автор утверждает, — вы читаете slop. Даже если формулировки гладкие.
Сигнал 3: гладкость без риска
Slop не рискует формулировкой. Каждое предложение — безопасное. Ни одно не цепляет, не выделяется, не запоминается. Это похоже на описание любого корпоративного годового отчёта: всё «правильно», но ничего нельзя процитировать.
Живой автор — наоборот. Он регулярно рискует: метафорой, которая может не сработать. Тезисом, за который будут бить. Финалом из трёх слов вместо аккуратного итогового абзаца. Каждый раз, когда автор сознательно выбирает неочевидную формулировку, он делает ставку. Slop ставок не делает.
Посмотрите, как Claude в лонгриде про Пушкина рискует одной метафорой на весь текст:
«Он что-то вроде грунтовки под холстом: его не видно, но без него краска не держится».
Это — ставка. Метафора может показаться слишком литературной или слишком простой. Но на ней держится весь абзац.
А вот как Grok «играет» в ту же сторону:
«Пушкин — как нож в кармане: незаметный, но всегда готовый к делу».
Похоже на метафору, но это штамп. Ставки нет — формула «X как нож: незаметный, но Y» встречается в тысячах текстов. Модель выбрала безопасный вариант, имитирующий риск.
Слепой мини-тест
Попробуйте сами. Три пары фрагментов — по одной задаче. В каждой паре один написан живым автором или моделью, выжатой правильным промптом, второй — усреднённой моделью на дефолте. Где что?
Пара 1 — колонка про ИИ:
А) «Эй, коллеги, вы там ночами не ворочаетесь? Этот железный мозг — как верный чернорабочий: тащит тяжести, а ты рулишь».
Б) «Бояться ИИ журналисту стоит ровно в одном случае: если он сам давно пишет как автомат».
Пара 2 — лонгрид про Пушкина:
А) «Он что-то вроде грунтовки под холстом: его не видно, но без него краска не держится».
Б) «Его тень ложится на страницы чуть ли не каждого значимого русского романа XXI века».
Пара 3 — финал колонки:
А) «Итак, ИИ — это инструмент, который может помочь журналистам повысить эффективность и качество работы, если использовать его с умом».
Б) «Это и есть профессия».
Почему slop вылезает именно так
Короткая техническая справка для понимания механики.
Большая языковая модель учится в два такта: сначала на огромном корпусе интернета, потом её дообучают на размеченных людьми парах «промпт — хороший ответ». Этот второй этап называют instruction tuning и RLHF (reinforcement learning from human feedback). На нём модель учится писать «помогающе» — услужливым, безопасным, нейтральным тоном.
Это и есть источник slop. Модель оптимизирована не на «интересно», а на «понравится среднему разметчику». Разметчики — не писатели, и их инструкции обычно: «помоги, объясни, дай варианты, не спорь». В результате в голосе модели закреплена усреднённость как базовое состояние.
Получить другой тон можно. Но только если дать модели конкретные инпуты, примеры, запреты — то есть увести её с усреднённой траектории. Об этом ниже.
Три правила защиты от slop
Полное решение — обучение модели на своих текстах, Figlow-методика, negative prompts, RAG-база — в модуле M.6 «Собственный голос». Здесь три первых правила, которые работают сразу.
Правило 1. Давайте свой инпут, не просите писать с нуля.
Сравните:
Плохо: «Напиши пост про ИИ в журналистике». Модель не знает, ни вашей аудитории, ни вашей позиции, ни того, что вы уже писали. Она выдаст усреднённую лекцию.
Хорошо: «Вот мой вчерашний черновик (400 слов). Вот три твита, которые я опубликовал в прошлом месяце — это мой голос. Перепиши черновик короче и острее, сохрани тезис и мой стиль». Теперь у модели есть базовая точка опоры и голос.
Правило 2. Используйте модель как редактора, не как автора.
Этот паттерн описан у Бена Томпсона (Stratechery) и десятка других авторов newsletter’ов: модель получает ваш кривой сырой драфт и роль редактора. Не «перепиши», а «найди повторы, неясные переходы, слабые формулировки». Комментарии в скобках, не полная правка.
Промпт для этого паттерна:
Ты мой редактор. НЕ переписывай мой голос. Найди в этом тексте:
(1) повторы, (2) слабые переходы, (3) неясные формулировки.
Предложи правки как комментарии в квадратных скобках.
Не меняй стиль. Верни мой текст с комментариями, без правки.
Этот паттерн не заменит вас как автора. Но он даёт 30–40% экономии времени на чистой редактуре.
Правило 3. Держите список запрещённых слов прямо в промпте.
Negative prompts — самое простое и быстрое решение. Вставляете в system prompt или custom instructions блок:
Не используй слова: delve, leverage, unlock, moreover, furthermore,
«в современном мире», «железный мозг», «бац!», «хакерят».
Не делай списков там, где нужен связный абзац.
Не используй англицизмы в русском тексте.
Не финализируй текст риторическим вопросом.
Модель не всегда слушается с первого раза, но частота попадания slop-маркеров резко падает. Как начало — работает.
Когда slop достаточно
Честный контр-нарратив. Не всё в работе автора требует голоса. Есть задачи, где «средненько» — это именно то, что нужно.
- Суммаризация большого архива — тридцать статей в один structured-отчёт. Никто не будет читать этот отчёт как литературу.
- SEO-описания товаров — там стандартизованность работает в плюс.
- Автогенерация из структурированных данных — новостные заметки по биржевым сводкам, матчи, погода. Агентство AP десятилетиями автоматизирует такое.
- Первый черновик объяснения — когда надо быстро разобраться в теме, а шлифовать не планируете.
Разница в том, кто ваш читатель и что он ищет. Если человек пришёл за информацией — slop допустим. Если человек пришёл за вашим голосом — slop моментально считывается как предательство и выключает доверие.
Следующий урок M.1.4 «Когда AI отнимает время» — про ситуации, где даже усреднённость вредит, и нужно выключать инструмент.
Главное из урока
- AI slop — не плохой промпт и не слабая модель, а штатная усреднённость, под которую модель оптимизирована
- Три сигнала slop: лексические маркеры (в 2026 — эмо-сленг и англицизмы, не старое
delve), отсутствие позиции, гладкость без риска - Claude Sonnet 4.6 и GPT-5.4 умеют писать голосом — если промпт этого требует. Grok и дефолтный ChatGPT по умолчанию скатываются в slop
- Первая защита — давать свой инпут, использовать модель редактором, держать negative prompts в промпте
- Полное решение (Figlow-методика, RAG, Claude Skills для голоса) — в модуле M.6
В уроке M.1.4 разберём обратный случай: когда модель отнимает больше времени, чем экономит, и автора становится соблазняет скрыться за гладкой генерацией. Плюс антикейсы Casey Newton и Sports Illustrated.
Глубокая инженерия голоса — модуль M.6 «Собственный голос». Там же — паттерн «AI как редактор», обучение на 3–5 примерах и репурпоз одного лонгрида в 30 постов для соцсетей (мостик к M.7).