Модуль m.3 · Урок 1
Урок 1: Быстрый ресёрч за 10 минут — методология и инструменты
Чему научитесь
- Формулировать запрос к ресёрч-инструменту по пяти обязательным блокам — и получать конкретику вместо воды
- Отличать полезный ответ AI-поисковика от гладкого мусора за 30 секунд
- Проверять каждую ссылку по пятипунктовому чеклисту — без него ресёрч превращается в копирование галлюцинаций
- Собирать 20 источников за 10 минут и доводить до рабочей заметки ещё за 15
- Понимать, где быстрый ресёрч работает, а где нужны другие инструменты
Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.
В модуле М.2 мы разобрали кабинеты четырёх вендоров — Claude, ChatGPT, NotebookLM, Perplexity. Модуль М.3 — не про инструменты. Здесь про методологию ресёрча: как журналист этими инструментами пользуется, чтобы на выходе был материал, а не пересказ пересказа.
Сразу главное: AI-поисковик экономит время на сборе источников. Он не экономит время на проверке. Это не один и тот же процесс. До AI на сбор и чтение материалов уходило часа 4, с AI уходит 10 минут на ответ плюс 15 минут на проверку — итого 25. Экономия в 10 раз, не в 100. Кто пытается выжать 100x, начинает публиковать фабрикации. Чек-лист проверки — это не дополнительная работа, это и есть работа журналиста.
Формула хорошего запроса
Главная причина бесполезного результата — плохо сформулированный запрос. «Что происходит с ИИ в журналистике?» даёт обзор в общих словах: модель не знает, что именно вам нужно, и выдаёт среднее по больнице.
Хороший запрос собирается из пяти блоков:
| Блок | Что указываете | Зачем |
|---|---|---|
| Предмет | Конкретный объект без абстракций | Чтобы не получить обзор трендов вместо фактов |
| Период | Временные рамки | Иначе модель тянет статьи пятилетней давности под запрос «последние новости» |
| Угол | Для какой цели собираете — новость, бэкграундер, сравнение, мнения | Чтобы модель отдала приоритет правильному типу источников |
| Источники | Тип (первоисточники, академия, медиа), страна, язык | Фильтрует корпус на входе, отсекает вторичное |
| Формат | Список, таблица, тезисы с цитатами | Определяет структуру ответа, упрощает проверку |
Плохой запрос: «Что происходит с ИИ в журналистике?»
Хороший запрос:
За последние 6 месяцев какие крупные редакции в США и ЕС официально
объявили внутренние AI-политики? Верни таблицей со столбцами: издание,
дата объявления, ссылка на первоисточник (официальный блог издания
или memo), 3 ключевых положения. Только первоисточники — не пересказы
в других медиа. Язык материалов — английский.
Пять блоков на месте: предмет (AI-политики редакций), период (6 месяцев), угол (бэкграундер по политикам), источники (первоисточники, США/ЕС, английский), формат (таблица с тремя положениями).
Чеклист проверки ответа
Модель вернула 20 ссылок. Что с ними делать. Не «выборочно проверить» и не «открыть три первых» — каждую в финальном материале прогнать по пяти пунктам:
- Ссылка открывается? Первое, что проверяется, — URL не 404. AI-поисковики нередко генерируют правдоподобные, но несуществующие адреса.
- На странице действительно есть это утверждение? Не пересказ, не похожая мысль, а именно та фраза или факт, который модель вам отдала. Ctrl+F по ключевому слову.
- Автор, дата, контекст совпадают? Модель может приписать правильное утверждение не тому автору или поставить не ту дату. Проверяется по шапке материала.
- Это первоисточник или пересказ? Если ссылка ведёт на новость, которая пересказывает отчёт — идите на сам отчёт. Вторичная атрибуция — источник большинства журналистских ошибок.
- Есть ли противоречащий источник? Для важных утверждений ищется контр-пример: «кто-то с этим спорит?» Если нет — это либо факт, либо пузырь консенсуса, в котором никто не подумал перепроверить.
На 20 ссылок у двух человек уходит 30–45 минут работы. Это не «дополнительная» фаза — это фаза, без которой публиковаться нельзя.
Инструменты — короткая навигация
Подробные разборы в других уроках. Здесь — один абзац на инструмент, чтобы ориентироваться, что когда запускать.
- Perplexity (урок М.2.4) — флагман для быстрого ресёрча. Цитаты с номерами, Claude-режим и GPT-режим под капотом, Spaces для команды.
- ChatGPT Search — встроено в Plus и выше. Быстрый живой веб, без отдельной подписки. Хорош как второе мнение для кросс-проверки результатов Perplexity.
- Grok — доступ к X/Twitter в реальном времени, полезно для «что сейчас обсуждают». Но 94% фабрикации цитат (см. М.1.2): используем как радар трендов, не как источник цитат.
- Google и ChatGPT Deep Research — когда 10 минут мало и нужен длинный структурированный отчёт. 15–30 минут на запрос. Подробнее — в уроке М.3.2.
- NotebookLM (урок М.2.3) — для ресёрча по своим источникам (десятки PDF, аудио, видео). Не для живого веба.
Выбор прост. Живой веб + 10 минут — Perplexity. Живой веб + 30 минут — Deep Research. Свой корпус из 30 PDF — NotebookLM. Мониторинг X — Grok, но с отключённым доверием к цитатам.
Практикум: «10 минут = 20 источников»
Сценарий — редактор с утра попросил бэкграундер по AI-политикам крупных редакций. К концу часа нужно отдать рабочую заметку.
Шаг 1. Сформулировать запрос по пяти блокам. Берёте шаблон из секции выше, подставляете свою тему. Не пропускайте ни один блок — особенно период и формат.
Шаг 2. Запустить Perplexity Pro. Вставляете промпт, ждёте 30–60 секунд. Параллельно открываете ChatGPT Search и отправляете тот же запрос туда — получаете второе мнение на ту же тему. Пересечения двух результатов — наиболее надёжная часть.
Шаг 3. Быстрый просмотр — отметить 5 самых релевантных источников. В ответе будет 15–25 ссылок. Из них ~5 — действительно ключевые (первоисточники, центральные для темы), остальные — фон. Отмечаете первую пятёрку в отдельном файле.
Шаг 4. Чеклист по каждой из пятёрки. Открываете URL, находите утверждение Ctrl+F, проверяете автора, дату, контекст, идёте на первоисточник если это пересказ, ищете контр-пример. 5 минут на ссылку.
Шаг 5. Синтез в рабочую заметку. В отдельном файле: тема, ключевые находки с прямыми цитатами, ссылки, противоречия между источниками, открытые вопросы. Именно эта заметка идёт редактору или ложится в основу статьи — не «ответ Perplexity», а ваш синтез проверенного материала.
Итог: 10 минут на сбор, 15 минут на проверку первой пятёрки, 5 минут на заметку. 30 минут — есть бэкграундер с проверенными источниками. Без AI та же задача занимала порядка 3–4 часов (порядок оценки, не бенчмарк).
Типичные ошибки и как не попадать
- Галлюцинация ссылки. URL выглядит правдоподобно, открывается, но страница не существует или статья на ней о другом. Лечится пунктом 1 чеклиста.
- Фабрикация цитаты. Цитата приписана реальному автору, который её не произносил. Лечится пунктом 2: Ctrl+F по ключевым словам на странице.
- Выдуманный первоисточник. «Согласно исследованию Гарварда 2023…» — а исследование не существует. Лечится пунктом 4: ищете первоисточник, не находите — не публикуете.
- Пересказ пересказа. Ссылка ведёт на новость, которая пересказывает отчёт, который пересказывает тот самый первоисточник. Каждый пересказ искажает на 5–10%. Лечится поиском финального источника в цепочке.
- Смещение по дате. Запросили «последние 6 месяцев», модель вернула статью 2022 года. Лечится пунктом 3: всегда смотрите дату публикации, не доверяйте меткам «recent».
Когда быстрый ресёрч работает, когда нет
Работает:
- Бэкграунд по теме — собрать 20 источников, понять ландшафт за полчаса
- Обзор мнений — кто что говорит про тренд, событие, решение
- Поиск событий по фактам — когда что произошло, где освещали
- Сбор списка источников для долгого чтения — обзор → приоритизация → глубокое чтение нужного
Не работает:
- Эксклюзивные данные — AI ищет в открытом вебе, закрытые реестры и источники недоступны
- Внутренние документы компаний — только от инсайдеров, AI не поможет
- Интервью с людьми — живые разговоры AI не заменяет
- Юридические тонкости — нужны юристы, не AI-поисковик
- Финансовая аналитика — первичные данные из СПАРК, «Контур.Фокус», Bloomberg, но не свободный веб
Мини-квиз: какой запрос даст лучший результат
Пара 1.
- А: «Расскажи про AI-регуляцию в Европе»
- Б: «Приведи пять ключевых положений EU AI Act, которые вступят в силу в 2026 году. С цитатами из официального текста регламента и ссылкой на статью»
Ответ: Б. В А нет предмета, периода, угла и формата. В Б всё пять блоков собрано. Модель отдаст структурированный ответ, который сразу можно проверять.
Пара 2.
- А: «Какие СМИ используют AI для заголовков?»
- Б: «Назови 3 крупных англоязычных медиа, которые за 2025 год публично заявили об использовании AI-ассистентов при подготовке заголовков. Для каждого — ссылка на внутреннее объявление и цитата из заявления главреда»
Ответ: Б. Конкретика всего — включая «публичное заявление», которое сужает корпус с «слухов в Twitter» до проверяемых источников.
Пара 3.
- А: «Перечисли случаи, когда AI попал в новости из-за ошибок»
- Б: «Перечисли 5 документированных случаев за 2024–2025 годы, когда AI-ассистент издания сгенерировал ложный факт, попавший в публикацию. Для каждого: издание, дата, суть ошибки, последствия. Источник — отчёты о ретракциях или независимые расследования»
Ответ: Б. «Попал в новости» — слишком широко. Б конкретизирует до документированных случаев с понятной структурой ответа.
Русская специфика
Для русскоязычного ресёрча главное ограничение — доступность инструментов. Perplexity требует VPN (разбирали в М.2.4), ChatGPT Search — тоже. Полностью без VPN остаётся три варианта:
- Яндекс.Нейро — живой веб на русском, бесплатно, работает с российских IP. Качество заметно ниже Perplexity на сложных запросах, но для массовых тем годится.
- GigaChat и YandexGPT — у обоих есть встроенный веб-поиск, нативный русский, без VPN. Хороши для запросов про РФ-контекст.
- DuckDuckGo AI — работает без VPN, анонимно, без истории. Подходит для чувствительных тем, где не хочется оставлять след.
Российские базы (Rusprofile, СПАРК, «Контур.Фокус», «Арбитр») — отдельный инструмент, не заменяется AI-поисковиком. Подробнее — в уроке М.3.5.
Главное из урока
- AI экономит время на сборе, не на проверке. 10 минут на ответ + 15 минут на проверку = 25 минут вместо 4 часов. Экономия в 10x, не в 100x.
- Формула запроса — пять блоков: предмет, период, угол, источники, формат. Без любого блока ответ будет водой.
- Чеклист проверки — пять пунктов: ссылка открывается, утверждение на странице есть, автор/дата/контекст совпадают, это первоисточник, контр-пример найден или заявлен как отсутствующий.
- Инструменты выбираются по задаче: быстрый живой веб — Perplexity, глубокое исследование — Deep Research, свой корпус — NotebookLM, мониторинг X — Grok (без цитат).
- Типичные ошибки: галлюцинация ссылки, фабрикация цитаты, выдуманный первоисточник, пересказ пересказа, смещение по дате.
- Русский контекст без VPN: Яндекс.Нейро, GigaChat, YandexGPT, DuckDuckGo AI. Российские базы — не через AI.
Следующий урок М.3.2 — про Deep Research. Когда 10 минут недостаточно и нужен структурированный отчёт на 15–30 минут работы модели, с десятками источников и полной компиляцией. Это следующий уровень глубины на том же материале, но с другим рабочим ритмом.