Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль m.3 · Урок 1

Урок 1: Быстрый ресёрч за 10 минут — методология и инструменты

25 мин
m.3 / Урок 1 из 5

Чему научитесь

  • Формулировать запрос к ресёрч-инструменту по пяти обязательным блокам — и получать конкретику вместо воды
  • Отличать полезный ответ AI-поисковика от гладкого мусора за 30 секунд
  • Проверять каждую ссылку по пятипунктовому чеклисту — без него ресёрч превращается в копирование галлюцинаций
  • Собирать 20 источников за 10 минут и доводить до рабочей заметки ещё за 15
  • Понимать, где быстрый ресёрч работает, а где нужны другие инструменты

Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.


В модуле М.2 мы разобрали кабинеты четырёх вендоров — Claude, ChatGPT, NotebookLM, Perplexity. Модуль М.3 — не про инструменты. Здесь про методологию ресёрча: как журналист этими инструментами пользуется, чтобы на выходе был материал, а не пересказ пересказа.

Сразу главное: AI-поисковик экономит время на сборе источников. Он не экономит время на проверке. Это не один и тот же процесс. До AI на сбор и чтение материалов уходило часа 4, с AI уходит 10 минут на ответ плюс 15 минут на проверку — итого 25. Экономия в 10 раз, не в 100. Кто пытается выжать 100x, начинает публиковать фабрикации. Чек-лист проверки — это не дополнительная работа, это и есть работа журналиста.


Формула хорошего запроса

Главная причина бесполезного результата — плохо сформулированный запрос. «Что происходит с ИИ в журналистике?» даёт обзор в общих словах: модель не знает, что именно вам нужно, и выдаёт среднее по больнице.

Хороший запрос собирается из пяти блоков:

БлокЧто указываетеЗачем
ПредметКонкретный объект без абстракцийЧтобы не получить обзор трендов вместо фактов
ПериодВременные рамкиИначе модель тянет статьи пятилетней давности под запрос «последние новости»
УголДля какой цели собираете — новость, бэкграундер, сравнение, мненияЧтобы модель отдала приоритет правильному типу источников
ИсточникиТип (первоисточники, академия, медиа), страна, языкФильтрует корпус на входе, отсекает вторичное
ФорматСписок, таблица, тезисы с цитатамиОпределяет структуру ответа, упрощает проверку

Плохой запрос: «Что происходит с ИИ в журналистике?»

Хороший запрос:

За последние 6 месяцев какие крупные редакции в США и ЕС официально
объявили внутренние AI-политики? Верни таблицей со столбцами: издание,
дата объявления, ссылка на первоисточник (официальный блог издания
или memo), 3 ключевых положения. Только первоисточники — не пересказы
в других медиа. Язык материалов — английский.

Пять блоков на месте: предмет (AI-политики редакций), период (6 месяцев), угол (бэкграундер по политикам), источники (первоисточники, США/ЕС, английский), формат (таблица с тремя положениями).


Чеклист проверки ответа

Модель вернула 20 ссылок. Что с ними делать. Не «выборочно проверить» и не «открыть три первых» — каждую в финальном материале прогнать по пяти пунктам:

  1. Ссылка открывается? Первое, что проверяется, — URL не 404. AI-поисковики нередко генерируют правдоподобные, но несуществующие адреса.
  2. На странице действительно есть это утверждение? Не пересказ, не похожая мысль, а именно та фраза или факт, который модель вам отдала. Ctrl+F по ключевому слову.
  3. Автор, дата, контекст совпадают? Модель может приписать правильное утверждение не тому автору или поставить не ту дату. Проверяется по шапке материала.
  4. Это первоисточник или пересказ? Если ссылка ведёт на новость, которая пересказывает отчёт — идите на сам отчёт. Вторичная атрибуция — источник большинства журналистских ошибок.
  5. Есть ли противоречащий источник? Для важных утверждений ищется контр-пример: «кто-то с этим спорит?» Если нет — это либо факт, либо пузырь консенсуса, в котором никто не подумал перепроверить.

На 20 ссылок у двух человек уходит 30–45 минут работы. Это не «дополнительная» фаза — это фаза, без которой публиковаться нельзя.


Инструменты — короткая навигация

Подробные разборы в других уроках. Здесь — один абзац на инструмент, чтобы ориентироваться, что когда запускать.

  • Perplexity (урок М.2.4) — флагман для быстрого ресёрча. Цитаты с номерами, Claude-режим и GPT-режим под капотом, Spaces для команды.
  • ChatGPT Search — встроено в Plus и выше. Быстрый живой веб, без отдельной подписки. Хорош как второе мнение для кросс-проверки результатов Perplexity.
  • Grok — доступ к X/Twitter в реальном времени, полезно для «что сейчас обсуждают». Но 94% фабрикации цитат (см. М.1.2): используем как радар трендов, не как источник цитат.
  • Google и ChatGPT Deep Research — когда 10 минут мало и нужен длинный структурированный отчёт. 15–30 минут на запрос. Подробнее — в уроке М.3.2.
  • NotebookLM (урок М.2.3) — для ресёрча по своим источникам (десятки PDF, аудио, видео). Не для живого веба.

Выбор прост. Живой веб + 10 минут — Perplexity. Живой веб + 30 минут — Deep Research. Свой корпус из 30 PDF — NotebookLM. Мониторинг X — Grok, но с отключённым доверием к цитатам.


Практикум: «10 минут = 20 источников»

Сценарий — редактор с утра попросил бэкграундер по AI-политикам крупных редакций. К концу часа нужно отдать рабочую заметку.

Шаг 1. Сформулировать запрос по пяти блокам. Берёте шаблон из секции выше, подставляете свою тему. Не пропускайте ни один блок — особенно период и формат.

Шаг 2. Запустить Perplexity Pro. Вставляете промпт, ждёте 30–60 секунд. Параллельно открываете ChatGPT Search и отправляете тот же запрос туда — получаете второе мнение на ту же тему. Пересечения двух результатов — наиболее надёжная часть.

Шаг 3. Быстрый просмотр — отметить 5 самых релевантных источников. В ответе будет 15–25 ссылок. Из них ~5 — действительно ключевые (первоисточники, центральные для темы), остальные — фон. Отмечаете первую пятёрку в отдельном файле.

Шаг 4. Чеклист по каждой из пятёрки. Открываете URL, находите утверждение Ctrl+F, проверяете автора, дату, контекст, идёте на первоисточник если это пересказ, ищете контр-пример. 5 минут на ссылку.

Шаг 5. Синтез в рабочую заметку. В отдельном файле: тема, ключевые находки с прямыми цитатами, ссылки, противоречия между источниками, открытые вопросы. Именно эта заметка идёт редактору или ложится в основу статьи — не «ответ Perplexity», а ваш синтез проверенного материала.

Итог: 10 минут на сбор, 15 минут на проверку первой пятёрки, 5 минут на заметку. 30 минут — есть бэкграундер с проверенными источниками. Без AI та же задача занимала порядка 3–4 часов (порядок оценки, не бенчмарк).


Типичные ошибки и как не попадать

  • Галлюцинация ссылки. URL выглядит правдоподобно, открывается, но страница не существует или статья на ней о другом. Лечится пунктом 1 чеклиста.
  • Фабрикация цитаты. Цитата приписана реальному автору, который её не произносил. Лечится пунктом 2: Ctrl+F по ключевым словам на странице.
  • Выдуманный первоисточник. «Согласно исследованию Гарварда 2023…» — а исследование не существует. Лечится пунктом 4: ищете первоисточник, не находите — не публикуете.
  • Пересказ пересказа. Ссылка ведёт на новость, которая пересказывает отчёт, который пересказывает тот самый первоисточник. Каждый пересказ искажает на 5–10%. Лечится поиском финального источника в цепочке.
  • Смещение по дате. Запросили «последние 6 месяцев», модель вернула статью 2022 года. Лечится пунктом 3: всегда смотрите дату публикации, не доверяйте меткам «recent».

Когда быстрый ресёрч работает, когда нет

Работает:

  • Бэкграунд по теме — собрать 20 источников, понять ландшафт за полчаса
  • Обзор мнений — кто что говорит про тренд, событие, решение
  • Поиск событий по фактам — когда что произошло, где освещали
  • Сбор списка источников для долгого чтения — обзор → приоритизация → глубокое чтение нужного

Не работает:

  • Эксклюзивные данные — AI ищет в открытом вебе, закрытые реестры и источники недоступны
  • Внутренние документы компаний — только от инсайдеров, AI не поможет
  • Интервью с людьми — живые разговоры AI не заменяет
  • Юридические тонкости — нужны юристы, не AI-поисковик
  • Финансовая аналитика — первичные данные из СПАРК, «Контур.Фокус», Bloomberg, но не свободный веб

Мини-квиз: какой запрос даст лучший результат

Пара 1.

  • А: «Расскажи про AI-регуляцию в Европе»
  • Б: «Приведи пять ключевых положений EU AI Act, которые вступят в силу в 2026 году. С цитатами из официального текста регламента и ссылкой на статью»

Ответ: Б. В А нет предмета, периода, угла и формата. В Б всё пять блоков собрано. Модель отдаст структурированный ответ, который сразу можно проверять.

Пара 2.

  • А: «Какие СМИ используют AI для заголовков?»
  • Б: «Назови 3 крупных англоязычных медиа, которые за 2025 год публично заявили об использовании AI-ассистентов при подготовке заголовков. Для каждого — ссылка на внутреннее объявление и цитата из заявления главреда»

Ответ: Б. Конкретика всего — включая «публичное заявление», которое сужает корпус с «слухов в Twitter» до проверяемых источников.

Пара 3.

  • А: «Перечисли случаи, когда AI попал в новости из-за ошибок»
  • Б: «Перечисли 5 документированных случаев за 2024–2025 годы, когда AI-ассистент издания сгенерировал ложный факт, попавший в публикацию. Для каждого: издание, дата, суть ошибки, последствия. Источник — отчёты о ретракциях или независимые расследования»

Ответ: Б. «Попал в новости» — слишком широко. Б конкретизирует до документированных случаев с понятной структурой ответа.


Русская специфика

Для русскоязычного ресёрча главное ограничение — доступность инструментов. Perplexity требует VPN (разбирали в М.2.4), ChatGPT Search — тоже. Полностью без VPN остаётся три варианта:

  • Яндекс.Нейро — живой веб на русском, бесплатно, работает с российских IP. Качество заметно ниже Perplexity на сложных запросах, но для массовых тем годится.
  • GigaChat и YandexGPT — у обоих есть встроенный веб-поиск, нативный русский, без VPN. Хороши для запросов про РФ-контекст.
  • DuckDuckGo AI — работает без VPN, анонимно, без истории. Подходит для чувствительных тем, где не хочется оставлять след.

Российские базы (Rusprofile, СПАРК, «Контур.Фокус», «Арбитр») — отдельный инструмент, не заменяется AI-поисковиком. Подробнее — в уроке М.3.5.


Главное из урока

  • AI экономит время на сборе, не на проверке. 10 минут на ответ + 15 минут на проверку = 25 минут вместо 4 часов. Экономия в 10x, не в 100x.
  • Формула запроса — пять блоков: предмет, период, угол, источники, формат. Без любого блока ответ будет водой.
  • Чеклист проверки — пять пунктов: ссылка открывается, утверждение на странице есть, автор/дата/контекст совпадают, это первоисточник, контр-пример найден или заявлен как отсутствующий.
  • Инструменты выбираются по задаче: быстрый живой веб — Perplexity, глубокое исследование — Deep Research, свой корпус — NotebookLM, мониторинг X — Grok (без цитат).
  • Типичные ошибки: галлюцинация ссылки, фабрикация цитаты, выдуманный первоисточник, пересказ пересказа, смещение по дате.
  • Русский контекст без VPN: Яндекс.Нейро, GigaChat, YandexGPT, DuckDuckGo AI. Российские базы — не через AI.

Следующий урок М.3.2 — про Deep Research. Когда 10 минут недостаточно и нужен структурированный отчёт на 15–30 минут работы модели, с десятками источников и полной компиляцией. Это следующий уровень глубины на том же материале, но с другим рабочим ритмом.

Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.