Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль m.3 · Урок 2

Урок 2: Deep Research — o3-Pro, Gemini 3.1 Pro и open-source gpt-researcher

25 мин
m.3 / Урок 2 из 5

Чему научитесь

  • Решать, когда хватит быстрого ресёрча из М.3.1, а когда нужен Deep Research на 15–30 минут
  • Выбирать между четырьмя инструментами — ChatGPT Deep Research, Gemini 3.1 Pro, Perplexity и gpt-researcher — под цену, глубину и доступность
  • Ставить gpt-researcher локально за 5 минут и получать отчёт в 2000+ слов в PDF
  • Запускать два Deep Research параллельно и сверять отчёты как защиту от галлюцинаций
  • Понимать, где Deep Research подводит: свежие события, закрытые базы, узкая экспертиза

Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.


В М.3.1 разобрали быстрый ресёрч: 10 минут на ответ, 15 минут на проверку, рабочая заметка готова. Этого хватает для новостной заметки или короткого бэкграунда. Но если вам заказали колонку с позицией, расследование или крупный бэкграундер на 3000 слов — быстрый ресёрч не даст нужной глубины. Тут работает Deep Research: модель уходит на 15–30 минут, читает десятки источников, возвращается со структурированным отчётом.

Это другой рабочий ритм. В быстром ресёрче вы сидите рядом с инструментом. В Deep Research — запускаете и идёте звонить по источникам, писать план, пить кофе. Отчёт приходит сам.


Когда Deep Research, а когда хватит быстрого

ЗадачаИнструментВремя
Новостная заметка, короткий бэкграундБыстрый ресёрч (М.3.1)10 минут + 15 на проверку
Крупный бэкграундер, расследование, колонка с позициейDeep Research (этот урок)15–30 минут + час на проверку
Работа со своим корпусом 30+ PDF, аудио, видеоNotebookLM (М.2.3)10 минут на загрузку, несколько минут на ответ

Критерий простой: если планируемый материал — 1500+ слов или его будут читать внимательно (редактор, юрист, источник), тратьте время на Deep Research. Если материал короткий или проходной — быстрого ресёрча достаточно.


Сравнение четырёх инструментов

ИнструментСтоимостьВремя запросаДоступность из РФСильная сторона
ChatGPT Deep Research (o3-Pro)$200/мес (Pro tier)8–30 минVPNГлубина анализа, доступ к встроенным Code Interpreter и Browser
Gemini 3.1 Pro Deep Research$20/мес~15 минVPNЦена / качество, интеграция с Drive
Perplexity Deep ResearchPro-подписка10–30 минVPN93.9% на SimpleQA, выбор Claude/GPT под капотом
gpt-researcher (open-source)Бесплатно + стоимость API5–15 минБез VPN (через российский API-агрегатор)Локальный контроль, свои документы, любая модель

Три коммерческих продукта дают отчёт в веб-интерфейсе. gpt-researcher — локальный инструмент, вы сами платите за API модели (через arckep или напрямую), но получаете отчёт в PDF/DOCX/Markdown и можете подключать свои локальные документы.


ChatGPT Deep Research (o3-Pro): премиум-уровень

Запускается из ChatGPT Pro-аккаунта. Модель под капотом — o3-Pro или преемник. На запрос уходит 8–30 минут. На выходе — структурированный отчёт на несколько тысяч слов со ссылками.

Что уникально:

  • Доступ ко встроенным инструментам OpenAI — Code Interpreter (может считать и строить таблицы), Browser (ходит по ссылкам в реальном времени, не только по обученному корпусу)
  • Часто выдаёт самый глубокий результат среди тестированных инструментов на сложных темах
  • Отчёт структурирован по секциям, в каждой — источники с номерами

Минусы: $200/мес — это 200 000 рублей в год через зарубежную карту плюс VPN. Для регулярной работы в крупной редакции оправданно, для фрилансера — дорого.


Gemini 3.1 Pro Deep Research: золотая середина

$20/мес, часть подписки Gemini Advanced / Google One AI Premium. Deep Research — отдельный режим внутри Gemini. Главный плюс — интеграция с Google Drive: результаты можно сохранять прямо в Drive, а источники можно подтягивать из ваших документов.

Когда брать:

  • Нужен глубокий отчёт, но бюджета на ChatGPT Pro нет
  • Вы уже в Google-экосистеме (документы в Drive, почта в Gmail, Gems для черновиков — см. М.2.3)
  • Регулярный ресёрч без выделенного бюджета на AI

На многих задачах результат близок к ChatGPT Deep Research. На особо сложных темах ChatGPT глубже, но для 80% журналистских задач Gemini хватает.


Perplexity Deep Research: быстрая проверка

Входит в Perplexity Pro. 93.9% на SimpleQA-бенчмарке — лучший результат среди AI-поисковиков на момент анонса (февраль 2025). Но помним честный caveat из урока М.2.4: 37% фабрикации цитат. Знать факт — не то же самое, что правильно его атрибутировать.

Сильная сторона Perplexity Deep Research — выбор модели под капотом. Можно запускать в Claude-режиме или GPT-режиме. Для спорной темы полезно прогнать в обоих и сверить: где отчёты совпадают — там надёжнее.


gpt-researcher: open-source, локально, под вашим контролем

Это то, что журналисту стоит поставить один раз и использовать дальше бесплатно.

assafelovic/gpt-researcher — 26.5k звёзд на GitHub, релиз v3.4.4 от 16 апреля 2026. Автономный агент, который сам планирует ресёрч, ходит по источникам, собирает цитаты, пишет отчёт на 2000+ слов в PDF, DOCX или Markdown. Работает с локальными документами — PDF, CSV, XLSX.

Почему это важно для журналиста:

  • Контроль данных. Работаете с чувствительной темой — ничего не уходит в ChatGPT или Perplexity. Модель подключается на ваш выбор, документы — локально.
  • Цена. Вместо $200/мес платите только за API использованной модели. На один отчёт — обычно $0.50–2.
  • Свои документы. Подгружаете FOIA-материалы, внутренние отчёты, PDF-архивы — gpt-researcher их читает и включает в отчёт.
  • Российский API — через arckep. Без VPN, оплата рублями. Выбираете Claude/GPT/Gemini/DeepSeek — gpt-researcher с ними работает.

Установка — два пути.

Путь 1. Веб-интерфейс (рекомендуется для начала):

git clone https://github.com/assafelovic/gpt-researcher.git
cd gpt-researcher
pip install -r requirements.txt

Далее — настройка .env с ключами. Минимальный рабочий набор на v3.4.4:

# Обязательные ключи
OPENAI_API_KEY=your_openai_or_arckep_key_here
TAVILY_API_KEY=your_tavily_key_here   # обязательно для веб-поиска

# Custom endpoint (если используете arckep или другой OpenAI-совместимый API)
OPENAI_BASE_URL=https://your-openai-compatible-endpoint/v1

# Модели — формат «провайдер:модель»
FAST_LLM=openai:gpt-4o-mini
SMART_LLM=openai:gpt-4.1
STRATEGIC_LLM=openai:o4-mini

Важные нюансы v3.4.4:

  • Имена переменных — FAST_LLM/SMART_LLM/STRATEGIC_LLM (без _MODEL), значения — с префиксом провайдера (openai:).
  • Для custom endpoint — OPENAI_BASE_URL (именно так, не OPENAI_API_BASE).
  • TAVILY_API_KEY обязательна — без неё веб-поиск не стартует (дефолтный retriever).
  • Актуальный endpoint arckep уточняйте на arckep.ru или через их поддержку — конкретный URL меняется.

Запуск веб-сервера:

python -m uvicorn main:app --reload

Открываете http://localhost:8000, вводите запрос в UI, через 5–15 минут получаете отчёт на 2000+ слов в PDF/DOCX/Markdown.

Путь 2. Через pip-пакет (для интеграции в свои скрипты):

pip install gpt-researcher
import asyncio
from gpt_researcher import GPTResearcher

async def main():
    researcher = GPTResearcher(
        query="Ваша тема ресёрча",
        report_type="research_report"
    )
    await researcher.conduct_research()
    report = await researcher.write_report()
    print(report)

asyncio.run(main())

Это Python-библиотека без веб-UI — удобно для встраивания в свой пайплайн. Оба пути описаны в README репозитория; проект активно развивается, сверяйте команды перед установкой.


Практикум: «Бэкграундер за 20 минут»

Сценарий — редактор поручил крупный бэкграундер по теме. К вечеру должен быть материал на 2500 слов. Сбор источников — сейчас.

Шаг 1. Формула запроса для Deep Research. Расширенная версия пятиблочного шаблона из М.3.1: добавляются глубина (сколько источников ожидаете) и структура отчёта.

Подготовь развёрнутый бэкграундер на тему [тема] за 2024–2025 годы.
Охват — не менее 20 источников, приоритет первоисточникам (официальные
заявления, отчёты, академические публикации) над медиа-пересказами.
Структура отчёта:
1. Хронология ключевых событий
2. Позиции основных игроков с прямыми цитатами
3. Независимые мнения (эксперты, критики)
4. Открытые вопросы и противоречия в источниках
5. Что пишут русскоязычные источники
К каждой фактической утверждению — нумерованная ссылка.
Язык отчёта — русский.

Шаг 2. Запустить параллельно в двух инструментах. Одновременно — gpt-researcher локально (через arckep, без VPN) и Perplexity Deep Research (через VPN). Два независимых отчёта через 15–20 минут.

Шаг 3. Пока они работают — позвонить источникам. 15 минут — это достаточно, чтобы успеть сделать 2–3 звонка ключевым экспертам или собрать комментарии в мессенджере. AI не заменяет интервью. Пока AI собирает публичное — вы получаете живые голоса. Именно из-за этого бэкграундер выйдет на уровень редакции, а не пересказа.

Шаг 4. Сверка двух отчётов. Когда оба готовы — сравнение:

  • Пересечения (оба инструмента упоминают факт, цитируют одинаковые источники) — надёжная часть. Используете без глубокой проверки, но чеклист ссылок из М.3.1 всё равно прогоняете.
  • Расхождения (один инструмент упомянул, другой — нет; либо противоречат друг другу) — требуют ручной проверки. Здесь критично: галлюцинация может быть в любом из двух отчётов.

Шаг 5. Синтез в рабочую заметку. Пересечения + подтверждённые расхождения + комментарии источников по звонкам = готовый материал для написания. Уже на этом этапе видно, есть ли история, или тема распадается.

Итог: 20 минут ресёрча плюс час на проверку ссылок и структуру = готов глубокий бэкграундер. Без AI та же задача занимала 2–3 дня.


Когда Deep Research подводит

Честный caveat — четыре сценария, где Deep Research не поможет:

  • Свежайшие события — буквально последний час. Модели и поисковые индексы обновляются с задержкой. Для hot news — обычные соцсети и ленты новостей.
  • Узкие темы. Если по теме в вебе три источника — Deep Research вернёт те же три. Скорее даже хуже, потому что окружит их правдоподобным пересказом общих мест. Для узких тем — ручной поиск и источники-эксперты.
  • Закрытые базы. СПАРК, «Контур.Фокус», «Арбитр», платный академический контент — туда модель не зайдёт. Эти базы упомянуты в уроке М.3.5.
  • Узкая экспертиза. Медицина, сложная юриспруденция, специализированные финансовые инструменты — нужны эксперты. Deep Research соберёт вам обзор мнений, но финальную ответственность должен нести специалист.

Русский контекст

Полный комплект Deep Research для русскоязычного журналиста:

  • gpt-researcher через arckep — полностью без VPN, оплата рублями. Выбираете модель (Claude/GPT/Gemini/DeepSeek), документы остаются локально. Это базовая конфигурация для русскоязычной редакции.
  • Perplexity Deep Research — через VPN, но когда нужен именно веб-интерфейс Perplexity и Spaces для команды.
  • GigaChat и YandexGPT — на момент написания урока у обоих есть режимы расширенного поиска, но полноценного Deep Research с отчётом на 2000+ слов ещё нет. Следите за анонсами.

Для тем, где важен русскоязычный корпус, полезно комбинировать: один прогон в gpt-researcher через Claude (глубина анализа), второй — через GigaChat (нативный русский и российские источники). Пересечение — самая надёжная база для статьи.


Главное из урока

  • Deep Research — другой рабочий ритм. Запускаете на 15–30 минут, в это время работаете параллельно (звонки, план, кофе). Подходит для материалов от 1500 слов и выше.
  • Четыре инструмента, четыре ниши: ChatGPT Pro ($200) — максимальная глубина; Gemini 3.1 Pro ($20) — лучшее соотношение цена/качество; Perplexity — два режима Claude/GPT под капотом; gpt-researcher — бесплатно, локально, без VPN через arckep.
  • Параллельный запуск в двух инструментах — главная защита от галлюцинаций. Пересечения отчётов — надёжная часть, расхождения — обязательная проверка.
  • gpt-researcher v3.4.4 — 26.5k⭐, установка за 5 минут, отчёт 2000+ слов в PDF/DOCX/Markdown, работает с локальными документами.
  • AI не заменяет интервью. Пока отчёты генерируются, журналист делает звонки — именно это отличает материал от пересказа публичных источников.
  • Deep Research подводит на свежих новостях, узких темах, в закрытых базах и в специализированной экспертизе.

В следующем уроке М.3.3 — глубже про NotebookLM как флагман журналистского ресёрча: все четыре режима Audio Overview на реальных сценариях, работа с 300 источниками, Pinpoint для архивов тысячного объёма и собственные пайплайны обработки FOIA-материалов.

Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.