Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль m.6 · Урок 4

Урок 4: Персональная RAG-база — когда AI знает всё, что вы написали

35 мин
m.6 / Урок 4 из 4

Чему вы научитесь

  • Понимать, чем RAG над личным архивом отличается от Knowledge Base и от Figlow-методики — это три разные задачи для разных объёмов корпуса
  • Выбирать один из трёх путей реализации под свой масштаб и техническую готовность: NotebookLM, Claude Projects, собственный MCP-сервер
  • Собрать и подготовить свой корпус за 2 недели по детальному плану — от выгрузки из CMS до рабочего Project с тестовыми запросами
  • Видеть разницу «без RAG» и «с RAG» на конкретных сценариях: найти своё старое, вытащить куски под новый формат, не противоречить себе трёхлетней давности
  • Честно оценивать, нужна ли вам RAG-база прямо сейчас, или достаточно Figlow из первого урока

Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.


Парадигма Lenny Rachitsky

Лени Рачицки, автор Lenny’s Newsletter и ведущий одноимённого подкаста о продуктовом менеджменте, к марту 2026 года собрал корпус из 350+ статей newsletter и 300+ транскриптов подкаста — более 650 материалов за 5 лет. В марте 2026 он запустил собственный MCP-сервер над этим архивом. Результат: любой может подключить его корпус к Claude Desktop или Cursor и получить AI-ассистента, который отвечает голосом Рачицки, опираясь строго на его реальные материалы.

Это не клонирование голоса и не Knowledge Base. Это другое: не генерация «в стиле», а поиск плюс цитирование. Модель не придумывает, что автор думает по теме — она находит конкретные его реплики и встраивает их в ответ. Где заканчивается архив Рачицки, там заканчивается и ответ.


Что это даёт на практике

Три сценария, ради которых строят персональную RAG-базу.

Найти себя. «Я помню, писал про это два года назад, но не помню, в какой статье». Вопрос в Claude с RAG — и через 5 секунд вы получаете цитату с датой и заголовком. Поиск по архиву Notion или Google Docs такое не умеет: он ищет совпадения слов, а RAG — совпадения смыслов. Вы спрашиваете «что я говорил про выгорание», модель находит материал, где вы писали про «усталость редакторов», — хотя слова «выгорание» там нет.

Вытащить куски под новый формат. Пишете рассылку — нужны три цитаты из прошлых материалов на заявленную тему. Готовите выступление — нужны пять кейсов, которые вы раньше разбирали. С RAG это 10 минут вместо часа ручного поиска по собственному блогу.

Не противоречить себе. Автор с 5-летним архивом регулярно ловится на том, что новая мысль неосознанно противоречит прошлой. Читатели замечают. RAG-ассистент с промптом «прежде чем писать — проверь, что я говорил про это раньше» решает проблему до публикации.

Общее во всех сценариях: AI работает строго с вашим корпусом, не сочиняет и не обобщает. Если материала нет в архиве — модель отвечает «у вас нет об этом публикаций», а не выдумывает.


Три пути реализации

Выбор зависит от двух факторов — объёма архива и технической готовности. Ниже — сводная таблица и подробный разбор каждого пути.

КритерийNotebookLMClaude ProjectsСвой MCP-сервер
Порог входа0 технических навыковБазовая грамотностьОпыт с embeddings и БД
ОбъёмДо 300 источников × 500K слов каждыйДо 30 MB на файл, файлов безлимит (потолок по контексту + RAG)Безлимит
ИнтеграцииТолько веб-интерфейсВстроено в Claude (все функции)Любой MCP-клиент
ПриватностьПриватно, Google-аккаунтВнутри Anthropic-аккаунтаВаш сервер, полный контроль
ЦенаБесплатно / Plus в Google One AI PremiumClaude Pro $20/месИнфраструктура ~$5–30/мес
АвтообновлениеРучное добавление источниковРучная загрузка файловТриггер на публикацию

Путь 1 — NotebookLM (0 технических навыков)

Самый простой старт. Закидываете до 300 источников — PDF, ссылки на сайты, Google Docs, YouTube-транскрипты, копипаст текста. Для авторского архива рабочий сценарий такой: экспорт всех статей в PDF или Markdown, загрузка пакетом, добавление 10–20 внешних источников, которые вы регулярно цитируете.

Ограничения — 500 000 слов или 200 MB на один источник (не на весь ноутбук: ноутбук Plus с 300 источниками вмещает теоретически до 150M слов). Audio и Video Overviews работают на 80+ языков (апгрейд августа 2025), включая русский. Приватно, не уходит в обучение моделей. Бесплатно в базовом тарифе; NotebookLM Plus входит в Google One AI Premium.

Уникальная фича — Studio. На основе вашего корпуса NotebookLM генерирует Audio Overview (два AI-ведущих обсуждают ваши материалы), Video Overview, Mind Map и конспекты. Это не имеет аналогов в Claude Projects — подробно разбирали в M.3.3.

Минус один, но существенный: у NotebookLM нет API. Интегрировать его в ваш Claude-пайплайн — где настроен голос по Figlow — нельзя. Получаются два изолированных инструмента.

Путь 2 — Claude Projects с Knowledge Base (базовая грамотность)

Основной рабочий вариант для большинства авторов. Тот же Claude Project, где настроен ваш голос по Figlow-методике из первого урока, дополняется Knowledge Base с вашим корпусом.

Лимиты в 2026 году: максимум 30 MB на один файл, количество файлов в Project формально не ограничено, но практически упирается в 200K-токенный контекст (Claude автоматически включает RAG-режим с ~10× расширением ёмкости при приближении к потолку). На практике это означает, что одним .md с конкатенированным корпусом на 30 MB вы закроете даже большой архив, а если корпус крупнее — нужно разбивать на несколько файлов и рассчитывать, что модель с RAG вытащит релевантные куски под запрос. Фильтрация всё равно полезна: низкокачественные старые тексты сбивают модель, лучшие — дают точные цитаты.

Главный плюс — интеграция всех четырёх уровней модуля M.6 в одном Project. Custom Instructions (голос из M.6.1) плюс раздел «ЗАПРЕЩЕНО» (negative prompts из M.6.2) плюс шаблон «ты мой редактор» (M.6.3) плюс Knowledge Base с корпусом. Единая среда без переключений.

Путь 3 — свой MCP-сервер (путь Lenny)

Для авторов с 500+ материалами или желающих сделать корпус публичным. MCP (Model Context Protocol) — открытый стандарт Anthropic, представленный в ноябре 2024 года, позволяющий моделям подключаться к внешним данным и инструментам через единый интерфейс. Документация — modelcontextprotocol.io, каталог опубликованных серверов — registry.modelcontextprotocol.io, репозиторий с reference-реализациями — github.com/modelcontextprotocol/servers.

Архитектура рабочего MCP-сервера над личным архивом выглядит так: ваши тексты разбиваются на чанки, для каждого считается embedding (векторное представление смысла), эти векторы хранятся в специализированной базе (pgvector, Chroma, Qdrant), MCP-сервер получает запросы от Claude или Cursor и возвращает релевантные чанки по семантическому поиску. Скелет сервера на Python — ниже.

Минимальный скелет MCP-сервера над архивом

python
Нажмите на строку — увидите объяснение

Это минимальный скелет, в реальной реализации добавятся индексация (пересчёт embeddings при пополнении архива), метаданные (фильтр по датам и рубрикам), ранжирование. У Рачицки полноценная реализация с отдельным сайтом lennysdata.com и распределением доступа «free/paid», но для рядового автора достаточно скелета выше — 1–2 дня работы с Claude Code при базовом опыте с Python и векторными БД.

Плюсы пути 3: безлимит по объёму, кросс-модельность (работает с любым MCP-клиентом, не только Claude), автообновление при публикации нового материала, возможность сделать корпус публичным как форму портфолио. Минус — настройка требует опыта с embeddings и векторными БД.


Методика сбора архива за 2 недели

Независимо от выбранного пути подготовка корпуса — это 80% работы. План на две недели для автора с архивом разных форматов.

Неделя 1 — сбор

  • День 1–2. Инвентаризация. Список всех публикаций за последние 3–5 лет в таблице: дата, заголовок, платформа, ссылка, рубрика, теги. Понять масштаб и проверить, что вы помните всё
  • День 3–4. Выгрузка. WordPress и Substack имеют встроенные экспорт-инструменты (XML, Markdown). Medium — через Settings → Account → Download. Статьи в соцсетях — через экспорт аккаунта (Meta, X). Транскрипты подкастов — через Whisper локально по методике M.5.2
  • День 5–7. Заметки и черновики. Obsidian, Notion, Apple Notes — экспорт в Markdown. Добавляйте только тексты, которые прошли хотя бы один раунд редактуры; сырые заметки сбивают модель

Неделя 2 — подготовка

  • День 8–9. Чистка. Удалить дубли, объединить варианты одного материала, убрать CMS-артефакты (рекламные врезки, подписи соцсетей). В начало каждого файла — заголовок H1 и дата
  • День 10–11. Метаданные. В каждый файл добавить YAML-frontmatter: дата, тема, рубрика, формат (колонка/интервью/эссе). Модель использует эти теги для точного поиска
  • День 12. Конвертация. Единый формат — Markdown. Имена файлов — YYYY-MM-DD-slug.md
  • День 13. Загрузка. В выбранный путь (NotebookLM / Claude Projects / MCP). Для пути 2 — не забудьте Figlow Custom Instructions из M.6.1
  • День 14. Тестовые запросы. «Найди всё, что я писал про X», «какие аргументы я приводил против Y в разных материалах», «процитируй мои интервью по теме Z», «найди противоречия в моих позициях за последние 2 года»

Чек-лист минимального объёма: 50 текстов для Claude Projects, 100+ для NotebookLM, 300+ для собственного MCP.


Когда RAG не нужен

Честный список ситуаций, в которых две недели работы не окупятся.

Архив меньше 30 публикаций. Корпус недостаточен для семантического поиска — модель будет выдавать те же самые материалы на большинство запросов. Figlow-Project из первого урока уже видит ваш голос из Custom Instructions, этого пока достаточно. Возвращайтесь к уроку через полгода, когда архив вырастет.

Вы пишете на одну узкую тему. Модель уже знает контекст без вашего корпуса — например, если вы пять лет пишете только про криптовалюты, общее знание Claude плюс Figlow-голос дают 90% результата. RAG становится полезен, когда у вас 3+ самостоятельных тем и модель путается без привязки к конкретным прошлым позициям.

Ваши тексты часто противоречат сами себе. Позиция эволюционирует за 10 лет — это нормально для автора, но катастрофа для RAG. Модель вытащит трёхлетние тезисы как актуальные, и новый материал получит застаревшую аргументацию. Решение — корпус только из последних 2–3 лет, где ваша позиция устойчива.

Одноразовый проект. Пишете книгу или серию из 10 материалов — RAG не окупится, настройка отнимет 2 недели, а к концу проекта корпус закроется. Используйте Claude Projects без RAG, загружайте справочные источники в Knowledge Base.

Правило: RAG имеет смысл при 50+ текстах, минимум 3 темах, минимум 2 годах активного архива.


Русский контекст

Всё работает на русском. NotebookLM поддерживает русскоязычные источники давно, а с апреля–августа 2025 года Audio и Video Overviews расширены до 80+ языков — включая русский. Русский Audio Overview пока звучит чуть синтетичнее английского (отмечали в M.1.1), но Q&A по русскому корпусу работает без потерь. Claude Projects по умолчанию двуязычны: голос (Custom Instructions) и Knowledge Base на русском без потерь качества.

Для собственного MCP-сервера под русский корпус выбор embedding-модели важен: не все модели хорошо работают с кириллицей. Рабочие варианты — cointegrated/rubert-tiny2 (быстрая, легковесная, 312 измерений), intfloat/multilingual-e5-large (тяжелее, но качественнее, 1024 измерения) и OpenAI text-embedding-3-large (платно, API, $0.13 за 1M токенов; default 3072 измерения, можно сократить параметром).

Векторная БД — любая, с русским они работают без специальных настроек. Для не-технарей проще всего pgvector через Supabase или Railway — managed PostgreSQL с расширением pgvector, настройка в 3 клика, от $5/мес.

Русскоязычных публичных MCP-корпусов авторского архива пока нет. Первый автор с 200+ материалами, который опубликует свой корпус как MCP, получит эту нишу.


Главное из модуля M.6

Четыре урока — четырёхуровневая инфраструктура голоса:

  • M.6.1 Figlow-методика → ваш голос в Claude Project (80% попадание после 3–5 эталонных текстов)
  • M.6.2 Negative prompts → словарь запрещённых слов защищает от скатывания в AI-slop
  • M.6.3 AI как редактор → паттерн Thompson: человек пишет, модель находит слабые места
  • M.6.4 Персональная RAG → паттерн Rachitsky: модель отвечает вашим корпусом

Каждый следующий уровень требует больше работы, но даёт больше точности. Для блогера с небольшим архивом — уровни 1 и 2. Для регулярной колонки — добавить 3. Для newsletter-автора с платной аудиторией и многолетним архивом — весь стек, включая RAG.

Важно: уровни складываются в одной среде. Claude Project из первого урока постепенно обрастает обвязкой — negative prompts, шаблоном редактора, Knowledge Base с корпусом. Вы не переключаетесь между инструментами, а пополняете один.

В следующем модуле — M.7 «Написание и редактура». Переходим от вопроса «как сохранить голос» к вопросу «как выстроить ежедневный рабочий процесс» — от идеи до публикации, от заметок до чистового материала.

Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.