Модуль m.6 · Урок 4
Урок 4: Персональная RAG-база — когда AI знает всё, что вы написали
Содержание
- Чему вы научитесь
- Парадигма Lenny Rachitsky
- Что это даёт на практике
- Три пути реализации
- Путь 1 — NotebookLM (0 технических навыков)
- Путь 2 — Claude Projects с Knowledge Base (базовая грамотность)
- Путь 3 — свой MCP-сервер (путь Lenny)
- Методика сбора архива за 2 недели
- Неделя 1 — сбор
- Неделя 2 — подготовка
- Когда RAG не нужен
- Русский контекст
- Главное из модуля M.6
Чему вы научитесь
- Понимать, чем RAG над личным архивом отличается от Knowledge Base и от Figlow-методики — это три разные задачи для разных объёмов корпуса
- Выбирать один из трёх путей реализации под свой масштаб и техническую готовность: NotebookLM, Claude Projects, собственный MCP-сервер
- Собрать и подготовить свой корпус за 2 недели по детальному плану — от выгрузки из CMS до рабочего Project с тестовыми запросами
- Видеть разницу «без RAG» и «с RAG» на конкретных сценариях: найти своё старое, вытащить куски под новый формат, не противоречить себе трёхлетней давности
- Честно оценивать, нужна ли вам RAG-база прямо сейчас, или достаточно Figlow из первого урока
Для практики используем arckep.ru — все основные модели, без VPN, оплата рублями. Вы можете использовать любые другие сервисы.
Парадигма Lenny Rachitsky
Лени Рачицки, автор Lenny’s Newsletter и ведущий одноимённого подкаста о продуктовом менеджменте, к марту 2026 года собрал корпус из 350+ статей newsletter и 300+ транскриптов подкаста — более 650 материалов за 5 лет. В марте 2026 он запустил собственный MCP-сервер над этим архивом. Результат: любой может подключить его корпус к Claude Desktop или Cursor и получить AI-ассистента, который отвечает голосом Рачицки, опираясь строго на его реальные материалы.
Это не клонирование голоса и не Knowledge Base. Это другое: не генерация «в стиле», а поиск плюс цитирование. Модель не придумывает, что автор думает по теме — она находит конкретные его реплики и встраивает их в ответ. Где заканчивается архив Рачицки, там заканчивается и ответ.
Что это даёт на практике
Три сценария, ради которых строят персональную RAG-базу.
Найти себя. «Я помню, писал про это два года назад, но не помню, в какой статье». Вопрос в Claude с RAG — и через 5 секунд вы получаете цитату с датой и заголовком. Поиск по архиву Notion или Google Docs такое не умеет: он ищет совпадения слов, а RAG — совпадения смыслов. Вы спрашиваете «что я говорил про выгорание», модель находит материал, где вы писали про «усталость редакторов», — хотя слова «выгорание» там нет.
Вытащить куски под новый формат. Пишете рассылку — нужны три цитаты из прошлых материалов на заявленную тему. Готовите выступление — нужны пять кейсов, которые вы раньше разбирали. С RAG это 10 минут вместо часа ручного поиска по собственному блогу.
Не противоречить себе. Автор с 5-летним архивом регулярно ловится на том, что новая мысль неосознанно противоречит прошлой. Читатели замечают. RAG-ассистент с промптом «прежде чем писать — проверь, что я говорил про это раньше» решает проблему до публикации.
Общее во всех сценариях: AI работает строго с вашим корпусом, не сочиняет и не обобщает. Если материала нет в архиве — модель отвечает «у вас нет об этом публикаций», а не выдумывает.
Три пути реализации
Выбор зависит от двух факторов — объёма архива и технической готовности. Ниже — сводная таблица и подробный разбор каждого пути.
| Критерий | NotebookLM | Claude Projects | Свой MCP-сервер |
|---|---|---|---|
| Порог входа | 0 технических навыков | Базовая грамотность | Опыт с embeddings и БД |
| Объём | До 300 источников × 500K слов каждый | До 30 MB на файл, файлов безлимит (потолок по контексту + RAG) | Безлимит |
| Интеграции | Только веб-интерфейс | Встроено в Claude (все функции) | Любой MCP-клиент |
| Приватность | Приватно, Google-аккаунт | Внутри Anthropic-аккаунта | Ваш сервер, полный контроль |
| Цена | Бесплатно / Plus в Google One AI Premium | Claude Pro $20/мес | Инфраструктура ~$5–30/мес |
| Автообновление | Ручное добавление источников | Ручная загрузка файлов | Триггер на публикацию |
Путь 1 — NotebookLM (0 технических навыков)
Самый простой старт. Закидываете до 300 источников — PDF, ссылки на сайты, Google Docs, YouTube-транскрипты, копипаст текста. Для авторского архива рабочий сценарий такой: экспорт всех статей в PDF или Markdown, загрузка пакетом, добавление 10–20 внешних источников, которые вы регулярно цитируете.
Ограничения — 500 000 слов или 200 MB на один источник (не на весь ноутбук: ноутбук Plus с 300 источниками вмещает теоретически до 150M слов). Audio и Video Overviews работают на 80+ языков (апгрейд августа 2025), включая русский. Приватно, не уходит в обучение моделей. Бесплатно в базовом тарифе; NotebookLM Plus входит в Google One AI Premium.
Уникальная фича — Studio. На основе вашего корпуса NotebookLM генерирует Audio Overview (два AI-ведущих обсуждают ваши материалы), Video Overview, Mind Map и конспекты. Это не имеет аналогов в Claude Projects — подробно разбирали в M.3.3.
Минус один, но существенный: у NotebookLM нет API. Интегрировать его в ваш Claude-пайплайн — где настроен голос по Figlow — нельзя. Получаются два изолированных инструмента.
Путь 2 — Claude Projects с Knowledge Base (базовая грамотность)
Основной рабочий вариант для большинства авторов. Тот же Claude Project, где настроен ваш голос по Figlow-методике из первого урока, дополняется Knowledge Base с вашим корпусом.
Лимиты в 2026 году: максимум 30 MB на один файл, количество файлов в Project формально не ограничено, но практически упирается в 200K-токенный контекст (Claude автоматически включает RAG-режим с ~10× расширением ёмкости при приближении к потолку). На практике это означает, что одним .md с конкатенированным корпусом на 30 MB вы закроете даже большой архив, а если корпус крупнее — нужно разбивать на несколько файлов и рассчитывать, что модель с RAG вытащит релевантные куски под запрос. Фильтрация всё равно полезна: низкокачественные старые тексты сбивают модель, лучшие — дают точные цитаты.
Главный плюс — интеграция всех четырёх уровней модуля M.6 в одном Project. Custom Instructions (голос из M.6.1) плюс раздел «ЗАПРЕЩЕНО» (negative prompts из M.6.2) плюс шаблон «ты мой редактор» (M.6.3) плюс Knowledge Base с корпусом. Единая среда без переключений.
Путь 3 — свой MCP-сервер (путь Lenny)
Для авторов с 500+ материалами или желающих сделать корпус публичным. MCP (Model Context Protocol) — открытый стандарт Anthropic, представленный в ноябре 2024 года, позволяющий моделям подключаться к внешним данным и инструментам через единый интерфейс. Документация — modelcontextprotocol.io, каталог опубликованных серверов — registry.modelcontextprotocol.io, репозиторий с reference-реализациями — github.com/modelcontextprotocol/servers.
Архитектура рабочего MCP-сервера над личным архивом выглядит так: ваши тексты разбиваются на чанки, для каждого считается embedding (векторное представление смысла), эти векторы хранятся в специализированной базе (pgvector, Chroma, Qdrant), MCP-сервер получает запросы от Claude или Cursor и возвращает релевантные чанки по семантическому поиску. Скелет сервера на Python — ниже.
Минимальный скелет MCP-сервера над архивом
Это минимальный скелет, в реальной реализации добавятся индексация (пересчёт embeddings при пополнении архива), метаданные (фильтр по датам и рубрикам), ранжирование. У Рачицки полноценная реализация с отдельным сайтом lennysdata.com и распределением доступа «free/paid», но для рядового автора достаточно скелета выше — 1–2 дня работы с Claude Code при базовом опыте с Python и векторными БД.
Плюсы пути 3: безлимит по объёму, кросс-модельность (работает с любым MCP-клиентом, не только Claude), автообновление при публикации нового материала, возможность сделать корпус публичным как форму портфолио. Минус — настройка требует опыта с embeddings и векторными БД.
Методика сбора архива за 2 недели
Независимо от выбранного пути подготовка корпуса — это 80% работы. План на две недели для автора с архивом разных форматов.
Неделя 1 — сбор
- День 1–2. Инвентаризация. Список всех публикаций за последние 3–5 лет в таблице: дата, заголовок, платформа, ссылка, рубрика, теги. Понять масштаб и проверить, что вы помните всё
- День 3–4. Выгрузка. WordPress и Substack имеют встроенные экспорт-инструменты (XML, Markdown). Medium — через Settings → Account → Download. Статьи в соцсетях — через экспорт аккаунта (Meta, X). Транскрипты подкастов — через Whisper локально по методике M.5.2
- День 5–7. Заметки и черновики. Obsidian, Notion, Apple Notes — экспорт в Markdown. Добавляйте только тексты, которые прошли хотя бы один раунд редактуры; сырые заметки сбивают модель
Неделя 2 — подготовка
- День 8–9. Чистка. Удалить дубли, объединить варианты одного материала, убрать CMS-артефакты (рекламные врезки, подписи соцсетей). В начало каждого файла — заголовок H1 и дата
- День 10–11. Метаданные. В каждый файл добавить YAML-frontmatter: дата, тема, рубрика, формат (колонка/интервью/эссе). Модель использует эти теги для точного поиска
- День 12. Конвертация. Единый формат — Markdown. Имена файлов —
YYYY-MM-DD-slug.md - День 13. Загрузка. В выбранный путь (NotebookLM / Claude Projects / MCP). Для пути 2 — не забудьте Figlow Custom Instructions из M.6.1
- День 14. Тестовые запросы. «Найди всё, что я писал про X», «какие аргументы я приводил против Y в разных материалах», «процитируй мои интервью по теме Z», «найди противоречия в моих позициях за последние 2 года»
Чек-лист минимального объёма: 50 текстов для Claude Projects, 100+ для NotebookLM, 300+ для собственного MCP.
Когда RAG не нужен
Честный список ситуаций, в которых две недели работы не окупятся.
Архив меньше 30 публикаций. Корпус недостаточен для семантического поиска — модель будет выдавать те же самые материалы на большинство запросов. Figlow-Project из первого урока уже видит ваш голос из Custom Instructions, этого пока достаточно. Возвращайтесь к уроку через полгода, когда архив вырастет.
Вы пишете на одну узкую тему. Модель уже знает контекст без вашего корпуса — например, если вы пять лет пишете только про криптовалюты, общее знание Claude плюс Figlow-голос дают 90% результата. RAG становится полезен, когда у вас 3+ самостоятельных тем и модель путается без привязки к конкретным прошлым позициям.
Ваши тексты часто противоречат сами себе. Позиция эволюционирует за 10 лет — это нормально для автора, но катастрофа для RAG. Модель вытащит трёхлетние тезисы как актуальные, и новый материал получит застаревшую аргументацию. Решение — корпус только из последних 2–3 лет, где ваша позиция устойчива.
Одноразовый проект. Пишете книгу или серию из 10 материалов — RAG не окупится, настройка отнимет 2 недели, а к концу проекта корпус закроется. Используйте Claude Projects без RAG, загружайте справочные источники в Knowledge Base.
Правило: RAG имеет смысл при 50+ текстах, минимум 3 темах, минимум 2 годах активного архива.
Русский контекст
Всё работает на русском. NotebookLM поддерживает русскоязычные источники давно, а с апреля–августа 2025 года Audio и Video Overviews расширены до 80+ языков — включая русский. Русский Audio Overview пока звучит чуть синтетичнее английского (отмечали в M.1.1), но Q&A по русскому корпусу работает без потерь. Claude Projects по умолчанию двуязычны: голос (Custom Instructions) и Knowledge Base на русском без потерь качества.
Для собственного MCP-сервера под русский корпус выбор embedding-модели важен: не все модели хорошо работают с кириллицей. Рабочие варианты — cointegrated/rubert-tiny2 (быстрая, легковесная, 312 измерений), intfloat/multilingual-e5-large (тяжелее, но качественнее, 1024 измерения) и OpenAI text-embedding-3-large (платно, API, $0.13 за 1M токенов; default 3072 измерения, можно сократить параметром).
Векторная БД — любая, с русским они работают без специальных настроек. Для не-технарей проще всего pgvector через Supabase или Railway — managed PostgreSQL с расширением pgvector, настройка в 3 клика, от $5/мес.
Русскоязычных публичных MCP-корпусов авторского архива пока нет. Первый автор с 200+ материалами, который опубликует свой корпус как MCP, получит эту нишу.
Главное из модуля M.6
Четыре урока — четырёхуровневая инфраструктура голоса:
- M.6.1 Figlow-методика → ваш голос в Claude Project (80% попадание после 3–5 эталонных текстов)
- M.6.2 Negative prompts → словарь запрещённых слов защищает от скатывания в AI-slop
- M.6.3 AI как редактор → паттерн Thompson: человек пишет, модель находит слабые места
- M.6.4 Персональная RAG → паттерн Rachitsky: модель отвечает вашим корпусом
Каждый следующий уровень требует больше работы, но даёт больше точности. Для блогера с небольшим архивом — уровни 1 и 2. Для регулярной колонки — добавить 3. Для newsletter-автора с платной аудиторией и многолетним архивом — весь стек, включая RAG.
Важно: уровни складываются в одной среде. Claude Project из первого урока постепенно обрастает обвязкой — negative prompts, шаблоном редактора, Knowledge Base с корпусом. Вы не переключаетесь между инструментами, а пополняете один.
В следующем модуле — M.7 «Написание и редактура». Переходим от вопроса «как сохранить голос» к вопросу «как выстроить ежедневный рабочий процесс» — от идеи до публикации, от заметок до чистового материала.