Модуль 4.3 · Урок 3
Визуальные платформы и managed-сервисы
Содержание
- Введение
- Dify — визуальный конструктор агентов
- Архитектура Dify
- Развёртывание Dify + Ollama
- Типы приложений в Dify
- Когда Dify лучше кода
- Когда Dify недостаточно
- n8n — AI-агенты + бизнес-автоматизация
- n8n vs Dify
- Пример: AI-агент поддержки в n8n
- Развёртывание n8n AI Starter Kit
- Managed-сервисы
- AWS Bedrock Agents
- Google Vertex AI Agent Builder
- Когда managed-сервисы оправданы
- Сравнительная таблица всех подходов
- Дерево решений
- Практика: быстрый старт с Dify
- Задание 1: Создание RAG-бота за 15 минут
- Задание 2: Workflow с условной логикой
- Ссылки и ресурсы
- Визуальные платформы
- Managed-сервисы
- Альтернативы для self-hosted
- Заключение
Введение
Не каждая задача требует написания кода. Визуальные платформы закрывают разрыв между идеей и работающим AI-агентом для команд с разным техническим уровнем. Managed-сервисы снимают нагрузку по инфраструктуре, но вводят зависимость от вендора.
Три категории инструментов в этом уроке:
- Low-code: визуальный конструктор с возможностью кастомизации кодом (Dify)
- No-code + автоматизация: бизнес-процессы с AI-компонентами (n8n)
- Managed: облачные сервисы с SLA и enterprise governance (Bedrock, Vertex AI)
Критерий выбора прост: если вы можете описать логику агента в виде блок-схемы — визуальная платформа справится. Если логика требует динамического ветвления на основе промежуточных результатов — нужен код.
Dify — визуальный конструктор агентов
GitHub: https://github.com/langgenius/dify (~131 700 stars)
Dify — open source платформа для создания AI-приложений через визуальный интерфейс. Не просто обёртка над API: полноценная среда с RAG-пайплайном, управлением моделями, observability и маркетплейсом плагинов.
Ключевые возможности:
- Visual workflow builder с условиями, циклами и параллельными ветками
- Встроенный RAG-пайплайн: загрузка документов, chunking, embedding, поиск
- 50+ встроенных инструментов (web search, code execution, HTTP requests)
- Plugin marketplace (с версии 1.0+)
- Self-hosted через Docker или Kubernetes
- Поддержка локальных моделей через Ollama и vLLM
Архитектура Dify
graph LR
USER[Пользователь] --> FE[Dify Frontend<br/>React]
FE --> API[API Backend<br/>Flask + Celery]
API --> LLM[LLM-провайдер<br/>облако или локальный]
API --> VDB[Векторная БД<br/>Weaviate / Qdrant / pgvector]
API --> TOOLS[Инструменты<br/>и плагины]
API --> DB[PostgreSQL<br/>метаданные]
API --> REDIS[Redis<br/>кэш и очереди]
style USER fill:#f8fafc,stroke:#4f46e5,stroke-width:2px
style FE fill:#f8fafc,stroke:#2563eb,stroke-width:2px
style API fill:#f8fafc,stroke:#4f46e5,stroke-width:3px
style LLM fill:#f0fdf4,stroke:#059669,stroke-width:2px
style VDB fill:#f0fdf4,stroke:#059669,stroke-width:2px
style TOOLS fill:#f0fdf4,stroke:#059669,stroke-width:2px
style DB fill:#f8fafc,stroke:#e2e8f0,stroke-width:1px
style REDIS fill:#f8fafc,stroke:#e2e8f0,stroke-width:1px
Развёртывание Dify + Ollama
Минимальная конфигурация для локального запуска с открытой моделью:
# 1. Запуск Ollama с моделью
ollama pull qwen2.5:7b
# 2. Клонирование и запуск Dify
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up -d
# 3. Открыть http://localhost:80
# 4. В настройках -> Model Provider -> Ollama
# 5. Указать http://host.docker.internal:11434
Требования: Docker 24+, Docker Compose v2, минимум 8 GB RAM (16 GB рекомендуется для Ollama + Dify одновременно).
Важно: host.docker.internal работает на macOS и Windows. На Linux нужно добавить extra_hosts в docker-compose.yml или использовать IP хоста в Docker-сети.
Типы приложений в Dify
Chatbot — простой диалоговый интерфейс. Подключается к одной модели, поддерживает историю, можно добавить RAG. Минимальная настройка: системный промпт + выбор модели.
Agent — автономный агент с доступом к инструментам. Модель сама решает, какие инструменты вызвать и в каком порядке. Поддерживает ReAct и Function Calling стратегии.
Workflow — визуальный пайплайн с явными шагами. Условные переходы, циклы, параллельные ветки, HTTP-вызовы, выполнение кода. Каждый шаг — отдельный узел на канвасе.
Text Generator — batch-обработка текстов. Один промпт, множество входных данных. Подходит для генерации описаний товаров, суммаризации документов, классификации.
Когда Dify лучше кода
- Нужен рабочий прототип за часы, а не дни
- Команда включает людей без опыта программирования
- Заказчик хочет видеть и понимать логику workflow
- Встроенный RAG достаточен (нет нестандартных требований к retrieval)
- Нужна observability из коробки: логи, метрики, стоимость вызовов
Когда Dify недостаточно
- Нестандартная логика retrieval (гибридный поиск, reranking с кастомными моделями)
- Высокая нагрузка (тысячи запросов в секунду)
- Глубокая интеграция с существующей кодовой базой
- Нужен полный контроль над промптами и цепочками вызовов
n8n — AI-агенты + бизнес-автоматизация
GitHub: https://github.com/n8n-io/n8n (~178 300 stars, самый популярный в категории)
n8n изначально создан для автоматизации бизнес-процессов (аналог Zapier, но self-hosted). С 2024 года добавлены AI-возможности: AI Agent builder, vector store nodes, LLM chains.
Ключевые возможности:
- 400+ интеграций: Telegram, Slack, Google Sheets, PostgreSQL, Jira, Notion, GitHub и др.
- AI Agent builder на визуальном canvas
- Human-in-the-loop: агент может запрашивать подтверждение у человека
- MCP Server support: подключение любых MCP-серверов как инструментов агента
- Self-hosted AI Starter Kit: готовый набор Ollama + n8n + vector store
- Fair-code лицензия (бесплатно для self-hosted)
n8n vs Dify
| Критерий | Dify | n8n |
|---|---|---|
| GitHub Stars | ~132K | ~178K |
| Фокус | AI-first платформа | Автоматизация + AI |
| Интеграции | 50+ (AI-инструменты) | 400+ (все сервисы) |
| RAG | Встроенный пайплайн | Через vector store nodes |
| Модели | Любые LLM-провайдеры | Любые LLM-провайдеры |
| Visual builder | Workflow canvas | Workflow canvas |
| Human-in-the-loop | Нет | Да |
| MCP support | Через плагины | Нативный |
| Лучше всего для | AI-приложения с RAG | Бизнес-процессы с AI |
Пример: AI-агент поддержки в n8n
Типичный workflow для бота техподдержки в Telegram:
- Trigger: Telegram — получение нового сообщения от пользователя
- AI Agent: Claude как основная модель, подключены инструменты:
- Vector Store Tool — поиск по базе знаний (документация, FAQ)
- HTTP Request Tool — запрос статуса заказа из внутреннего API
- Calculator Tool — расчёт стоимости доставки
- Switch: проверка confidence агента
- Высокий confidence — отправка ответа в Telegram
- Низкий confidence — пересылка оператору в Slack с контекстом
- Telegram: отправка ответа пользователю
Весь workflow создаётся без кода, перетаскиванием узлов на canvas. Каждый узел настраивается через форму.
Развёртывание n8n AI Starter Kit
# Готовый набор: n8n + Ollama + Qdrant + PostgreSQL
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up -d
# Или без GPU (CPU-only):
docker compose --profile cpu up -d
# Открыть http://localhost:5678
Требования: Docker 24+, 16 GB RAM (для Ollama с моделями 7B). С GPU: NVIDIA с 8+ GB VRAM.
Managed-сервисы
Managed-сервисы — облачные платформы, где инфраструктуру (серверы, масштабирование, мониторинг) обеспечивает вендор. Разработчик получает API и консоль управления.
AWS Bedrock Agents
Статус доступа из РФ: заблокирован с апреля 2024. AWS прекратил обслуживание аккаунтов, зарегистрированных в РФ.
Описание приводится для общего понимания ландшафта и работы с зарубежными командами.
Возможности:
- Полностью managed агенты: мультиагентная коллаборация, persistent memory, code execution
- Knowledge Bases для RAG: автоматический chunking, embedding, поиск по S3-документам
- AgentCore: enterprise governance, audit trail, access control
- Модели: Claude (Anthropic), Llama, Mistral, Titan (Amazon), Cohere
- Guardrails: фильтрация контента, PII redaction, topic denial
Pricing: pay-per-use, стоимость зависит от модели и количества токенов. Knowledge Bases — отдельная тарификация за хранение и запросы.
Google Vertex AI Agent Builder
Статус доступа из РФ: Google Cloud ограничен. Agent Development Kit (ADK) — open source, доступен без ограничений.
Возможности:
- Agent Designer: визуальный low-code конструктор агентов
- Agent Development Kit (ADK): open source фреймворк для разработки агентов на Python
- Agent Engine: managed среда для деплоя агентов
- Интеграция с Gemini, PaLM, и сторонними моделями
- Grounding: подключение к Google Search, собственным данным, Knowledge Graph
ADK (https://github.com/google/adk-python) можно использовать независимо от Google Cloud. Поддерживает любые LLM через LiteLLM.
Когда managed-сервисы оправданы
- Enterprise с бюджетом на облако и требованиями к compliance (SOC 2, HIPAA, GDPR)
- Нужна SLA с гарантией доступности (99.9%+) и поддержка от вендора
- Команда уже работает на соответствующем облаке (AWS, GCP, Azure)
- Нет ресурсов на поддержку собственной инфраструктуры
Для разработчиков из РФ: managed-сервисы AWS и GCP недоступны или ограничены. Практичные альтернативы — self-hosted Dify и n8n с локальными или доступными облачными моделями.
Сравнительная таблица всех подходов
| Критерий | Dify | n8n | AWS Bedrock | Vertex AI |
|---|---|---|---|---|
| Тип | Self-host + cloud | Self-host + cloud | Managed | Managed |
| GitHub Stars | ~132K | ~178K | — | — |
| Лицензия | Apache 2.0 | Fair-code | Проприетарный | Проприетарный |
| Стоимость | Бесплатно (self-host) | Бесплатно (self-host) | Pay-per-use | Pay-per-use |
| Доступ из РФ | Да | Да | Нет | Ограничен |
| Локальные модели | Ollama, vLLM | Ollama, любые | Нет | Нет |
| RAG | Встроенный | Через vector store nodes | Knowledge Bases | Agent Engine |
| Интеграции | 50+ | 400+ | AWS-сервисы | GCP-сервисы |
| Human-in-the-loop | Нет | Да | Да | Да |
| Enterprise governance | Базовый | Базовый | Полный | Полный |
| Для кого | AI-разработчики | Автоматизаторы | Enterprise на AWS | Enterprise на GCP |
Дерево решений
flowchart TD
START{Какая задача?} -->|AI-приложение<br/>с RAG| Q1{Нужен код?}
START -->|Бизнес-автоматизация<br/>с AI| N8N[n8n]
START -->|Enterprise<br/>с compliance| Q2{Какое облако?}
Q1 -->|Нет, визуальный<br/>конструктор| DIFY[Dify]
Q1 -->|Да, полный<br/>контроль| CODE[SDK и фреймворки<br/>см. предыдущие уроки]
Q2 -->|AWS| Q3{Доступ из РФ?}
Q2 -->|GCP| Q4{Доступ из РФ?}
Q2 -->|Нет облака| SELF[Self-hosted:<br/>Dify или n8n]
Q3 -->|Да| BEDROCK[AWS Bedrock]
Q3 -->|Нет| SELF
Q4 -->|Да| VERTEX[Vertex AI]
Q4 -->|Нет| ADK[Google ADK<br/>open source, локально]
style START fill:#f8fafc,stroke:#4f46e5,stroke-width:3px
style Q1 fill:#f8fafc,stroke:#4f46e5,stroke-width:2px
style Q2 fill:#f8fafc,stroke:#4f46e5,stroke-width:2px
style Q3 fill:#f8fafc,stroke:#4f46e5,stroke-width:2px
style Q4 fill:#f8fafc,stroke:#4f46e5,stroke-width:2px
style DIFY fill:#f0fdf4,stroke:#059669,stroke-width:2px
style N8N fill:#f0fdf4,stroke:#059669,stroke-width:2px
style CODE fill:#f0fdf4,stroke:#059669,stroke-width:2px
style SELF fill:#f0fdf4,stroke:#059669,stroke-width:2px
style BEDROCK fill:#fefce8,stroke:#ca8a04,stroke-width:2px
style VERTEX fill:#fefce8,stroke:#ca8a04,stroke-width:2px
style ADK fill:#f0fdf4,stroke:#059669,stroke-width:2px
Практика: быстрый старт с Dify
Задание 1: Создание RAG-бота за 15 минут
- Разверните Dify локально (см. раздел “Развёртывание Dify + Ollama”)
- Создайте приложение типа “Chatbot”
- В разделе “Knowledge” загрузите 3-5 PDF-документов (например, внутреннюю документацию)
- Подключите Knowledge Base к chatbot
- Настройте системный промпт: роль, стиль ответа, ограничения
- Протестируйте: задайте вопросы по загруженным документам
Критерий успеха: бот отвечает на вопросы, цитируя фрагменты из загруженных документов.
Задание 2: Workflow с условной логикой
- Создайте приложение типа “Workflow”
- Постройте пайплайн:
- Вход: текст пользователя
- LLM-узел: классификация запроса (вопрос / жалоба / предложение)
- Switch-узел: ветвление по результату классификации
- Три ветки: разные промпты для каждого типа запроса
- Выход: сгенерированный ответ
- Протестируйте на 10 разных входных сообщениях
Критерий успеха: запросы корректно классифицируются и обрабатываются разными ветками.
Ссылки и ресурсы
Визуальные платформы
- https://github.com/langgenius/dify — Dify (open source)
- https://docs.dify.ai — документация Dify
- https://github.com/n8n-io/n8n — n8n (fair-code)
- https://docs.n8n.io — документация n8n
- https://github.com/n8n-io/self-hosted-ai-starter-kit — n8n AI Starter Kit
Managed-сервисы
- https://aws.amazon.com/bedrock — AWS Bedrock
- https://cloud.google.com/vertex-ai — Google Vertex AI
- https://github.com/google/adk-python — Google Agent Development Kit (open source)
Альтернативы для self-hosted
- https://github.com/FlowiseAI/Flowise — Flowise (LangChain visual builder)
- https://github.com/logspace-ai/langflow — Langflow (LangChain visual builder)
Заключение
Для разработчиков из РФ наиболее практичный выбор — Dify и n8n. Обе платформы self-hosted, open source, работают с локальными моделями через Ollama. Dify лучше подходит для AI-first задач с RAG. n8n — для бизнес-автоматизации, где AI является одним из компонентов.
Managed-сервисы AWS Bedrock и Google Vertex AI описаны для полноты картины и понимания enterprise-подходов. Их архитектурные решения (Knowledge Bases, Agent Engine, Guardrails) можно реализовать self-hosted аналогами.
Главное правило: визуальные платформы — не замена коду, а инструмент для другой категории задач. Когда логика помещается в блок-схему и не требует нестандартных интеграций — визуальный конструктор экономит дни разработки.