Модуль 1.1 · Урок 1
Урок 1: Что такое AI и LLM?
Содержание
- Чему вы научитесь
- Что такое AI?
- AI → Машинное обучение → Глубокое обучение → LLM
- Что такое LLM (Large Language Model)?
- Аналогия: Очень начитанный студент
- Как это работает? (Упрощённо)
- Токены — атомы текста
- Контекстное окно (Context Window)
- Температура (Temperature)
- Основные LLM модели (2025-2026)
- Как выбрать модель?
- Попробуйте сами
- Ключевые выводы
- Следующий урок
Чему вы научитесь
- Понимать разницу между AI, машинным обучением и LLM
- Объяснить, как языковые модели предсказывают слова
- Знать основные современные LLM модели (GPT-5, Claude, Gemini)
- Освоить понятия токены, контекстное окно и температура
- Выбирать подходящую модель для своих задач
Что такое AI?
Искусственный интеллект (AI) — это обширная область информатики, которая изучает, как создать системы, способные выполнять задачи, которые обычно требуют человеческого ума.
Представьте себе эволюцию:
- Калькулятор → выполняет математику (программирование)
- Шахматный компьютер → учится выигрывать (машинное обучение)
- ChatGPT → понимает и генерирует текст (глубокое обучение + LLM)
AI → Машинное обучение → Глубокое обучение → LLM
flowchart TD
A[AI — Искусственный интеллект] --> B[Машинное обучение]
A --> C[Символический AI]
B --> D[Глубокое обучение — нейросети]
B --> E[Классические методы]
D --> F[Трансформеры]
F --> G["LLM — Большие языковые модели ← ВЫ ЗДЕСЬ"]
Что такое LLM (Large Language Model)?
LLM — это большая языковая модель, нейросетевая система, обученная на миллиардах слов из интернета, книг, статей и других текстов.
Аналогия: Очень начитанный студент
Представьте студента, который прочитал миллионы книг и статей. Вы начинаете предложение: “Столица России это…”
Студент интуитивно знает, что следующее слово — “Москва”, потому что прочитал это тысячи раз. LLM работает точно так же, но математически:
- Модель видит: “Столица России это” → предсказывает вероятности слов
- Выбирает самое вероятное: “Москва” (90% уверенность)
- Теперь модель видит: “Столица России это Москва” → предсказывает следующее слово
- Продолжает процесс, слово за словом
Как это работает? (Упрощённо)
Токены — атомы текста
Модель не работает со словами напрямую. Она разбивает текст на токены (небольшие куски):
"Привет, мир!" →
["При"] + ["вет"] + [","] + [" мир"] + ["!"]
Один токен — это фрагмент текста длиной до 4 символов (и в английском, и в русском).
Пример:
Текст: "Привет мир"
Токены: ["При", "вет", " мир"]
Количество токенов: 3
Токенизатор
Приблизительная оценка. Реальная токенизация зависит от модели.
Контекстное окно (Context Window)
Это максимальное количество токенов, которое модель может “видеть” одновременно.
Контекстное окно = "память" модели в одном разговоре
Пример:
- GPT-5: 128K токенов (≈ 96 000 слов)
- Claude Sonnet 4.6: 200K токенов (≈ 150 000 слов)
- Gemini 2.5 Flash: 1M токенов (≈ 750 000 слов)
Если ваш контекст больше, чем окно, модель забывает ранние сообщения.
Температура (Temperature)
Параметр, который контролирует “творчество” модели.
flowchart LR
A["0: факты и код<br/>точно, предсказуемо"] --> B["0.5: универсально<br/>баланс точности<br/>и гибкости"]
B --> C["1+: творчество<br/>нестандартно,<br/>риск неточностей"]
Пример:
- Задача: “Продолжите: Небо это…”
- Температура 0: “голубое” (самое вероятное)
- Температура 0.7: “голубое” или “прекрасное” или “безграничное”
- Температура 2: “пластилиновое” или “танцующее”
Шкала температуры
Промпт: «Продолжите: Небо сегодня...»
Небо сегодня напоминает акварель художника, где бирюзовый переливается в золотой на горизонте.
Основные LLM модели (2025-2026)
| Модель | Компания | Контекст | Цена (вход/выход) | Лучше всего для |
|---|---|---|---|---|
| GPT-5 | OpenAI | 128K токенов | $1,25/$10 / 1M | Мультимодальность, рассуждения |
| Claude Sonnet 4.6 | Anthropic | 200K токенов | $3/$15 / 1M | Длинные документы, код, анализ |
| Gemini 2.5 Flash | 1M токенов | $0,30/$2,50 / 1M | Огромные контексты, мультимодальность | |
| GigaChat 2 | Сбер | 128K токенов | от 0,40 ₽ / 1K токенов | Русский язык, локальность |
| YandexGPT 5 | Яндекс | 32K токенов | от 0,20 ₽ / 1K токенов | Быстрые ответы на русском |
Как выбрать модель?
Нужна универсальная помощь? → GPT-5 или Claude Много текста за раз? → Claude или Gemini Работаете на русском? → GigaChat или YandexGPT Бюджет ограничен? → Gemini Flash (бесплатно) или YandexGPT Нужен лучший код? → Claude или GPT-5
Попробуйте сами
- Откройте ChatGPT, Claude, или Gemini
- Задайте вопрос: “Объясни как работает фотосинтез в 3 предложениях”
- Скопируйте ответ в текстовый редактор
- Задайте тот же вопрос с температурой выше (если ваш интерфейс позволяет)
- Сравните ответы — какой отличается?
Домашнее задание: Выберите одну модель и попробуйте 3 разных вопроса. Какая вам нравится больше?
Ключевые выводы
- LLM — это нейросети, которые предсказывают текст слово за словом, как очень начитанный студент
- Токены — это куски текста (до 4 символов), а не целые слова
- Контекстное окно — это память модели; больше окно = может обработать больше информации за раз
- Температура контролирует креативность: 0 = скучно и точно, высокая = творчески и рискованно
- Выбор модели зависит от задачи: универсальность, размер контекста, язык, цена
Следующий урок
Урок 2: Чатбот vs Агент — Что дальше? Узнаем, как LLM превращаются в полноценных помощников, которые не только отвечают, но и действуют!