Перейти к содержимому
NEWЧат с 15 ИИ-моделями — попробуйте бесплатно / имейте совесть, когда будете делиться или копировать
>AISTUDY_

Модуль 1.1 · Урок 1

Урок 1: Что такое AI и LLM?

25 мин
Теория
1.1 / Урок 1 из 4

Чему вы научитесь

  • Понимать разницу между AI, машинным обучением и LLM
  • Объяснить, как языковые модели предсказывают слова
  • Знать основные современные LLM модели (GPT-5, Claude, Gemini)
  • Освоить понятия токены, контекстное окно и температура
  • Выбирать подходящую модель для своих задач

Что такое AI?

Искусственный интеллект (AI) — это обширная область информатики, которая изучает, как создать системы, способные выполнять задачи, которые обычно требуют человеческого ума.

Представьте себе эволюцию:

  • Калькулятор → выполняет математику (программирование)
  • Шахматный компьютер → учится выигрывать (машинное обучение)
  • ChatGPT → понимает и генерирует текст (глубокое обучение + LLM)

AI → Машинное обучение → Глубокое обучение → LLM

flowchart TD
  A[AI — Искусственный интеллект] --> B[Машинное обучение]
  A --> C[Символический AI]
  B --> D[Глубокое обучение — нейросети]
  B --> E[Классические методы]
  D --> F[Трансформеры]
  F --> G["LLM — Большие языковые модели ← ВЫ ЗДЕСЬ"]

Что такое LLM (Large Language Model)?

LLM — это большая языковая модель, нейросетевая система, обученная на миллиардах слов из интернета, книг, статей и других текстов.

Аналогия: Очень начитанный студент

Представьте студента, который прочитал миллионы книг и статей. Вы начинаете предложение: “Столица России это…”

Студент интуитивно знает, что следующее слово — “Москва”, потому что прочитал это тысячи раз. LLM работает точно так же, но математически:

  1. Модель видит: “Столица России это” → предсказывает вероятности слов
  2. Выбирает самое вероятное: “Москва” (90% уверенность)
  3. Теперь модель видит: “Столица России это Москва” → предсказывает следующее слово
  4. Продолжает процесс, слово за словом

Как это работает? (Упрощённо)

Токены — атомы текста

Модель не работает со словами напрямую. Она разбивает текст на токены (небольшие куски):

"Привет, мир!" →
["При"] + ["вет"] + [","] + [" мир"] + ["!"]

Один токен — это фрагмент текста длиной до 4 символов (и в английском, и в русском).

Пример:

Текст: "Привет мир"
Токены: ["При", "вет", " мир"]
Количество токенов: 3

Токенизатор

Привет, мир! Как дела?
14 токенов·~1.6 символов на токен·~$0.000035 стоимость (GPT-4o)

Приблизительная оценка. Реальная токенизация зависит от модели.

Контекстное окно (Context Window)

Это максимальное количество токенов, которое модель может “видеть” одновременно.

Контекстное окно = "память" модели в одном разговоре

Пример:

  • GPT-5: 128K токенов (≈ 96 000 слов)
  • Claude Sonnet 4.6: 200K токенов (≈ 150 000 слов)
  • Gemini 2.5 Flash: 1M токенов (≈ 750 000 слов)

Если ваш контекст больше, чем окно, модель забывает ранние сообщения.

Температура (Temperature)

Параметр, который контролирует “творчество” модели.

flowchart LR
  A["0: факты и код<br/>точно, предсказуемо"] --> B["0.5: универсально<br/>баланс точности<br/>и гибкости"]
  B --> C["1+: творчество<br/>нестандартно,<br/>риск неточностей"]

Пример:

  • Задача: “Продолжите: Небо это…”
  • Температура 0: “голубое” (самое вероятное)
  • Температура 0.7: “голубое” или “прекрасное” или “безграничное”
  • Температура 2: “пластилиновое” или “танцующее”

Шкала температуры

0.7
0Точно0.5Сбалансировано1Творчески2Хаотично

Промпт: «Продолжите: Небо сегодня...»

Небо сегодня напоминает акварель художника, где бирюзовый переливается в золотой на горизонте.

Подходит для:Переписка, статьи, перевод

Основные LLM модели (2025-2026)

МодельКомпанияКонтекстЦена (вход/выход)Лучше всего для
GPT-5OpenAI128K токенов$1,25/$10 / 1MМультимодальность, рассуждения
Claude Sonnet 4.6Anthropic200K токенов$3/$15 / 1MДлинные документы, код, анализ
Gemini 2.5 FlashGoogle1M токенов$0,30/$2,50 / 1MОгромные контексты, мультимодальность
GigaChat 2Сбер128K токеновот 0,40 ₽ / 1K токеновРусский язык, локальность
YandexGPT 5Яндекс32K токеновот 0,20 ₽ / 1K токеновБыстрые ответы на русском

Как выбрать модель?

Нужна универсальная помощь? → GPT-5 или Claude Много текста за раз? → Claude или Gemini Работаете на русском? → GigaChat или YandexGPT Бюджет ограничен? → Gemini Flash (бесплатно) или YandexGPT Нужен лучший код? → Claude или GPT-5

Попробуйте сами

  1. Откройте ChatGPT, Claude, или Gemini
  2. Задайте вопрос: “Объясни как работает фотосинтез в 3 предложениях”
  3. Скопируйте ответ в текстовый редактор
  4. Задайте тот же вопрос с температурой выше (если ваш интерфейс позволяет)
  5. Сравните ответы — какой отличается?

Домашнее задание: Выберите одну модель и попробуйте 3 разных вопроса. Какая вам нравится больше?

Ключевые выводы

  • LLM — это нейросети, которые предсказывают текст слово за словом, как очень начитанный студент
  • Токены — это куски текста (до 4 символов), а не целые слова
  • Контекстное окно — это память модели; больше окно = может обработать больше информации за раз
  • Температура контролирует креативность: 0 = скучно и точно, высокая = творчески и рискованно
  • Выбор модели зависит от задачи: универсальность, размер контекста, язык, цена

Следующий урок

Урок 2: Чатбот vs Агент — Что дальше? Узнаем, как LLM превращаются в полноценных помощников, которые не только отвечают, но и действуют!

Скачать урок

Есть идея или нашли ошибку?

// Обсуждение

Можно писать анонимно. Укажите email, чтобы получать уведомления об ответах.