YandexGPT 5
Lite-версия доступна для дообучения через Yandex Cloud API с марта 2026. Базовая модель — 8B параметров
от 500
примеров в обучающей выборке — минимум для заметного улучшения качества ответов в узкой задаче
~3–5 ₽
стоимость запроса к дообученной модели YandexGPT 5 Lite в тысячах токенов (дороже базовой в 2–3 раза)
Fine-tuning — процесс дообучения базовой языковой модели на собственных данных для улучшения качества в конкретной задаче. YandexGPT 5 Lite открыл эту возможность для российских компаний без необходимости арендовать GPU-кластер и строить MLOps-инфраструктуру с нуля. Разберём, когда fine-tuning оправдан, как его запустить и каких ошибок избежать.
Fine-tuning vs промпт-инжиниринг: когда что выбирать
Fine-tuning — не первый шаг. Перед тем как тратить время и деньги на дообучение, стоит убедиться, что промпт-инжиниринг (включая few-shot примеры) уже исчерпан.
| Задача | Промпт | Fine-tuning |
|---|---|---|
| Изменить тон ответов | Достаточно | Избыточно |
| Следовать корпоративному стилю | Few-shot (5–10 примеров) | Если >50 правил стиля |
| Классификация по 10+ категориям | Нестабильно | Оправдано |
| Извлечение структурированных данных из документов | Работает, но нестабильно | Улучшает стабильность |
| Знание предметной области (медицина, право, техника) | RAG эффективнее | Только если RAG не работает |
Ключевое правило: сначала RAG (Retrieval-Augmented Generation) для фактических знаний, промпт-инжиниринг для форматирования, fine-tuning — для поведенческих паттернов, которые нельзя описать промптом.
Подготовка данных: самая важная часть
Качество дообучения на 80% определяется качеством данных. Типичные ошибки:
Маленькая выборка. Меньше 200–300 примеров — модель переобучается на шум. Минимум для заметного улучшения: 500+ примеров для узкой задачи, 2000+ для задачи со сложными паттернами.
Несбалансированные классы. Если 90% примеров одного класса — модель научится предсказывать только его. Балансировать: не более 3:1 между классами.
Загрязнённые данные. Противоречивые примеры (один и тот же вход → разные выходы) сильно ухудшают качество. Перед обучением: дедупликация, проверка согласованности.
Формат данных для YandexGPT fine-tuning (JSONL):
{"messages": [
{"role": "system", "text": "Ты помощник по классификации обращений"},
{"role": "user", "text": "Не работает оплата картой"},
{"role": "assistant", "text": "Категория: технический сбой / подкатегория: платёжная система"}
]}
Процесс дообучения в Yandex Cloud
Yandex Cloud предоставляет managed fine-tuning через API (консоль + REST). Основные шаги:
- Загрузить данные в Yandex Object Storage — файл в формате JSONL, максимальный размер 500 МБ
- Создать задачу дообучения через консоль Yandex Cloud (раздел «Yandex Foundation Models») или API
- Выбрать базовую модель — YandexGPT 5 Lite для большинства задач, YandexGPT 5 Pro для сложных задач с большим контекстом
- Настроить гиперпараметры — в managed-режиме Yandex Cloud автоматически выбирает learning rate и количество эпох на основе размера выборки. Для первого запуска — оставить автоматику.
- Дождаться завершения — среднее время обучения на 1000 примерах: 20–60 минут
- Тестировать в playground перед интеграцией в продакшен
Оценка качества: что и как мерить
Без метрики нельзя понять, помогло ли дообучение. Зависит от задачи:
- Классификация — accuracy, F1 по классам. Нужен hold-out тест (10–20% данных не использовать при обучении)
- Генерация текста — ROUGE/BLEU (автоматически) + человеческая оценка (выборка 50–100 примеров, оценщик сравнивает базовую и дообученную модель вслепую)
- Диалоговые задачи — процент «сходов с рельс» (ответы не по теме), следование инструкциям
Красный флаг: если дообученная модель хуже базовой на hold-out — данные некачественные или выборка слишком маленькая. Не деплоить, разбираться с данными.
Стоимость и ROI
Стоимость fine-tuning в Yandex Cloud складывается из трёх частей: обучение (оплата compute-времени), хранение модели (помесячно), инференс (дороже базовой в 2–3 раза из-за отдельного деплоя).
Fine-tuning оправдан экономически, если: дообученная модель заменяет более дорогую базовую (YandexGPT Pro → Lite с сопоставимым качеством), или сокращает длину промпта (меньше few-shot примеров = меньше токенов = дешевле инференс).
FAQ о fine-tuning YandexGPT
Нужен ли fine-tuning, или хватит RAG?
Для задач, требующих знания фактов из корпоративных документов — RAG эффективнее и дешевле. Fine-tuning оправдан для поведенческих паттернов: специфичный стиль ответов, классификация, извлечение структурированных данных. Начинайте с промпт-инжиниринга + RAG, fine-tuning — третий шаг.
Сколько данных нужно для fine-tuning YandexGPT?
Минимум — 500 качественных примеров для узкой задачи. Для задач с множеством паттернов — 2000+. Качество важнее количества: 500 чистых примеров лучше 5000 зашумлённых.
Можно ли использовать дообученную модель в продакшене с требованиями по 152-ФЗ?
Да — данные обучения и сама модель хранятся в Yandex Cloud (российская юрисдикция). Инференс также происходит в российской инфраструктуре. Для обработки персональных данных убедитесь в наличии соответствующего договора с Яндексом (соглашение об обработке ПДн).