Онлайн-курс «LLM-инженер (Инженер по работе с большими языковыми моделями)»

Создавай, обучай и внедряй большие языковые модели (LLM)
6 месяцев
70% практики
2 онлайн-занятия в неделю
старт курса 04.06
Регистрация на мастер-класс
Менеджер перезвонит и ответит на ваши вопросы

Что даст курс?

Инструменты
PyTorch (набор программных инструментов для глубокого обучения моделей)
Transformers (набор программных инструментов для работы с трансформерными моделями)
TRL (набор программных инструментов обучения моделей с подкреплением)
bitsandbytes (набор программных инструментов квантизации моделей)
Unsloth (набор программных инструментов ускоренного обучения языковых моделей)
accelerate (набор программных инструментов распределённого обучения моделей)
Qdrant (программная база данных векторных представлений данных)
FAISS (набор программных инструментов поиска по векторным представлениям данных)
LangChain (набор программных инструментов для разработки приложений на основе языковых моделей)
LangGraph (набор программных инструментов графовой организации агентных процессов)
vLLM (набор программных инструментов быстрого запуска и выполнения языковых моделей)
SGLang (набор программных инструментов структурированной генерации данных языковыми моделями)
llama.cpp (набор программных инструментов локального запуска языковых моделей)
ollama (набор программных инструментов упрощённого локального запуска языковых моделей)
Docker (программная платформа контейнеризации приложений)
Langfuse (набор программных инструментов мониторинга работы языковых моделей)
MLflow (программная платформа управления экспериментами машинного обучения)
DeepEval (набор программных инструментов оценки качества ответов языковых моделей)
RAGAs (набор программных инструментов оценки генерации ответов с использованием извлечённых данных)
Навыки
Строить эффективные системы генерации с дополнением поиска (RAG) с использованием программных библиотек LangChain и LangGraph
Оценивать качество больших языковых моделей (LLM) и систем генерации с дополнением поиска (RAG) с помощью метрик DeepEval, ROUGE и BERTScore
Разрабатывать интеллектуальных программных агентов (AI-агентов) и мультиагентные системы
Применять методы рассуждения, включая алгоритмы ReAct и Tree of Thoughts
Разворачивать большие языковые модели (LLM) и чат-ботов с помощью современных инструментов
Отслеживать и версионировать (сохранять версии) поведение моделей и пользовательских запросов
Устранять галлюцинации и защищать системы на основе больших языковых моделей (LLM) от уязвимостей
Разбираться в архитектурах современных больших языковых моделях (LLM)
Запускать и адаптировать модели с открытым исходным кодом (open source) под свои задачи
Настраивать модели с помощью тонкой настройки (fine-tuning) и метода эффективной параметрической настройки (PEFT)
Использовать методы обучения с подкреплением на основе человеческой обратной связи (RLHF), включая оптимизацию по предпочтениям (Direct Preference Optimization, DPO) и проксимальную оптимизацию политики (Proximal Policy Optimization, PPO)
Снижать ресурсоёмкость моделей с помощью квантования и дистилляции
Обрабатывать тексты: разбор текста (парсинг), разделение на части (чанкинг), предварительную обработку (препроцессинг)
Работать с энкодерами (моделями преобразования текста в векторы) и векторными базами данных
Настраивать и оптимизировать системы информационного поиска

Возможность создать проект на основе больших языковых моделей (LLM)

Освоив технологии разработки на основе больших языковых моделей (LLM), вы сможете запускать собственные проекты с нуля и создавать решения на базе передовых технологий.

Улучшить существующие сервисы

возможность создавать и оптимизировать большие языковые модели (LLM) для реальных задач, повышая эффективность бизнес-процессов и улучшая качество сервисов.

Как большие языковые модели (LLM) меняют мир вокруг нас?

Napoleon IT внедрил большую языковую модель для анализа клиентских отзывов в ритейле и электронной коммерции
Модель автоматически определяет тональность, категории и ключевые инсайты, обрабатывая до 1000 отзывов в секунду. Использование технологии ускорило работу с обратной связью, улучшило понимание потребностей клиентов и повысило точность управленческих решений.
1/5
Альфа-Банк внедрил GIGACHAT на базе LLM (больших языковых моделей) для автоматизации клиентской поддержки
Модель обрабатывает запросы по 10 популярным темам, включая кредитные и дебетовые карты, а также программы лояльности. Использование модели повысило точность обработки запросов, ускорило ответы и улучшило клиентский опыт — зафиксирован рост индекса лояльности клиентов (NPS).
2/5
Яндекс внедрил YandexGPT 5 Pro и мультимодальную нейросеть VLM в виртуального помощника Алиса
Модели улучшили рассуждения, работу с файлами и произношение на английском языке. Использование технологий повысило точность и естественность общения с пользователями.
3/5
СберЗдоровье использует ассистента на больших языковых моделях, который предварительно обрабатывает жалобы пациентов в текстовом виде и подсказывает врачу возможные направления диагностики
Это сокращает длительность приёма, снижает рутинную нагрузку и ускоряет заполнение медицинской документации.
4/5
Siemens и Microsoft анонсировали масштабирование Industrial Copilot — ИИ-ассистента для промышленности
Уже более 100 компаний, включая Schaeffler и thyssenkrupp, используют Copilot (инструмент помощи в программировании) для повышения эффективности и сокращения времени простоя. Copilot ускоряет создание кода автоматизации, сокращая время моделирования с недель до минут.
5/5

Какой формат курса?

Продолжительность курса 25 недель
Занятия по вторникам и четвергам с 19:00 до 21:00 Мск
Регулярные запланированные каникулы для отдыха после больших модулей
Доступ к записям всех теоретических и практических занятий курса
Соотношение практики и теории 70/30
Старт курса
04
июня

Кому подойдет этот курс?

Студенты и выпускники

бакалавриатов в области ИТ и машинного обучения

Специалисты с опытом в программировании

на языке Python и в области машинного обучения, желательно с опытом работы с библиотеками PyTorch и Hugging Face

Разработчики

желающие перейти в область ИИ-инженерии или улучшить свои навыки в обработке естественного языка (NLP) и разработке с использованием больших языковых моделей (LLM)

Хотите понять, подходит ли вам данный курс?

Программа курса

Раздел 1

Выравнивающий

1/
Обработка естественного языка (NLP) — от базы до глубокого обучения
Лекция: Задачи обработки естественного языка и уровни представления текста; сегментация, нормализация, токенизация (разделение текста на слова или значимые части), стемминг / лемматизация (приведение слов к корневой или базовой форме); векторизация (преобразование текста в числовые представления) с использованием мешка слов (Bag of Words — BoW) и взвешивания важности слов (TF-IDF); модели векторного представления слов: Word2Vec, GloVe, FastText; меры близости и оценка эмбеддингов (оценка качества векторных представлений).
Лекция: сбор данных (парсинг), очистка и предобработка, обучение модели для классификации текстов.
2/
Механизм внимания и трансформеры
Лекция: Encoder-Decoder (кодировщик и декодировщик), self-attention (механизм внимания к своим частям в модели), multi-head self-attention (многоголовый механизм внимания к своим частям в модели), positional encoding (позиционное кодирование), residual / normalization (остаточные связи и нормализация), MLP (многослойный перцептрон)
Практика: детальный разбор блоков трансформера и изучение экосистемы библиотеки Hugging Face.
3/
Эволюция трансформеров до наших дней
Лекция: сравнение моделей encoder-only, decoder-only и encoder-decoder (архитектуры и детали обучения), алгоритмы токенизации и их влияние на качество модели 
Практика: разделение текста на элементы на практике, алгоритмы выбора/выборки (семплирования) и параметры генерации текста — ключевые тонкости.
Лекция: ключевые концепции современных трансформеров — эволюция архитектуры до наших дней.
Раздел 2

Современные LLM (большие языковые модели)

1/
Современные большие языковые модели (LLM — Large Language Models)
Лекция: Закрытые и открытые модели (Close vs Open models);

Этапы обучения: предварительное обучение (Pretraining), тонкая настройка с учителем (Supervised Fine-Tuning), тонкая настройка на инструкциях (Instruction-tuning), выравнивание модели (Alignment);

Бенчмарки, схема выбора модели под задачу, сбор данных для обучения (прайсинг).
Лекция: Адаптация к новой области данных (Domain adaptation), адаптация к конкретной задаче (Task adaptation) и перенос знаний (Transfer learning);

Выбор стратегии адаптации; тонкая настройка с учителем (SFT), продолжающееся предварительное обучение (CPT);

Обзор задач нижнего уровня (downstream-задач) и способов сбора данных для дообучения;

Контрастивное дообучение энкодеров (моделей, преобразующих текст в векторные представления).
2/
Эффективное обучение больших языковых моделей (LLM)
Лекция: смешанная точность вычислений (Mixed Precision), сохранение контрольных точек градиента (gradient checkpointing), накопление градиентов (gradient accumulation);

PEFT (эффективная тонкая настройка с малым количеством параметров);
Архитектуры параллельной обработки; нюансы применения оптимизаций.
Практика: Тонкая настройка больших языковых моделей (LLM) и энкодеров, использование обученя моделей с подкреплением (PEFT и TRL), сравнение методов дообучения.
3/
Ускорение больших языковых моделей (LLM)
Лекция: Ключевые аспекты ускорения и оптимизации работы инференса больших языковых моделей (LLM) — метрики производительности, профилирование, ограничения по памяти и вычислительным ресурсам (memory-bound vs compute-bound);

Этапы предварительного заполнения и генерации (prefill-decode), KV-cache и его оптимизации, пакетная обработка (батчинг), спекулятивная генерация, квантование, дистилляция.
Практика: Профилирование больших языковых моделей (LLM) с помощью PyTorch Profiler;

Cравнение этапов предварительного заполнения и генерации (prefill vs decode);

Типичные узкие места и способы ускорения;

Сравнение инструментов и влияние разрядности на качество квантования;

Использование QLoRA;
4/
RLHF и выравнивание моделей (Alignment)
Лекция: Определение и цели выравнивания моделей (alignment);

Классическое обучение с подкреплением на основе человеческой обратной связи (RLHF); 

Метод оптимизации политики с проксимальным обновлением (PPO); 
модели вознаграждения (reward-модели — модели, предсказывающие предпочтения человека) и особенности их применения; 

Обучение с подкреплением на основе обратной связи от ИИ (RLAIF) и выравнивание модели по набору правил и принципов (Constitutional AI); 

Прямая оптимизация предпочтений (DPO), оптимизация на основе теории перспектив (KTO), групповая оптимизация предпочтений (GRPO); 

Выбор метода в зависимости от задачи.
Практика: Применение прямой оптимизации предпочтений (DPO) с использованием набор инструментов для обучения с подкреплением (TRL);

Оценка качества ответов с помощью большой языковой модели (LLM-as-Judge) и метод best-of-N (выбор лучшего из нескольких сгенерированных вариантов) с повторным ранжированием по модели вознаграждения; детекторы токсичности; 

Применение Constitutional AI (выравнивание по набору правил); 

Построение пайплайна резервных решений (fallback-механизм переключения на альтернативную модель или сценарий при ошибке).
5/
Проектирование систем на основе LLM (больших языковых моделей)
Лекция: особенности проектирования системы на основе больших языковых моделей (LLM) «от начала до конца» (end-to-end пайплайна) под конкретную задачу — работа с требованиями, выбор стратегии адаптации модели, построение схемы оценивания качества (офлайн-оценивание и онлайн-оценивание).
Раздел 3

Advanced LLM (продвинутые большие языковые модели)

1/
Мультимодальность и сложные рассуждения
Лекция: Основные концепции мультимодальности (multimodality), исторически ключевые архитектуры, мультимодальные большие языковые модели (multimodal LLM), практические кейсы применения визуально-языковых моделей (VLLM). 

Стадии предварительного обучения (pretraining) VLLM, эталонные тесты (benchmarks). 

Рассуждение (reasoning): определение, варианты архитектурной реализации, преимущества и ограничения, эволюция подходов к рассуждению, современные методы улучшения.
2/
Практическая интерпретируемость LLM и трансформеров
Практика: Сравнение методов интерпретации моделей для архитектур кодировщика (encoder) и декодировщика (decoder), использование метода локальной интерпретации моделей (LIME) и библиотеки интерпретации моделей для PyTorch (Captum).
3/ Инфраструктура обучения
Практика: Жизненный цикл больших языковых моделей (LLM); 
сравнение операционных практик управления жизненным циклом моделей (LLMOps) и практик эксплуатации систем машинного обучения (MLOps); 

Версионирование моделей (versioning), отслеживание экспериментов (experiment tracking), распределённое обучение (distributed training), реестр моделей (model registry), непрерывная интеграция и доставка (CI/CD).

Распределённое обучение на практике с использованием библиотеки Accelerate — сравнение распределённой параллельной обработки данных (DDP, Distributed Data Parallel) и оптимизации распределённого обучения (ZeRO).
4/ Эволюция архитектур
Лекция: Ограничения архитектуры трансформеров (transformers) и мотивация альтернативных архитектур; 

Трансформер без механизма внимания (Attention-Free Transformer); 
подходы на основе пространственных моделей состояний (SSM, State Space Models); 

Архитектуры RWKV, Mamba и xLSTM.

Преимущества курса

Индивидуальная поддержка менторов
Обучение проводится экспертами и руководителями ведущих ИТ-компаний страны, которые в ежедневном формате работают с большими языковыми моделями и системами дополненной генерации (RAG). Они дают персональную обратную связь по проектам на каждом модуле.
Портфолио проектов, готовых к реальному использованию в компании
Создайте полноценный проект на основе больших языковых моделей (LLM) и подготовьте его к промышленному внедрению (production). Такие кейсы напрямую повышают конкурентоспособность специалистов на рынке.
Гарантированный карьерный рост
Освойте востребованный технологический стек разработки систем на основе больших языковых моделей (LLM) и станьте инженером, способным внедрять решения искусственного интеллекта в реальные продукты. Участники курсов отмечают рост зарплат и переход в лидирующие ИТ-компании после практической работы с системами дополненной генерации (RAG) и агентами.
Освоение передовых технологий
Изучите инструменты для работы с большими языковыми моделями (LLM), включая библиотеку машинного обучения PyTorch, платформу для разработки моделей Hugging Face и систему высокопроизводительного запуска языковых моделей vLLM.
Диплом о профессиональной переподготовке
По итогам обучения вы получаете диплом о профессиональной переподготовке установленного образца. Такой документ официально фиксирует новую квалификацию и воспринимается работодателями как подтверждение профильного образования, а не просто прохождения краткого курса.

Эксперты курса

  • Потехин Александр
    NLP Lead X5 Tech (ведущий специалист по обработке естественного языка)
  • Соломатин Роман
    ML Engineer (LLM, Ops) X5 Tech (инженер машинного обучения, специализация: большие языковые модели и операции с моделями)
  • Андреева Дарья
    ML Engineer (NLP) X5 Tech (Инженер машинного обучения, специализация: обработка естественного языка)
  • Желтова Кристина
    Газпромбанк, директор по разработке моделей
  • Кокуйкин Евгений
    Генеральный директор HiveTrace

Корпоративное обучение

Учитесь командой
Присоединяйтесь к основному потоку курса всей командой (от 3 человек)​
Скидки для команды
10% при регистрации 3+ человек.
Совместная практика
RAG-системы (системы дополненной генерации), агенты (автономные ИИ-агенты), fine-tuning (тонкая настройка модели) — применяйте к вашим задачам вместе с менторством.
Обучение для бизнеса
Обучите команду специалистов по инженерии больших языковых моделей (LLM) «под ключ»: от систем дополненной генерации (RAG) до агентов с кастомизацией под задачи вашего бизнеса.
226 000 ₽
175 000 ₽
226 000 ₽
Стоимость курса при 100% оплате
31 481 ₽/мес
37 667 ₽/мес
при рассрочке на 6 месяцев
Записаться на консультацию
Менеджер перезвонит и ответит на ваши вопросы
при рассрочке на 6 мес

Стоимость курса

Learn more

Вопросы и ответы

Есть сомнения? Запишитесь на бесплатный вводный урок
Корпоративное обучение
Менеджер перезвонит и ответит на ваши вопросы
Консультация
Менеджер перезвонит и ответит на ваши вопросы