LLM Scaling Week: Ускорение и оптимизация больших языковых моделей
LLM Scaling Week — интенсив от ШАДа и Яндекс Образования для тех, кто хочет научиться ускорять большие языковые модели и использовать их эффективнее.
Лекции на основе реальных кейсов от инженеров команды YandexGPT. Темы, которые помогут в реальных задачах.
- Как устроены коммуникации в распределенном обучении и инференсе
- Современные подходы к увеличению эффективности обучения LLM: от FP8 и Triton до параллелизмов и Mixture of Experts
- Как не сжигая бюджет перейти с одной до десятка GPU
- Арифметика глубокого обучения и Inference challenges
Рекомендуем тем, кто хочет делать LLM быстрее и дешевле по ресурсам и повысить свою ценность на рынке. Вот ссылка на регистрацию.


