LLM. Валентин Мамедов | Под Капотом

#largelanguagemodels #llm #deeplearning #career #nlp #ai Записывайтесь на курс по LLM:
Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы говорили с Валей Мамедовым, инженером из SberDevices, про LLM. Телеграм Вали: @vltnmmdv. Ещё мы упоминали: Канал Янника:    / yannickilcher   Ollama:
RWKV:
Floating points visualized:
00:00:00 | Вступление 00:00:20 | Как Валя попал в мир LLM 00:09:05 | Переход от задач с небольшими требованиями к обучению гигантов 00:11:25 | Разделение обязанностей в LLM-командах 00:12:55 | Про ускорение 00:14:55 | Flash Attention 00:17:45 | Memory wall и «простаивающие» видеокарты 00:18:57 | За счёт чего LLM можно запустить на макбуке, если для тренировки нужны датацентры. Этапы тренировки LLM 00:38:15 | Чем процесс вывода в прод LLM отличается от «обычных» ML-процессов 00:40:55 | Про датасеты. Берём все данные и закидываем или тщательно выверяем 00:44:15 | Кризис данных 00:45:55 | Качество vs количество данных 00:48:20 | Насколько качественно решаются задачи и можно ли отправить модель в свободное плавание 00:50:36 | Концептуальные для качества LLM 00:51:34 | Как сделать, чтоб модель не советовала плохого 00:53:20 | Open Source vs коммерческие модели 00:55:36 | Почему ChatGPT так долго лучше всех 00:57:14 | Облачные модели vs «карманные» 00:59:50 | Чем пользуется Валя 01:01:50 | Модель «под себя» vs модель, которая всё и сразу 01:04:12 | Огромный контекст vs RAG 01:07:23 | Как оценивать качество LLM. Бенчмарки 01:14:15 | Трансформеры с нами навсегда или стоит ждать новых архитектур

Смотрите также