Dropout и регуляризация: почему без них ML не работает

📌 Запишись на закрытую online-экскурсию в MLinside — покажем, как проходит обучение, кураторов и реальные домашки. Для участников экскурсии — бонусы и скидки. Telegram для записи: @marinagartm Анкета предзаписи на курс:
Курс «База ML»:
Курс «ML в бизнесе»:
Telegram:
Почему модели переобучаются и как заставить их работать стабильно? В этом видео Александр Дубейковский объясняет регуляризацию простыми словами: что делают L1, L2 и Dropout, почему они спасают модель от переобучения и как эти темы встречаются на собеседованиях ML-инженеров. В этом видео: • Что такое регуляризация и зачем она нужна. • Чем отличаются L1 и L2 — и почему L1 обнуляет веса. • Как работает Dropout на примере футбольной команды. • Как подбирать коэффициент λ и избегать переобучения. • Как эти темы спрашивают на ML-собеседованиях. Видео будет полезно тем, кто: • готовится к собеседованию ML/Data Science; • хочет глубже понимать, как обучаются модели; • учит ML и боится математики. Спикер: Александр Дубейковский — ML-эксперт, 3 года в Яндексе, сейчас в Авито, преподаватель и ментор MLinside. Наш курс «База ML» помогает студентам разбираться в математике, практике и продакшене машинного обучения. #машинноеобучение #datascience #регуляризация #MLinside Если вам понравилось видео — поставьте лайк и подпишитесь на канал MLinside. Здесь выходят разборы по машинному обучению, подготовке к собеседованиям и развитию карьеры в Data Science. Таймкоды: 00:00 — Введение: зачем вообще нужна регуляризация 00:55 — Проблема переобучения и как она ломает модель 02:08 — L1-регуляризация: идея и интуитивное объяснение 03:58 — L2-регуляризация: отличие от L1 и ключевые плюсы 05:18 — Dropout: зачем случайно отключать нейроны 07:03 — Сравнение L1, L2 и Dropout: где и когда применять 09:07 — Итоги: как регуляризация помогает пройти ML-собес и выжить в продакшене

Смотрите также