Правда о трюках с нейронными сетями, которую вам никто не расскажет

📌 Заполни анкету прямо сейчас и получи чек-лист «15 самых популярных вопросов с собеседований и ответы на них» Анкета предзаписи:
Курс «База ML»:
Курс «ML в бизнесе»:
Telegram MLinside:
Почему нейросеть с точностью 99% на тренировке может полностью провалиться на новых данных? Причина — переобучение. Чтобы с ним справиться, инженеры придумали целый набор хитростей: Dropout, BatchNorm, Residual Connections и другие. Эти методы стали фундаментом современных нейросетей и позволяют обучать модели глубже, быстрее и стабильнее. Андрей Жогов — ML-инженер в Сбере, преподаватель Физтеха и методист Data Science — объясняет простыми словами, зачем придумали Dropout, BatchNorm и другие трюки, которые спасают модели от переобучения и нестабильности. В этом видео: • Почему нейросети «зубрят» данные и как это ломает модель • Dropout: случайное отключение нейронов как защита от переобучения • Residual Connections: как строить сверхглубокие сети без затухания градиента • Gradient Clipping: способ спасти обучение от «взрыва» • BatchNorm и LayerNorm: стабилизация работы сети через нормализацию • Лайфхак: тест на переобучение одного батча, который экономит часы обучения Подходит тем, кто: • учит глубокое обучение и хочет понимать практические приёмы • готовится к собеседованию в ML / Data Science • работает с нейросетями и хочет быстрее находить ошибки в обучении Это часть серии MLinside — честно, по делу и без лишней воды. Таймкоды: 00:00 — Пример с учеником: что такое переобучение в нейросетях 01:33 — Dropout: случайное отключение нейронов против зубрёжки 02:19 — Residual Connections: как бороться с затуханием градиента 03:09 — Gradient Clipping: защита обучения от взрыва градиентов 03:52 — Batch Normalization: решение проблемы «движущейся мишени» 05:11 — Layer Normalization: альтернатива для трансформеров и маленьких батчей 06:16 — Лайфхак: тест на переобучение одного батча за 5 минут

Смотрите также