Что на самом деле спрашивают на собеседовании в Data Science на 800к? Проверь себя!

Бесплатная консультация, разберём твои страхи, подсветим буть к офферу 💸 -
Разбираем реальные вопросы с собеседования на валютную удалёнку моего ученика, который получил оффер на 800к и сейчас кайфует в Барселоне В списке уничтожения: В чем разница между bagging и boosting? Почему случайный лес может быть лучше градиентного бустинга? Что такое feature selection (отбор признаков) и какие его основные виды бывают (фильтрационные, обертки, встроенные)? Что такое backpropagation (метод обратного распространения ошибки)? Как работает оптимизатор Adam? Привет! Я Дима Савелко - Основатель школы SavelkoTeam и Deep Learning Engineer (ClassicML, NLP/LLM) с 4-летним опытом коммерческой разработки как на СНГ сегменте, так и на зарубежном рынке. Также обо мне вы можете почитать в моём телеграм-канале! Можете написать сюда (tg: @savelkoteam), и мы проведём бесплатную консультацию с разбором твоих страхов, а также подсветим твой путь к офферу Ссылки: Школа:
tg:
tg-channel:
00:00 - Приветствие 00:43 - В чём разница между bagging и boosting ? 08:05 - Почему случайный лес может быть лучше, чем градиентный бустинг? 09:25 - Можно ли делать bagging не на деревьях? 12:29 - Что такое feature selection? И какие его виды бывают? 13:13 - Фильтрационные методы 14:33 - Обёртки (Wrapper), SFS/SBS/Stepwise/RFE 17:59 - Встроенные (Embedded) методы (L1, Lasso, Elastic Net, Деревья, Ансамбли) 20:56 - Stability Selection 23:05 - Модель-агностичные важности (после обучения) 23:38 - Снижение размерности 25:03 - Что такое backpropagation? 28:10 - Что значит оптимизатор Adam? 32:07 - Ну очень важная мысль

Смотрите также