Зачем они нужны в ML? Собственные значения и собственные векторы

📌 Заполни анкету прямо сейчас и получи чек-лист «15 самых популярных вопросов с собеседований и ответы на них» Анкета предзаписи на курс:
Курс «База ML»:
Курс «ML в бизнесе»:
Telegram MLinside:
Что общего между сжатием изображений, поиском скрытых сообществ в соцсетях и тем, как Google ранжирует страницы? Всё это основано на одной красивой математической идее — собственных векторах и собственных значениях. Андрей Жогов — ML-инженер в Сбере, преподаватель Физтеха и методист Data Science — простыми словами объясняет, что такое собственные векторы и зачем они нужны в машинном обучении. В этом видео: • Интуитивное объяснение собственных векторов и значений через геометрию • PCA: как сжать данные и избавиться от «проклятия размерности» • Google PageRank: как поиск страниц в интернете строился на собственных векторах • Спектральная кластеризация: как найти скрытые сообщества в данных • История про Eigenfaces: почему собственные векторы превратили лица в призраков Подходит тем, кто: • учит линейную алгебру и хочет понять её применение в ML • готовится к собеседованиям в Data Science / ML • работает с большими данными и хочет уметь выделять суть Это часть серии MLinside — честно, по делу и без лишней воды. Таймкоды: 00:00 — Зачем ML-инженеру знать линейную алгебру 00:42 — Интуитивное объяснение собственных векторов и значений 02:15 — PCA: сжатие данных и борьба с проклятием размерности 04:33 — PageRank: как Google использовал собственные векторы 06:18 — Спектральная кластеризация: поиск скрытых сообществ в данных 11:20 — Eigenfaces: распознавание лиц через собственные векторы

Смотрите также