Это лекция из курса "Основы байесовского вывода", который читается на Факультете математики и компьютерных наук СПбГУ вместе с двумя другими частями курса машинного обучения -- "Графическими вероятностными моделями" и "Глубоким обучением". Все материалы этой и других лекций курса (слайды, доска, ноутбуки с кодом) размещены по адресу: Разделы: 00:00 Идея: сравниваем p(D) 14:15 Наивный пример 28:50 Дивергенция Кульбака-Лейблера 41:40 Байесовский информационный критерий (BIC) 58:50 Эмпирический байес 01:12:00 Здесь я запутался в выводе :) 01:26:46 Эмпирический байес: алгоритм и пример