Нейронные сети слой за слоем #4 | BatchNorm

В четвёртом уроке из цикла "Нейронные сети слой за слоем" мы наконец узнаем "какая к чёрту норма" в нейронных сетях. Разберёмся как работает слоя BatchNormalization и как его использовать в библиотеке Keras. ___________ Краткая теория к сегодняшнему уроку: BatchNormalization (пакетная нормализация) - слой нейронной сети, который выполняет стандартизацию выходов предыдущего слоя. Ускоряет сходимость, препятствует переобучению, улучшает сходимость. Нормальное распределение - распределение, которое имеет случайная величина в любой непонятной ситуации. Как правило, если на её формирование влияет множество мелких факторов. Если построить график частоты встречаемости тех или иных значений этой величины получится некоторый колокол. Среднее - одна из характеристик случайной величины с нормальным распределением. Центр колокола. Дисперсия - среднеквадратичное отклонение от среднего. Квадрат "ширины" колокола. Стандартное отклонение - шарина колокола. Величина характеризующая разброс значений. Выражена в тех же величинах, что и среднее поэтому удобнее для вычислений чем дисперсия. ___________ Ссылка на Jupyter ноутбук с практикой к сегодняшнему уроку:

Смотрите также