Сайт использует сервис веб-аналитики Яндекс Метрика с помощью технологии «cookie». Пользуясь сайтом, вы даете согласие на использование данной технологии.
Занятие 5. Лекция. Attention, transformers! Переломный момент в истории NLP
Github курса с описанием и полезными ссылками: В чем состоит механизм внимания. Как устроена архитектура трансформеров, как работает слой Self-Attention в декодере и энкодере.