Сайт использует сервис веб-аналитики Яндекс Метрика с помощью технологии «cookie». Пользуясь сайтом, вы даете согласие на использование данной технологии.
Тема: Начало трансформеров Семинар: Даниил Сергеев Поговорим о том, как Transformer навсегда изменил обработку естественного языка: от механизма внимания (Self-Attention) до архитектуры encoder–decoder. Разберёмся, почему Transformer вытеснил RNN и LSTM, как работает Multi-Head attention и почему BERT и GPT - не одно и то же, хоть и имеют общую архитектуру. 📍 TG канал AI Knowledge Club: 📍 TG чат AI Knowledge Club: 📍 Ссылка на Презентацию и материалы: