Семинар 6 - Начало трансформеров - Даниил Сергеев

Тема: Начало трансформеров Семинар: Даниил Сергеев Поговорим о том, как Transformer навсегда изменил обработку естественного языка: от механизма внимания (Self-Attention) до архитектуры encoder–decoder. Разберёмся, почему Transformer вытеснил RNN и LSTM, как работает Multi-Head attention и почему BERT и GPT - не одно и то же, хоть и имеют общую архитектуру. 📍 TG канал AI Knowledge Club:
📍 TG чат AI Knowledge Club:
📍 Ссылка на Презентацию и материалы:

Смотрите также