Занятие 5. Лекция. Attention, transformers! Переломный момент в истории NLP

Github курса с описанием и полезными ссылками:
В чем состоит механизм внимания. Как устроена архитектура трансформеров, как работает слой Self-Attention в декодере и энкодере.

Смотрите также