Нейронные сети: Attention: Vision Transformer (ViT) | CLIP, Swin, CoAtNet, MLP Mixer | Transformer

Лекция Attention: Vision Transformer | ViT & Beyond от Дениса Драбчука Senior Deep Learning Researcher at SQUAD. Transformer | Прогрессивное ML комьюнити Освободи вечер четверга и погрузись в мир трансформеров для задач компьютерного зрения! Узнай все плюсы, минусы и детали сверточных сетей и vision тренсфомеров. Что будет на лекции: ▪️ Why CNNs are good for Computer Vision? ▪️ The Dawn of Convolution from LeNet to EfficientNet ▪️ Giant Steps: AlexNet, VGG, Inception, ResNet, MobileNet ▪️ CNNs for classification, detection, segmentation, image captioning ▪️ ImageNet is not enough for ImageNet: BiT Big Transfer ▪️ Why CNNs are bad for Computer Vision? ▪️ Attention mechanism ▪️ Attention is all you need! ▪️ From BiT to ViT: An Image is Worth 16x16 Words ▪️ Future of ViT ▪️ Swin Transformer ▪️ Do Vision Transformers See Like CNNs? ▪️ MLP, CNN, Transformer, Mixer, What next? • Сайт проекта Transformer —
• Курс INTRODUCTION TO MACHINE LEARNING & NEURAL NETWORKS —
• Телеграм-канал Мишин Лернинг —
Подписывайтесь на YouTube-канал "Transformer", чтобы не пропустить следующее видео! #transformer

Смотрите также