Сайт использует сервис веб-аналитики Яндекс Метрика с помощью технологии «cookie». Пользуясь сайтом, вы даете согласие на использование данной технологии.
Китайская комната Джона Серла. Применима ли к LLM?
Что, если искусственный интеллект лишь симулирует понимание, не понимая ничего? 00:00 История про подгоревший гамбургер и репрезентации. 02:14 Имитационная игра Алана Тьюринга. Связь с китайской комнатой. 08:11 Когнитивная парадигма. От каких программ отталкивался Серл. 11:01 Китайская комната. Оригинальная версия из статьи. 18:37 "Нейро-китайская комната". Актуальность для LLM. 22:37 Закрыт ли вопрос? Значение серловского аргумента... Это — первая часть разбора знаменитого мысленного эксперимента Джона Сёрла «Китайская комната» — одного из самых острых аргументов против идеи «сильного ИИ». От теста Тьюринга и бихевиоризма — до краха символьного ИИ (на примере реальных программ Шанка и Абельсона). Я покажу, как Сёрл перевернул схему Тьюринга, чтобы доказать: любая программа, будь то набор правил или нейросеть (коннекционизм), работает с синтаксисом, но не с семантикой (значением). Ключевые тейки, которые мы раскрываем: ➠ Слабый vs. Сильный ИИ: В чём главное различие по Сёрлу и почему «решающий задачи» — не равно «мыслящий». ➠ Символьный ИИ и коннекционизм: Показываю, почему аргумент «Комнаты» бьёт по обеим парадигмам. ➠ Эмбеддинги и «чёрный ящик»: Объясняю на примере, почему даже векторы в многомерном пространстве — это не «понимание» для самой модели. Следующая часть покажет, как аргумент Сёрла сталкивается с современной мультимодальностью нейросетей, и почему один из самых известных философских аргументов XX века может быть оспорен с помощью бутылки Coca-Cola, оставленной на столе философом Вадимом Васильевым. (И да, вы же не думаете всерьез, что это описание сгенерировано человеком?)