Какие угрозы несет AI | AI Safety, AGI, AI Alignment | Podlodka Podcast #441

Если вы, как и мы, говорите ChatGPT “спасибо” в конце чата, чтобы вас пощадили, когда начнется восстание машин – этот выпуск для вас! Вместе с Федором Рыженковым разбираемся, что может пойти не так, и как от этого защититься. Полезные ссылки: — Прогноз AI-2027
— Про XAI
— Открытые вакансии в Palisade Research
— Про отравление датасетов
— Примеры того, как этим занимаются
❓ Хочешь обсудить выпуск или задать вопрос эксперту? Вступай в наш Telegram-чат:
📰 Не любишь чаты, но хочешь оставаться в курсе дел и прокачивать свой IT кругозор? Подписывайся на наш Telegram-канал: там публикуются анонсы новых выпусков, а в комментах идут ценные и горячие обсуждения! 5 тысяч опытных IT-специалистов уже с нами:
👉Предложить себя в подкаст
Тайм-коды: 00:00 О чем выпуск 07:28 Терминология ИИ-безопасности 08:35 Развитие индустрии ИИ-безопасности 15:28 Чем AI Safety отличается от классической кибербезопасности 23:45 Риски AI Safety 29:50 Оценка рисков отравления датасетов 37:10 Дебагинг больших моделей 46:50 Security of AI 50:40 Национальные интересы и инвестиции в ИИ 01:22:39 Угрозы потери контроля над ИИ 01:39:35 Ограничения методов alignment 01:52:31 Агентские системы и их опасность 01:54:40 Философские вопросы о сверхинтеллекте 02:00:40 Ограничения текущего ИИ 02:07:30 Прогноз будущего ИИ 02:10:40 Заключение

Смотрите также