Безопасность ИИ: ключевые угрозы и риски, где система уязвима | Урок 6.2 | Курс AI Governance

Продолжая наш разговор о ,безопасности ИИ, в этом уроке мы переходим от теории к практике. Мы погружаемся в мир реальных угроз и рисков, которые стоят за каждым из пяти фундаментальных вызовов, рассмотренных ранее. На примере комплексной, многоэтапной атаки на банковского AI-ассистента BankBot, мы покажем, как взаимосвязаны угрозы, почему фрагментированный подход к рискам обречён на провал и как малейшие упущения на разных уровнях — от политик до кода — складываются в катастрофу. В этом уроке вы научитесь: Связывать 5 фундаментальных вызовов (инфраструктура, данные, время, противник, согласованность) с конкретными, реальными угрозами. Анализировать комплексные атаки и видеть, как работает каскадный эффект, когда один сбой ведет к другому. Разбираться в угрозах для отказоустойчивости: от единой точки отказа (SPOF) до сбоев внешних зависимостей. Понимать, как дрейф концепта, дрейф данных и техническая деградация пайплайнов медленно «убивают» точность вашей модели. Классифицировать умышленные атаки на устойчивость и безопасность: состязательные атаки (adversarial attacks), отравление данных, атаки на приватность и взлом инфраструктуры. Осознавать этические риски и угрозы безопасности функционирования: предвзятость, генерация вредоносного контента и непреднамеренные побочные эффекты. Применять на практике конкретные инструменты контроля: от политик и аудитов до технических предохранителей и планов реагирования. Этот урок необходим специалистам по кибербезопасности, которые хотят понять специфику ИИ, а также менеджерам по управлению рисками, руководителям проектов, дата-сайентистам и разработчикам, которые создают и внедряют ИИ-системы. Он также будет полезен юристам и специалистам по комплаенсу, работающим на стыке технологий и регулирования. 💬 Присоединяйтесь к нашему сообществу в Telegram! Обсуждайте уроки, делитесь инсайтами и задавайте вопросы экспертам и единомышленникам в нашем Telegram-канале, посвященном AI Governance. Давайте вместе формировать культуру ответственного использования ИИ. 🔗 Ссылка на Telegram-канал:
Таймкоды: 00:00 - Введение: От вызовов к конкретным угрозам 00:33 - Отсутствие AI Governance как критическая угроза 01:35 - Учебный кейс BankBot: Описание системы-цели 01:59 - Этап 1 атаки: Утечка через сторонний ИИ (Shadow AI) 03:15 - Этап 2 атаки: Подмена базы знаний (Data Poisoning) 03:41 - Этап 3 атаки: Отравленный бот крадет данные у клиентов 04:51 - Этап 4 атаки: Тихая кража и массовое списание средств 05:04 - Схема атаки: Как серия мелких сбоев приводит к катастрофе 05:28 - Управление ИИ как иммунная система компании 05:53 - Вопрос к руководителю отдела по управлению ИИ 07:03 - Атаки на отказоустойчивость ИИ-систем (SPOF, внешние зависимости, истощение ресурсов) 10:13 - Атаки на надежность ИИ-систем (дрейф концепта, дрейф данных, деградация пайплайнов) 12:21 - Атаки на устойчивость ИИ-систем (состязательные атаки, отравление данных, данные вне распределения) 15:00 - Атаки на безопасность ИИ-систем (человеческий фактор, инфраструктура, приватность) 17:23 - Атаки на безопасность функционирования ИИ-систем (несправедливость, побочные эффекты, вредоносный контент) 21:20 - Ответ на вопрос: Какой приоритет выбрать при ограниченном бюджете? 23:18 - Подводим итоги урока Этот урок на английском языке    • Harm to Individuals and Groups (NIST AI RM...   #AIGovernance #AISecurity #БезопасностьИИ #УправлениеИИ #ИИвБизнесе #aicourses

Смотрите также