Сайт использует сервис веб-аналитики Яндекс Метрика с помощью технологии «cookie». Пользуясь сайтом, вы даете согласие на использование данной технологии.
Data poisoning — «отравление» данных Представьте, что вы печёте пирожки и кто-то тайком добавляет в тесто горчицу. Пирожки испортятся — и вы будете удивляться, почему продажи упали. Так же и с моделями: злонамеренные данные, внедрённые в открытые датасеты, могут делать модель «агрессивной» или просто ошибочной. Это не гипотеза — это тактика: злоумышленник целенаправленно вставляет ложные или манипулятивные фрагменты в общедоступные источники, чтобы будущие модели «верили» этим фальшивкам. Deepfakes и голосовые подделки Коротко: теперь подделать не только фото, но и голос/видео — и сложно сразу понять, где реальность, а где подделка. Пример — реальная история в Гонконге: сотрудник переводит огромную сумму по указанию «шефа», с которым общался по видеосвязи — и позже выясняется, что «шеф» был искусственно сгенерированным видео/аудио. Деньги уходят. Чёрный сценарий? Да. Реальный? К сожалению, да. В этом видео мы обсудим, как *ai* становится инструментом в руках *scammers**. Важно понимать, как работает **artificial intelligence* и как защитить себя. Рассмотрим *cybersecurity for beginners* и **ethical hacking**, чтобы защититься от угроз, связанных с **chatgpt**, а также изучим **cybersecurity roadmap**.