Что такое отравление LLM? Интересный прорыв


В совместном исследовании с Британским институтом безопасности искусственного интеллекта (ИИ) и Институтом Алана Тьюринга мы обнаружили, что всего 250 вредоносных документов могут создать уязвимость типа «бэкдор» в большой языковой модели — независимо от размера модели или объёма обучающих данных. Хотя модель с 13 БП обучается на более чем в 20 раз большем объёме обучающих данных, чем модель с 600 МБ, обе модели могут быть взломаны одним и тем же небольшим количеством «отравленных» документов. ------------------------------------------------------------------------------------------------------ Праздничные предложения действуют до Дивали. В рамках этого праздничного предложения мы предоставляем скидку 20% на все наши онлайн-курсы. ИСПОЛЬЗУЙТЕ КОД КУПОНА AI20. Ссылка для регистрации:

Воспользуйтесь этой возможностью! Если у вас возникнут какие-либо вопросы, свяжитесь с командой консультантов Криша Наика по телефону 📞 +919111533440 или +91 84848 37781, и мы всегда готовы вам помочь.

Смотрите также