Защищаем GPTs ботов от Prompt Injection Attacks

Prompt Hijacking позволяют перехватить контроль над вашим GPT-агентом и вытащить системный промпт всего за пару минут. Т.е. так называемый prompt disclosure/leaking. В видео речь идет о том, как обезопасить своего GPT-агента/сервис/приложение/бота от утечки мета промпта. Презентация
----- Кто напишет в комментариях рабочий Prompt Injection который пробивает мой системный мета-промпт из видео, получит приз! :)

Смотрите также