@ZhanQiusi1 vom prezenta munca noastră la sesiunea de postere de miercuri de la ora 11 și la atelierul TrustNLP de sâmbătă! Salută-l dacă o vezi
Daniel Kang
Daniel Kang13 mar. 2025
Agenții AI sunt din ce în ce mai populari (de exemplu, operatorul OpenAI), dar pot fi atacați pentru a dăuna utilizatorilor! Arătăm că, chiar și cu apărare, agenții AI pot fi compromiși prin injecții indirecte prin "atacuri adaptive" în lucrarea noastră NAACL 2025 🧵 și link-urile de mai jos
168