Difesa dell'Unlearning LLM contro gli Attacchi di Social Engineering AR-LLM
Un recente studio pubblicato su arXiv (2604.23141) introduce UNSEEN, un meccanismo di difesa per l'unlearning in LLM cross-stack volto a contrastare gli attacchi di social engineering che utilizzano AR-LLM. Questi attacchi, illustrati da SEAR, coinvolgono occhiali per realtà aumentata che catturano l'immagine e la voce di un bersaglio, impiegando successivamente LLM per creare un profilo sociale e suggerire strategie conversazionali per costruire fiducia ed eseguire tentativi di phishing. Gli autori sostengono che le difese esistenti, come il controllo degli accessi basato sui ruoli e il monitoraggio del flusso di dati, sono inadeguate per il panorama integrato AR-LLM a causa della presenza di dispositivi AR incorporati e della natura opaca dell'inferenza LLM. Propongono una transizione da approcci incentrati sull'uomo, come la legislazione e l'educazione degli utenti, a politiche applicabili dai fornitori e protezioni a livello di piattaforma.
Fatti principali
- Il paper arXiv:2604.23141 propone la difesa UNSEEN.
- UNSEEN è una difesa di unlearning LLM cross-stack.
- Prende di mira attacchi di social engineering basati su AR-LLM come SEAR.
- L'attaccante usa occhiali AR per catturare informazioni visive e vocali.
- LLM identifica il bersaglio e genera un profilo sociale.
- Gli agenti LLM applicano strategie di social engineering per suggerire conversazioni.
- Le difese attuali come il controllo degli accessi basato sui ruoli non sono applicabili.
- Il paper sostiene politiche applicabili dai fornitori anziché misure incentrate sull'uomo.
Entità
Istituzioni
- arXiv