Il framework PhySE analizza le minacce di ingegneria sociale AR-LLM
Un recente studio presenta PhySE, un framework psicologico volto a valutare e mitigare gli attacchi di ingegneria sociale basati su AR-LLM (AR-LLM-SE). Questi attacchi, rappresentati dal sistema SEAR, coinvolgono malintenzionati che utilizzano occhiali per Realtà Aumentata (AR) per raccogliere informazioni visive e uditive di un bersaglio. Questi dati vengono poi analizzati da un Large Language Model (LLM) per riconoscere la persona e creare un profilo sociale dettagliato. Successivamente, agenti basati su LLM utilizzano tecniche di ingegneria sociale, offrendo suggerimenti di dialogo in tempo reale per creare un rapporto e portare a termine phishing o altre attività dannose. L'articolo evidenzia due ostacoli significativi per l'implementazione efficace di AR-LLM-SE: la personalizzazione a freddo, che causa ritardi nelle interazioni iniziali, e i metodi di attacco statici che dipendono da fasi fisse. Il framework cerca di superare questi problemi integrando concetti psicologici per migliorare la personalizzazione e l'adattabilità. La ricerca è disponibile su arXiv con l'identificatore 2604.23148.
Fatti principali
- PhySE è un framework psicologico per attacchi di ingegneria sociale AR-LLM.
- Gli attacchi AR-LLM-SE utilizzano occhiali AR per catturare dati visivi e vocali.
- Un LLM analizza i dati per identificare individui e generare profili sociali.
- Agenti basati su LLM forniscono suggerimenti di conversazione in tempo reale per l'ingegneria sociale.
- Due colli di bottiglia: personalizzazione a freddo e strategie di attacco statiche.
- La personalizzazione a freddo soffre di ritardi nella formazione iniziale del profilo.
- Le strategie di attacco statiche si basano su approcci a fasi fisse.
- L'articolo è pubblicato su arXiv con ID 2604.23148.
Entità
Istituzioni
- arXiv