ARTFEED — Contemporary Art Intelligence

Il framework PhySE analizza le minacce di ingegneria sociale AR-LLM

ai-technology · 2026-04-29

Un recente studio presenta PhySE, un framework psicologico volto a valutare e mitigare gli attacchi di ingegneria sociale basati su AR-LLM (AR-LLM-SE). Questi attacchi, rappresentati dal sistema SEAR, coinvolgono malintenzionati che utilizzano occhiali per Realtà Aumentata (AR) per raccogliere informazioni visive e uditive di un bersaglio. Questi dati vengono poi analizzati da un Large Language Model (LLM) per riconoscere la persona e creare un profilo sociale dettagliato. Successivamente, agenti basati su LLM utilizzano tecniche di ingegneria sociale, offrendo suggerimenti di dialogo in tempo reale per creare un rapporto e portare a termine phishing o altre attività dannose. L'articolo evidenzia due ostacoli significativi per l'implementazione efficace di AR-LLM-SE: la personalizzazione a freddo, che causa ritardi nelle interazioni iniziali, e i metodi di attacco statici che dipendono da fasi fisse. Il framework cerca di superare questi problemi integrando concetti psicologici per migliorare la personalizzazione e l'adattabilità. La ricerca è disponibile su arXiv con l'identificatore 2604.23148.

Fatti principali

  • PhySE è un framework psicologico per attacchi di ingegneria sociale AR-LLM.
  • Gli attacchi AR-LLM-SE utilizzano occhiali AR per catturare dati visivi e vocali.
  • Un LLM analizza i dati per identificare individui e generare profili sociali.
  • Agenti basati su LLM forniscono suggerimenti di conversazione in tempo reale per l'ingegneria sociale.
  • Due colli di bottiglia: personalizzazione a freddo e strategie di attacco statiche.
  • La personalizzazione a freddo soffre di ritardi nella formazione iniziale del profilo.
  • Le strategie di attacco statiche si basano su approcci a fasi fisse.
  • L'articolo è pubblicato su arXiv con ID 2604.23148.

Entità

Istituzioni

  • arXiv

Fonti