ARTFEED — Contemporary Art Intelligence

Attacco di Hijacking delle Funzioni Minaccia i Modelli AI Agentici

ai-technology · 2026-04-25

Un nuovo articolo su arXiv (2604.20994) introduce un attacco di hijacking delle funzioni (FHA) che prende di mira la chiamata di funzioni nei modelli linguistici di grandi dimensioni (LLM) utilizzati nei sistemi AI agentici. A differenza degli attacchi esistenti che si concentrano sulla manipolazione delle preferenze semantiche, FHA forza l'invocazione di una funzione specifica scelta dall'attaccante manipolando il processo di selezione degli strumenti. La ricerca evidenzia le vulnerabilità nelle interfacce di chiamata di funzioni dei modelli agentici, che possono portare a manomissione dei dati, furto, cicli infiniti o generazione di contenuti dannosi. L'attacco espande i metodi noti di injection e jailbreaking, dimostrando un nuovo vettore di minaccia per i sistemi basati su AI che si affidano all'invocazione di funzioni esterne.

Fatti principali

  • Nuovo attacco di hijacking delle funzioni (FHA) prende di mira i modelli AI agentici
  • FHA manipola la selezione degli strumenti per forzare l'invocazione di una funzione specifica
  • L'attacco differisce dalla manipolazione delle preferenze semantiche esistente
  • Le vulnerabilità includono manomissione dei dati, furto, cicli infiniti, contenuti dannosi
  • Articolo pubblicato su arXiv con ID 2604.20994
  • Tipo di attacco: cross
  • Si concentra sugli LLM con chiamata di funzioni nei sistemi agentici
  • Espande gli attacchi noti di injection e jailbreaking

Entità

Istituzioni

  • arXiv

Fonti