ARTFEED — Contemporary Art Intelligence

OpenAI implementa un sistema di verifica URL per prevenire perdite di dati degli agenti AI

digital · 2026-04-14

OpenAI ha sviluppato nuove misure di sicurezza per prevenire attacchi di esfiltrazione dati basati su URL che prendono di mira agenti AI come ChatGPT. Il sistema affronta i rischi in cui gli aggressori potrebbero manipolare i modelli per richiedere URL contenenti informazioni sensibili degli utenti attraverso tecniche di prompt injection. Invece di basarsi su elenchi di siti attendibili, l'approccio verifica se URL specifici sono stati precedentemente osservati da un indice web indipendente che analizza contenuti pubblici senza accedere ai dati degli utenti. Quando un URL non può essere verificato come pubblicamente noto, gli utenti ricevono avvisi prima del caricamento automatico. Questo strato di protezione previene specificamente perdite di dati silenziose attraverso parametri URL, riconoscendo al contempo limitazioni riguardanti l'affidabilità dei contenuti e il social engineering. Il team di sicurezza continua a perfezionare queste difese attraverso monitoraggio e red-teaming man mano che le tecniche di attacco evolvono. I ricercatori che lavorano su prompt injection e sicurezza degli agenti sono invitati a collaborare attraverso canali di divulgazione responsabile. I dettagli tecnici sono disponibili in un documento corrispondente redatto da Adrian Spânu e Thomas Shadwell.

Fatti principali

  • OpenAI ha implementato misure di sicurezza contro l'esfiltrazione dati basata su URL per agenti AI
  • Gli aggressori possono utilizzare prompt injection per ingannare i modelli facendoli richiedere URL contenenti dati sensibili
  • Il sistema verifica gli URL rispetto a un indice web indipendente che analizza contenuti pubblici
  • Gli URL non verificati attivano avvisi agli utenti prima del caricamento automatico
  • L'approccio passa dalla fiducia nel dominio alla verifica di URL specifici
  • Le protezioni prevengono specificamente perdite di dati silenziose attraverso parametri URL
  • La sicurezza riconosce limitazioni riguardanti l'affidabilità dei contenuti e il social engineering
  • I ricercatori sono invitati a collaborare attraverso canali di divulgazione responsabile

Entità

Istituzioni

  • OpenAI

Fonti