ARTFEED — Contemporary Art Intelligence

Metodo basato su ReLU migliora la precisione della verifica dei transformer

ai-technology · 2026-05-16

Un nuovo approccio alla verifica formale dei transformer migliora la precisione utilizzando ReLU per rappresentare limiti non lineari per i prodotti scalari. I transformer, ampiamente utilizzati in applicazioni critiche per la sicurezza, coinvolgono calcoli complessi come l'auto-attenzione che rendono difficile la verifica. I metodi esistenti di sovrapprossimazione che utilizzano vincoli convessi sono efficienti ma introducono errori di approssimazione che portano a falsi allarmi. Il metodo proposto sfrutta ReLU per limitare con precisione i prodotti scalari, consentendo una verifica più accurata mantenendo l'efficienza.

Fatti principali

  • La verifica formale dei transformer è sempre più importante per le applicazioni critiche per la sicurezza.
  • Le inferenze dei transformer coinvolgono calcoli complessi come i prodotti scalari nei livelli di auto-attenzione.
  • I metodi esistenti di sovrapprossimazione utilizzano vincoli convessi ma sacrificano la precisione.
  • Il nuovo approccio utilizza ReLU per rappresentare limiti non lineari precisi per i prodotti scalari.
  • Il metodo mira a ridurre i falsi allarmi causati da errori di approssimazione.
  • L'articolo è pubblicato su arXiv con ID 2605.14294.

Entità

Istituzioni

  • arXiv

Fonti