ARTFEED — Contemporary Art Intelligence

Nuovo attacco sfrutta la quantizzazione degli LLM tramite iniezione di outlier

ai-technology · 2026-05-16

Un innovativo attacco condizionato alla quantizzazione è stato svelato dai ricercatori, dimostrando la sua capacità di provocare costantemente azioni dannose nei modelli linguistici di grandi dimensioni (LLM) attraverso sofisticati metodi di quantizzazione come AWQ, GPTQ e GGUF I-quants. Questo attacco sfrutta una caratteristica comune a molte tecniche di quantizzazione contemporanee: la persistenza di grandi pesi outlier durante la quantizzazione. Gli attacchi precedenti erano limitati ad approcci di quantizzazione di base e inefficaci contro metodi più ampiamente utilizzati. Questa tattica innovativa consente a un aggressore di distribuire un modello che sembra innocuo in piena precisione ma diventa dannoso una volta che gli utenti applicano la quantizzazione, rappresentando una seria minaccia per la sicurezza nell'uso efficiente della memoria degli LLM.

Fatti principali

  • Primo attacco condizionato alla quantizzazione efficace su AWQ, GPTQ e GGUF I-quants
  • Sfrutta grandi pesi outlier invarianti sotto quantizzazione
  • Attacchi precedenti limitati a metodi di quantizzazione più semplici
  • L'avversario può rilasciare un modello benigno in piena precisione che diventa dannoso dopo la quantizzazione
  • Pubblicato su arXiv con ID 2605.15152v1

Entità

Istituzioni

  • arXiv

Fonti