ARTFEED — Contemporary Art Intelligence

Architettura basata su TEE per la valutazione verificabile delle sovvenzioni AI

ai-technology · 2026-04-30

Un recente studio introduce un framework basato su Trusted Execution Environment (TEE) volto a garantire la verificabilità delle valutazioni delle sovvenzioni guidate dall'IA, proteggendo al contempo il modello e la metodologia di punteggio. Poiché gli enti governativi adottano sempre più modelli linguistici di grandi dimensioni (LLM) per assistere nelle decisioni, sorge una sfida di governance: i candidati non dovrebbero poter manipolare il modello, mantenendo al contempo un processo contestabile e responsabile. Questa architettura impiega l'attestazione remota, consentendo a un verificatore esterno di autenticare il modello, la rubrica, il modello di prompt e la rappresentazione dell'input utilizzati, senza rivelare i pesi del modello o i metodi di punteggio proprietari. Centrale in questo framework è un bundle di valutazione attestato: un documento autenticato e timestampato che collega l'hash della sottomissione originale, l'hash canonico dell'input, le metriche del modello e della rubrica e i risultati della valutazione. Lo studio esplora anche uno scenario in cui il verificatore può accertare la correttezza del processo di valutazione.

Fatti principali

  • Le agenzie pubbliche stanno considerando gli LLM per la valutazione delle sovvenzioni.
  • L'architettura proposta utilizza TEE e attestazione remota.
  • Il verificatore esterno può controllare modello, rubrica, prompt e rappresentazione dell'input.
  • Pesi del modello, logica di punteggio e ragionamento intermedio rimangono nascosti.
  • Il bundle di valutazione attestato include un record firmato e timestampato.
  • Il bundle collega hash della sottomissione, hash dell'input, misurazione del modello e output.
  • L'articolo considera uno scenario per verificare la corretta valutazione.
  • Preprint arXiv: arXiv:2604.25200.

Entità

Istituzioni

  • arXiv

Fonti