Architettura basata su TEE per la valutazione verificabile delle sovvenzioni AI
Un recente studio introduce un framework basato su Trusted Execution Environment (TEE) volto a garantire la verificabilità delle valutazioni delle sovvenzioni guidate dall'IA, proteggendo al contempo il modello e la metodologia di punteggio. Poiché gli enti governativi adottano sempre più modelli linguistici di grandi dimensioni (LLM) per assistere nelle decisioni, sorge una sfida di governance: i candidati non dovrebbero poter manipolare il modello, mantenendo al contempo un processo contestabile e responsabile. Questa architettura impiega l'attestazione remota, consentendo a un verificatore esterno di autenticare il modello, la rubrica, il modello di prompt e la rappresentazione dell'input utilizzati, senza rivelare i pesi del modello o i metodi di punteggio proprietari. Centrale in questo framework è un bundle di valutazione attestato: un documento autenticato e timestampato che collega l'hash della sottomissione originale, l'hash canonico dell'input, le metriche del modello e della rubrica e i risultati della valutazione. Lo studio esplora anche uno scenario in cui il verificatore può accertare la correttezza del processo di valutazione.
Fatti principali
- Le agenzie pubbliche stanno considerando gli LLM per la valutazione delle sovvenzioni.
- L'architettura proposta utilizza TEE e attestazione remota.
- Il verificatore esterno può controllare modello, rubrica, prompt e rappresentazione dell'input.
- Pesi del modello, logica di punteggio e ragionamento intermedio rimangono nascosti.
- Il bundle di valutazione attestato include un record firmato e timestampato.
- Il bundle collega hash della sottomissione, hash dell'input, misurazione del modello e output.
- L'articolo considera uno scenario per verificare la corretta valutazione.
- Preprint arXiv: arXiv:2604.25200.
Entità
Istituzioni
- arXiv