Ragionamento sulla privacy degli LLM migliorato tramite simulacri normativi tratti dalla narrativa
Un nuovo preprint su arXiv (2604.20904) propone di estrarre simulacri normativi — rappresentazioni strutturate di norme e flussi informativi — da romanzi di narrativa per mettere a punto modelli linguistici di grandi dimensioni (LLM) al fine di migliorare il ragionamento sulla privacy. L'approccio utilizza l'apprendimento supervisionato seguito da apprendimento per rinforzo GRPO, con una funzione di ricompensa composita che combina segnali programmatici (chiarezza del compito, completezza strutturale, coerenza interna, identificazione del contesto) e un giudice LLM. Ciò affronta il disallineamento tra la gestione delle informazioni da parte degli agenti LLM e le aspettative contestuali di privacy degli utenti, come definite dal quadro dell'Integrità Contestuale (CI), senza raddoppiare i costi di inferenza o fare affidamento su dati ristretti specifici del compito.
Fatti principali
- Il preprint arXiv 2604.20904 propone simulacri normativi tratti da romanzi di narrativa
- Il metodo utilizza apprendimento supervisionato e apprendimento per rinforzo GRPO
- La funzione di ricompensa composita include segnali programmatici e un giudice LLM
- Affronta il disallineamento tra agenti LLM e aspettative contestuali di privacy
- Basato sul quadro dell'Integrità Contestuale (CI)
- Evita di raddoppiare i costi di inferenza o la messa a punto su dati ristretti specifici del compito
Entità
Istituzioni
- arXiv