Trilemma CAP-like per LLM: Correttezza, Non-parzialità, Utilità
Traendo ispirazione dal teorema CAP relativo ai sistemi distribuiti, un recente articolo su arXiv (2605.11672) introduce un trilemma specifico per i Large Language Models (LLM). Sottolinea che, a causa della sottodeterminazione semantica—per cui l'input non porta a una risposta univoca—un LLM non può garantire contemporaneamente forte correttezza, stretta non-parzialità e alta utilità. Per generare una risposta significativa e definitiva, il modello deve stabilire un criterio di selezione, una preferenza o una gerarchia di valori. Se tale criterio è assente o non giustificato dalle premesse, la risposta rischia di diventare parziale in un contesto generale di teoria della selezione. Evitare preferenze non supportate può aiutare a mantenere correttezza e non-parzialità, ma potrebbe compromettere l'utilità.
Fatti principali
- Articolo su arXiv: 2605.11672
- Propone un trilemma CAP-like per LLM
- Trilemma: correttezza, non-parzialità, utilità
- Sotto sottodeterminazione semantica
- Il modello deve introdurre un criterio di selezione per una risposta decisiva
- Preferenze non supportate portano a parzialità
- Evitare preferenze può ridurre l'utilità
- Ispirato dal teorema CAP per sistemi distribuiti
Entità
Istituzioni
- arXiv