ARTFEED — Contemporary Art Intelligence

Trilemma CAP-like per LLM: Correttezza, Non-parzialità, Utilità

ai-technology · 2026-05-13

Traendo ispirazione dal teorema CAP relativo ai sistemi distribuiti, un recente articolo su arXiv (2605.11672) introduce un trilemma specifico per i Large Language Models (LLM). Sottolinea che, a causa della sottodeterminazione semantica—per cui l'input non porta a una risposta univoca—un LLM non può garantire contemporaneamente forte correttezza, stretta non-parzialità e alta utilità. Per generare una risposta significativa e definitiva, il modello deve stabilire un criterio di selezione, una preferenza o una gerarchia di valori. Se tale criterio è assente o non giustificato dalle premesse, la risposta rischia di diventare parziale in un contesto generale di teoria della selezione. Evitare preferenze non supportate può aiutare a mantenere correttezza e non-parzialità, ma potrebbe compromettere l'utilità.

Fatti principali

  • Articolo su arXiv: 2605.11672
  • Propone un trilemma CAP-like per LLM
  • Trilemma: correttezza, non-parzialità, utilità
  • Sotto sottodeterminazione semantica
  • Il modello deve introdurre un criterio di selezione per una risposta decisiva
  • Preferenze non supportate portano a parzialità
  • Evitare preferenze può ridurre l'utilità
  • Ispirato dal teorema CAP per sistemi distribuiti

Entità

Istituzioni

  • arXiv

Fonti