La ricerca estende l'analisi della logica neutrosifica delle valutazioni epistemiche dei LLM
Un nuovo articolo di ricerca estende il lavoro di Leyva-Vázquez e Smarandache (2025) sulla valutazione neutrosifica T/I/F dei grandi modelli linguistici. Lo studio originale ha riscontrato 'iper-verità' (T+I+F > 1.0) nel 35% dei casi epistemici complessi. Questa estensione replica ed espande l'esperimento su cinque famiglie di modelli di Anthropic, Meta, DeepSeek, Alibaba e Mistral, riscontrando iper-verità nell'84% delle valutazioni non vincolate. La ricerca identifica una significativa limitazione nei framework scalari T/I/F dove i modelli che adottano una posizione di 'Assorbimento' (T=0, I=1, F=0) producono output identici per situazioni epistemiche fondamentalmente diverse come paradosso, ignoranza e contingenza. Ciò annulla le stesse distinzioni che la logica neutrosifica era stata progettata per preservare. L'articolo dimostra che il fenomeno è trasversale ai fornitori secondo il loro protocollo di prompt. Il lavoro è stato annunciato come arXiv:2604.09602v1.
Fatti principali
- Leyva-Vázquez e Smarandache (2025) hanno dimostrato la valutazione neutrosifica T/I/F
- Lo studio originale ha riscontrato 'iper-verità' nel 35% dei casi epistemici complessi valutati dai LLM
- La nuova ricerca estende il lavoro su cinque famiglie di modelli di cinque fornitori
- I fornitori includono Anthropic, Meta, DeepSeek, Alibaba e Mistral
- Lo studio esteso riscontra iper-verità nell'84% delle valutazioni non vincolate
- La ricerca identifica una limitazione dei framework scalari T/I/F con la posizione di 'Assorbimento'
- La posizione di Assorbimento (T=0, I=1, F=0) produce output identici per diverse situazioni epistemiche
- L'articolo è stato annunciato come arXiv:2604.09602v1
Entità
Istituzioni
- Anthropic
- Meta
- DeepSeek
- Alibaba
- Mistral