I LLM Privilegiano la Sensibilità sulla Conformità nei Conflitti di Ragionamento
Un nuovo studio da arXiv (2604.27251) indaga se i modelli fondamentali di ragionamento—induzione, deduzione e abduzione—possano essere disaccoppiati da specifici problemi nei grandi modelli linguistici (LLM). I ricercatori introducono conflitti di ragionamento, in cui gli schemi logici si discostano da quelli attesi per un compito, creando tensione tra informazioni parametriche e contestuali. La loro valutazione mostra che i LLM favoriscono costantemente la sensibilità sulla conformità, aderendo a schemi di ragionamento appropriati al compito anche quando viene loro richiesto diversamente. L'accuratezza del compito non è strettamente determinata dalla sensibilità, indicando sfide di controllabilità sfumate.
Fatti principali
- Il paper arXiv 2604.27251 indaga la controllabilità del ragionamento nei LLM.
- Si concentra sui modelli di induzione, deduzione e abduzione.
- Introduce i conflitti di ragionamento come concetto chiave.
- I LLM privilegiano la sensibilità sulla conformità.
- L'accuratezza del compito non è strettamente legata alla sensibilità.
- Prima indagine sistematica di questo problema.
- Utilizza pratiche di Chain-of-Thought (CoT) come contesto.
- Pubblicato su arXiv con annuncio di tipo incrociato.
Entità
Istituzioni
- arXiv