Tracce di Ragionamento Sovracomplete: il 46% dei Passi Rimovibile nella Catena di Pensiero dei LLM
Un recente studio pubblicato su arXiv (2605.14358) esamina le tracce di ragionamento sovracomplete nei modelli linguistici, identificando il nucleo minimo come il più piccolo gruppo di passi che mantiene la risposta finale o la distribuzione predittiva. I ricercatori hanno analizzato sei benchmark di ragionamento deliberativo—aritmetica, matematica da competizione, ragionamento scientifico esperto e QA multi-hop di senso comune—e hanno scoperto una significativa sovracompletezza: in media, il 46% dei passi può essere eliminato tramite estrazione greedy del nucleo minimo, preservando comunque la risposta originale nell'86% dei casi. La ricerca evidenzia che il supporto predittivo è fortemente concentrato, con i primi tre passi che contribuiscono alla maggior parte del peso. Inoltre, lo studio presenta nuove metriche per valutare il rapporto di compressione, la massa di ridondanza, la necessità dei passi e la concentrazione della necessità.
Fatti principali
- Il paper arXiv 2605.14358 studia le tracce di ragionamento sovracomplete nei modelli linguistici.
- Definisce il nucleo minimo come il più piccolo sottoinsieme di passi che preserva la risposta finale o la distribuzione predittiva.
- Introduce metriche: rapporto di compressione, massa di ridondanza, necessità dei passi, concentrazione della necessità.
- Valutato su sei benchmark di ragionamento deliberativo.
- Il 46% dei passi è rimovibile in media con l'estrazione greedy del nucleo minimo.
- La risposta originale è preservata nell'86% dei casi dopo la rimozione.
- Il supporto predittivo è concentrato nei primi tre passi.
- I benchmark includono aritmetica, matematica da competizione, ragionamento scientifico esperto, QA multi-hop di senso comune.
Entità
Istituzioni
- arXiv