Dual-Track CoT migliora il ragionamento dei piccoli LM sotto vincoli di token
Un nuovo progetto di ricerca, Dual-Track CoT, propone un metodo di guida step-by-step consapevole del budget per migliorare il ragionamento multi-step nei Small Language Models (SLM) con 7–8 miliardi di parametri. Tecniche esistenti come self-consistency, Tree-of-Thoughts e cicli di critica-revisione migliorano le prestazioni ma consumano token eccessivi e mancano di controllo granulare. Questo lavoro indaga se la supervisione del processo e semplici controlli a tempo di test – come budget di token e rifiuto di passaggi ridondanti – possano sostituire la scala del modello o grandi conteggi di campionamento. L'approccio è sia scientificamente approfondito che praticamente rilevante per implementazioni su dispositivo, a bassa latenza o con vincoli di costo. Il paper è disponibile su arXiv con ID 2604.25039.
Fatti principali
- Dual-Track CoT è mirato a SLM con 7–8 miliardi di parametri
- Metodi esistenti come self-consistency e Tree-of-Thoughts sono inefficienti in termini di token
- Il progetto esplora la supervisione del processo e i budget di token come sostituti della scala del modello
- Le applicazioni pratiche includono contesti su dispositivo e a bassa latenza
- Paper pubblicato su arXiv con ID 2604.25039
Entità
Istituzioni
- arXiv