Post-Reasoning: Migliorare le Prestazioni degli LLM Senza Costi Aggiuntivi di Token
Un nuovo metodo chiamato Post-Reasoning migliora i modelli linguistici di grandi dimensioni ottimizzati con istruzioni, facendo sì che giustifichino le risposte dopo aver generato la risposta finale, eliminando latenza e costi di token aggiuntivi. L'approccio è stato testato su 117 impostazioni modello-benchmark, 13 modelli, 4 famiglie di modelli e 9 benchmark tra cui AMC, HMMT, GSM8K e GPQA. I risultati mostrano miglioramenti delle prestazioni senza overhead di inferenza extra.
Fatti principali
- Post-Reasoning migliora i modelli ottimizzati con istruzioni, condizionandoli a giustificare le risposte dopo aver generato la risposta finale.
- Il metodo elimina latenza e costi di token aggiuntivi.
- Valutato su 117 impostazioni modello-benchmark.
- Testato su 13 modelli aperti e proprietari.
- Copre 4 famiglie di modelli.
- Valutato su 9 diversi benchmark di ragionamento e conoscenza intensiva.
- I benchmark includono AMC, HMMT, GSM8K e GPQA.
- L'approccio è semplice ed efficace, richiede solo l'augmentazione delle istruzioni.
Entità
—