Neologismi di abilità consentono l'apprendimento continuo nei LLM
Un nuovo preprint arXiv (2605.04970) introduce i neologismi di abilità come metodo per l'apprendimento continuo nei modelli linguistici di grandi dimensioni. Si tratta di token soft aggiunti al vocabolario del modello e ottimizzati per migliorare le prestazioni su abilità specifiche senza aggiornamenti dei pesi. I ricercatori hanno osservato che i LLM pre-addestrati hanno già token associati a conoscenze procedurali. Hanno dimostrato che i neologismi di abilità possono essere appresi per potenziare le capacità su abilità target, rimanendo componibili con abilità fuori distribuzione, e che neologismi addestrati indipendentemente possono essere combinati. Questo approccio affronta i limiti del fine-tuning (dimenticanza catastrofica) e dei metodi basati sul contesto (espressività limitata e vincoli di contesto).
Fatti principali
- Il preprint arXiv 2605.04970 introduce i neologismi di abilità per l'apprendimento continuo nei LLM.
- I neologismi di abilità sono token soft integrati nel vocabolario del modello.
- Sono ottimizzati per migliorare le capacità su un'abilità specifica senza aggiornamenti dei pesi.
- I LLM pre-addestrati già mostrano token associati a conoscenze procedurali.
- I neologismi di abilità possono migliorare le capacità del modello su abilità specifiche.
- Sono componibili con abilità fuori distribuzione.
- Neologismi di abilità addestrati indipendentemente possono essere combinati.
- Questo metodo evita la dimenticanza catastrofica e i limiti del contesto.
Entità
Istituzioni
- arXiv