ARTFEED — Contemporary Art Intelligence

Neologismi di abilità consentono l'apprendimento continuo nei LLM

ai-technology · 2026-05-07

Un nuovo preprint arXiv (2605.04970) introduce i neologismi di abilità come metodo per l'apprendimento continuo nei modelli linguistici di grandi dimensioni. Si tratta di token soft aggiunti al vocabolario del modello e ottimizzati per migliorare le prestazioni su abilità specifiche senza aggiornamenti dei pesi. I ricercatori hanno osservato che i LLM pre-addestrati hanno già token associati a conoscenze procedurali. Hanno dimostrato che i neologismi di abilità possono essere appresi per potenziare le capacità su abilità target, rimanendo componibili con abilità fuori distribuzione, e che neologismi addestrati indipendentemente possono essere combinati. Questo approccio affronta i limiti del fine-tuning (dimenticanza catastrofica) e dei metodi basati sul contesto (espressività limitata e vincoli di contesto).

Fatti principali

  • Il preprint arXiv 2605.04970 introduce i neologismi di abilità per l'apprendimento continuo nei LLM.
  • I neologismi di abilità sono token soft integrati nel vocabolario del modello.
  • Sono ottimizzati per migliorare le capacità su un'abilità specifica senza aggiornamenti dei pesi.
  • I LLM pre-addestrati già mostrano token associati a conoscenze procedurali.
  • I neologismi di abilità possono migliorare le capacità del modello su abilità specifiche.
  • Sono componibili con abilità fuori distribuzione.
  • Neologismi di abilità addestrati indipendentemente possono essere combinati.
  • Questo metodo evita la dimenticanza catastrofica e i limiti del contesto.

Entità

Istituzioni

  • arXiv

Fonti