La comprensione dei ruoli semantici emerge durante il pre-addestramento dei LLM
Uno studio recente pubblicato su arXiv (2605.09187) esamina se la comprensione dei ruoli semantici—la capacità di discernere 'chi ha fatto cosa a chi' nelle frasi—si sviluppi durante il pre-addestramento dei modelli linguistici o richieda un fine-tuning specifico per i compiti. I ricercatori hanno fissato trasformatori decoder-only e utilizzato sonde lineari per estrarre i ruoli semantici, valutando le prestazioni per determinare se queste informazioni sono incorporate nel pre-addestramento o acquisite tramite adattamento. I risultati hanno rivelato che le rappresentazioni congelate a varie scale di modello contenevano informazioni significative sui ruoli semantici, mostrando un miglioramento delle prestazioni, sebbene non raggiungessero completamente i livelli dei modelli fine-tunati. Ciò suggerisce che, sebbene una certa emersione avvenga durante il pre-addestramento, rimane incompleta.
Fatti principali
- Lo studio esamina la comprensione dei ruoli semantici nei modelli linguistici
- Utilizza trasformatori decoder-only congelati con sonde lineari
- Trova informazioni sostanziali sui ruoli nelle rappresentazioni pre-addestrate
- Le prestazioni migliorano con il fine-tuning ma non corrispondono completamente
- Indica un'emersione parziale dal pre-addestramento
- Pubblicato su arXiv con ID 2605.09187
- Si concentra sulla rappresentazione del significato 'chi ha fatto cosa a chi'
- Attraverso le scale dei modelli, le rappresentazioni congelate codificano informazioni sui ruoli
Entità
Istituzioni
- arXiv