Generalizzazione Cross-Dominio per l'Addestramento di Monitor LLM
Un recente preprint su arXiv (2605.12265) esplora l'impatto dell'addestramento di modelli linguistici su vari compiti di classificazione sulla loro efficacia in domini sconosciuti. La ricerca indica che questo approccio generalizza in una certa misura a domini correlati, migliorando l'accuratezza della classificazione su nuovi compiti. Tuttavia, esistono casi particolari in cui i modelli ottimizzati faticano a seguire i prompt, specialmente quando il prompt per la classificazione cambia drasticamente, nonostante il dominio dei dati rimanga costante. Combinare l'addestramento alla classificazione con l'aderenza generale alle istruzioni può aiutare a ridurre questi problemi preservando i vantaggi.
Fatti principali
- Preprint arXiv 2605.12265
- Studia la generalizzazione cross-dominio per monitor LLM
- L'addestramento su più compiti di classificazione migliora le prestazioni su nuovi domini
- Casi particolari: i modelli falliscono quando il prompt cambia ma il dominio rimane lo stesso
- Mescolare addestramento alla classificazione e al seguimento delle istruzioni mitiga i fallimenti
- Modelli linguistici con prompt utilizzati come classificatori
- La messa a punto offre robustezza e vantaggi prestazionali
Entità
Istituzioni
- arXiv