I LLM Condividono Rappresentazioni Lessicali dei Compiti tra Stili di Prompt
Un nuovo studio su arXiv (2604.22027) indaga la sensibilità ai prompt nei grandi modelli linguistici (LLM), scoprendo che, nonostante le variazioni di performance tra diversi prompt, i modelli attivano meccanismi sottostanti condivisi. I ricercatori hanno confrontato prompt basati su istruzioni (descrizioni del compito in linguaggio naturale) e prompt basati su esempi (coppie dimostrative few-shot). Hanno identificato testine di attenzione specifiche per il compito, denominate testine lessicali del compito, i cui output descrivono letteralmente il compito e sono condivise tra stili di prompt, innescando la successiva produzione della risposta. Ciò suggerisce che gli LLM mantengono rappresentazioni interne coerenti per i compiti anche quando sollecitati in modo diverso, offrendo spunti sulla variabilità comportamentale.
Fatti principali
- 1. Lo studio confronta stili di prompt basati su istruzioni e su esempi
- 2. Identifica testine lessicali del compito condivise tra prompt
- 3. Le testine lessicali del compito innescano la produzione della risposta
- 4. Pubblicato su arXiv con ID 2604.22027
- 5. Si concentra sulla sensibilità ai prompt negli LLM
- 6. Trova meccanismi sottostanti comuni nonostante le variazioni di performance
- 7. Testine di attenzione specifiche per il compito descrivono letteralmente il compito
- 8. La ricerca fornisce spunti sulla variabilità comportamentale
Entità
Istituzioni
- arXiv