QueST: Auto-addestramento in fase di test condizionato dalla query per LLM
Il recentemente introdotto framework, Query-Conditioned Test-Time Self-Training (QueST), modifica i grandi modelli linguistici durante l'inferenza utilizzando la supervisione che proviene direttamente dalla query di input. A differenza del tradizionale scaling in fase di test, che aumenta le risorse computazionali ma non riesce a correggere gli equivoci, QueST consente regolazioni dei parametri senza bisogno di dati esterni. L'idea fondamentale è che la query di input contiene segnali nascosti che aiutano a formare coppie problema-soluzione correlate. Questo metodo supera le carenze delle attuali tecniche di ottimizzazione in fase di test, che dipendono da obiettivi di auto-supervisione ampi che non si allineano specificamente con la query.
Fatti principali
- QueST adatta i parametri degli LLM durante l'inferenza utilizzando la supervisione derivata dalla query.
- Lo scaling standard in fase di test non può correggere le idee sbagliate del modello.
- L'ottimizzazione esistente in fase di test si basa su dati esterni o obiettivi generici.
- QueST genera coppie problema-soluzione condizionate dalla query dall'input.
- Il framework è proposto in arXiv:2605.13369.
- Consente aggiornamenti dei parametri senza dati esterni.
- La query di input codifica segnali latenti per coppie strutturali.
- QueST sta per Query-Conditioned Test-Time Self-Training.
Entità
Istituzioni
- arXiv