ARTFEED — Contemporary Art Intelligence

QueST: Auto-addestramento in fase di test condizionato dalla query per LLM

ai-technology · 2026-05-14

Il recentemente introdotto framework, Query-Conditioned Test-Time Self-Training (QueST), modifica i grandi modelli linguistici durante l'inferenza utilizzando la supervisione che proviene direttamente dalla query di input. A differenza del tradizionale scaling in fase di test, che aumenta le risorse computazionali ma non riesce a correggere gli equivoci, QueST consente regolazioni dei parametri senza bisogno di dati esterni. L'idea fondamentale è che la query di input contiene segnali nascosti che aiutano a formare coppie problema-soluzione correlate. Questo metodo supera le carenze delle attuali tecniche di ottimizzazione in fase di test, che dipendono da obiettivi di auto-supervisione ampi che non si allineano specificamente con la query.

Fatti principali

  • QueST adatta i parametri degli LLM durante l'inferenza utilizzando la supervisione derivata dalla query.
  • Lo scaling standard in fase di test non può correggere le idee sbagliate del modello.
  • L'ottimizzazione esistente in fase di test si basa su dati esterni o obiettivi generici.
  • QueST genera coppie problema-soluzione condizionate dalla query dall'input.
  • Il framework è proposto in arXiv:2605.13369.
  • Consente aggiornamenti dei parametri senza dati esterni.
  • La query di input codifica segnali latenti per coppie strutturali.
  • QueST sta per Query-Conditioned Test-Time Self-Training.

Entità

Istituzioni

  • arXiv

Fonti