ARTFEED — Contemporary Art Intelligence

LoopUS: Un Framework Post-Addestramento Converte gli LLM in Architetture a Ciclo

ai-technology · 2026-05-13

Un team di ricercatori ha introdotto un metodo innovativo chiamato Looped Depth Up-Scaling (LoopUS) che migliora i grandi modelli linguistici riconfigurandoli in formati a ciclo. Questo metodo, che riduce significativamente la necessità di un esteso riaddestramento, si basa su tre componenti: un codificatore, un'unità di ragionamento a ciclo e un decodificatore. LoopUS mira a potenziare le prestazioni di ragionamento mantenendo l'efficienza. La tecnica prevede la scomposizione delle informazioni in fasi, l'utilizzo di un gate selettivo per la gestione degli stati nascosti e l'incorporazione di una supervisione profonda casuale per ottimizzare la memoria durante compiti complessi. I dettagli completi sono disponibili nello studio su arXiv, ID 2605.11011.

Fatti principali

  • 1. LoopUS sta per Looped Depth Up-Scaling.
  • 2. È un framework post-addestramento per convertire LLM pre-addestrati in architetture a ciclo.
  • 3. Il framework riconfigura l'LLM in un codificatore, un blocco di ragionamento a ciclo e un decodificatore.
  • 4. Vengono utilizzati quattro componenti principali: scomposizione a blocchi, gate selettivo, supervisione profonda casuale e meccanismi aggiuntivi.
  • 5. La scomposizione a blocchi è guidata dalla dinamica di rappresentazione a fasi.
  • 6. Il gate selettivo dipende dall'input e mitiga la deriva dello stato nascosto.
  • 7. La supervisione profonda casuale consente un apprendimento efficiente in termini di memoria su lunghi orizzonti ricorsivi.
  • 8. Il lavoro è pubblicato su arXiv con ID 2605.11011.

Entità

Istituzioni

  • arXiv

Fonti