Ottimizzazione dello Spazio di Lavoro: Addestramento di Agenti Senza Aggiornamenti dei Pesi
Un nuovo articolo su arXiv propone l'ottimizzazione dello spazio di lavoro come metodo per addestrare agenti basati su modelli linguistici senza modificare i loro pesi. L'approccio si concentra sull'evoluzione dello spazio di lavoro esterno dell'agente — il substrato strutturato su cui legge, scrive e testa — attraverso l'interazione. Gli autori introducono DreamTeam, un sistema multi-agente per ARC-AGI-3 che utilizza ruoli per costruire modelli del mondo, pianificare, formulare ipotesi e instradare i fallimenti. Il metodo rispecchia l'addestramento nello spazio dei pesi con artefatti come parametri, evidenze come dati, controesempi come perdite e feedback testuale come gradienti. L'articolo si rivolge ad ambienti multi-turno difficili in cui i modelli all'avanguardia hanno forti priorità ma non riescono a risolvere i compiti in un unico tentativo.
Fatti principali
- L'articolo arXiv 2605.09650 propone l'ottimizzazione dello spazio di lavoro
- L'ottimizzazione dello spazio di lavoro addestra agenti senza aggiornamenti dei pesi
- Gli agenti evolvono lo spazio di lavoro esterno attraverso l'interazione
- DreamTeam è un sistema multi-agente per ARC-AGI-3
- I ruoli includono costruzione di modelli del mondo, pianificazione, formulazione di ipotesi, sondaggio, strategia, instradamento dei fallimenti
- Il metodo rispecchia l'addestramento nello spazio dei pesi con artefatti, evidenze, controesempi, feedback testuale
- Si rivolge ad ambienti multi-turno difficili con forti priorità ma fallimento in un unico tentativo
- Testato sull'attuale set pubblico di 25 giochi ARC-AGI-3
Entità
Istituzioni
- arXiv