TinyLM raggiunge il 96,1% sul set di addestramento ARC-AGI-2 utilizzando trasformatori multi-prospettiva
Un recente articolo sull'apprendimento automatico presenta un metodo trasformatore multi-prospettiva volto ad affrontare ARC-AGI-2, uno standard per valutare la capacità di risolvere puzzle visivi simili a quelli umani nelle macchine. Questo benchmark valuta la capacità di una macchina di generalizzare da pochi esempi, comprendere significati simbolici e adattare regole in diversi scenari. Gli autori utilizzano TinyLM, potenziato con fine-tuning durante la fase di test, incorporando Test-Time-Training (TTT) e Products of Experts (POE). Il loro approccio raggiunge un'accuratezza del 96,1% sul dataset di addestramento e del 21,7% sul dataset di valutazione.
Fatti principali
- ARC-AGI-2 è un benchmark di puzzle visivi intuitivi umani
- L'approccio utilizza TinyLM con fine-tuning al momento del test
- Vengono impiegati Test-Time-Training (TTT) e Products of Experts (POE)
- Il modello raggiunge un'accuratezza del 96,1% sul set di addestramento
- Il modello raggiunge un'accuratezza del 21,7% sul set di valutazione
- L'articolo è intitolato 'Multi-Perspective Transformers in ARC-AGI-2 Challenge'
- L'articolo è classificato sotto Computer Science > Machine Learning
- L'articolo è disponibile su arXiv con ID 2605.01154
Entità
Istituzioni
- arXiv