ARTFEED — Contemporary Art Intelligence

TinyLM raggiunge il 96,1% sul set di addestramento ARC-AGI-2 utilizzando trasformatori multi-prospettiva

ai-technology · 2026-05-06

Un recente articolo sull'apprendimento automatico presenta un metodo trasformatore multi-prospettiva volto ad affrontare ARC-AGI-2, uno standard per valutare la capacità di risolvere puzzle visivi simili a quelli umani nelle macchine. Questo benchmark valuta la capacità di una macchina di generalizzare da pochi esempi, comprendere significati simbolici e adattare regole in diversi scenari. Gli autori utilizzano TinyLM, potenziato con fine-tuning durante la fase di test, incorporando Test-Time-Training (TTT) e Products of Experts (POE). Il loro approccio raggiunge un'accuratezza del 96,1% sul dataset di addestramento e del 21,7% sul dataset di valutazione.

Fatti principali

  • ARC-AGI-2 è un benchmark di puzzle visivi intuitivi umani
  • L'approccio utilizza TinyLM con fine-tuning al momento del test
  • Vengono impiegati Test-Time-Training (TTT) e Products of Experts (POE)
  • Il modello raggiunge un'accuratezza del 96,1% sul set di addestramento
  • Il modello raggiunge un'accuratezza del 21,7% sul set di valutazione
  • L'articolo è intitolato 'Multi-Perspective Transformers in ARC-AGI-2 Challenge'
  • L'articolo è classificato sotto Computer Science > Machine Learning
  • L'articolo è disponibile su arXiv con ID 2605.01154

Entità

Istituzioni

  • arXiv

Fonti