ARTFEED — Contemporary Art Intelligence

MENTAT: Un Nuovo Metodo per la Regressione a Ragionamento Intensivo con LLM

ai-technology · 2026-05-04

I ricercatori di intelligenza artificiale hanno identificato un compito impegnativo chiamato regressione a ragionamento intensivo (RiR), in cui i grandi modelli linguistici (LLM) devono dedurre punteggi numerici sottili dal testo. A differenza dei compiti di regressione standard come l'analisi del sentiment, la RiR richiede un'analisi contestuale profonda e si presenta in applicazioni come la valutazione basata su rubriche, la modellazione densa delle ricompense e il recupero specifico del dominio. I ricercatori hanno stabilito un benchmark con quattro problemi realistici e hanno scoperto che sia il prompting di LLM congelati che il fine-tuning di encoder Transformer spesso faticano con la RiR. Propongono MENTAT, un metodo leggero che combina l'ottimizzazione batch-riflessiva dei prompt con l'apprendimento d'insieme neurale, ottenendo prestazioni superiori.

Fatti principali

  • La regressione a ragionamento intensivo (RiR) implica dedurre punteggi numerici sottili dal testo.
  • La RiR si presenta nella valutazione basata su rubriche, nella modellazione densa delle ricompense e nel recupero specifico del dominio.
  • È stato stabilito un benchmark di quattro compiti RiR realistici.
  • Il prompting di LLM congelati e il fine-tuning di encoder Transformer spesso faticano con la RiR.
  • MENTAT combina l'ottimizzazione batch-riflessiva dei prompt con l'apprendimento d'insieme neurale.
  • MENTAT è un metodo semplice e leggero.
  • La ricerca è pubblicata su arXiv con ID 2508.21762.
  • L'articolo è un annuncio replace-cross.

Entità

Istituzioni

  • arXiv

Fonti