ARTFEED — Contemporary Art Intelligence

FinRAG-12B: LLM bancario raggiunge un tasso di rifiuto del 12% con 143 milioni di token

ai-technology · 2026-05-09

I ricercatori hanno introdotto FinRAG-12B, un modello linguistico da 12 miliardi di parametri per il question answering basato su fonti nel settore bancario. Il modello utilizza una pipeline efficiente in termini di dati con soli 143 milioni di token, combinando filtraggio LLM-as-a-Judge, annotazione delle citazioni e apprendimento curriculare. Supera GPT-4.1 nel grounding delle citazioni mantenendo un'alta qualità delle risposte. Un meccanismo di rifiuto calibrato, addestrato su esempi non rispondibili al 22%, produce un tasso di 'non so' del 12%, migliorando rispetto al tasso insicuro del 4,3% del modello base. Il lavoro affronta le esigenze del settore bancario in termini di accuratezza, conformità normativa e risposte verificabili.

Fatti principali

  • FinRAG-12B è un LLM da 12 miliardi di parametri per il question answering bancario.
  • L'addestramento utilizza solo 143 milioni di token con filtraggio LLM-as-a-Judge.
  • Supera GPT-4.1 nel grounding delle citazioni.
  • Il meccanismo di rifiuto calibrato produce un tasso di 'non so' del 12%.
  • Il modello base aveva un tasso di rifiuto insicuro del 4,3%.
  • Addestrato su esempi non rispondibili al 22%.
  • Affronta le esigenze del settore bancario in termini di accuratezza e conformità.
  • Utilizza apprendimento curriculare e annotazione delle citazioni.

Entità

Istituzioni

  • arXiv

Fonti