ARTFEED — Contemporary Art Intelligence

Nuovo Benchmark Stima il Numero di Parametri dei LLM tramite Conoscenza Fattuale

ai-technology · 2026-04-30

I ricercatori hanno sviluppato una tecnica innovativa per stimare il numero di parametri dei modelli linguistici di grandi dimensioni closed-source valutando la loro conoscenza fattuale. Hanno creato le Incompressible Knowledge Probes (IKP), composte da 1.400 domande fattuali suddivise in 7 livelli di oscurità, mirate a identificare conoscenze che non possono essere dedotte tramite ragionamento o migliorate da modifiche architetturali. Stabilendo una relazione log-lineare tra l'accuratezza IKP e il numero di parametri utilizzando 89 modelli a pesi aperti (da 135M a 1.600B parametri) di 19 diversi fornitori, hanno ottenuto un valore R² di 0,917. La convalida incrociata leave-one-out ha rivelato un errore mediano di fold di 1,59×, con il 68,5% delle stime entro 2× e l'87,6% entro 4×. Questo metodo sfrutta il requisito fondamentale che memorizzare F fatti richiede almeno F/(bit per parametro) pesi, offrendo una stima più precisa rispetto all'economia dell'inferenza, che comporta un'incertezza superiore a 2× a causa di ipotesi su hardware, batching e stack di servizio. La ricerca è disponibile su arXiv con ID 2604.24827.

Fatti principali

  • Il metodo stima il numero di parametri dei LLM tramite conoscenza fattuale
  • Il benchmark IKP ha 1.400 domande fattuali in 7 livelli di oscurità
  • Calibrato su 89 modelli a pesi aperti di 19 fornitori
  • Le dimensioni dei modelli vanno da 135M a 1.600B parametri
  • R² di 0,917 per la mappatura log-lineare
  • Errore mediano di fold 1,59× nella convalida incrociata
  • 68,5% delle stime entro 2×, 87,6% entro 4×
  • ID articolo: arXiv:2604.24827

Entità

Istituzioni

  • arXiv

Fonti