ARTFEED — Contemporary Art Intelligence

I LLM falliscono nel generare numeri casuali da distribuzioni statistiche

ai-technology · 2026-04-27

Una recente indagine pubblicata su arXiv (2601.05414) indica che i modelli linguistici di grandi dimensioni (LLM) incontrano difficoltà nel produrre numeri casuali da distribuzioni di probabilità designate. I ricercatori hanno valutato 11 modelli leader su 15 diverse distribuzioni utilizzando un approccio a doppio protocollo: Generazione in Batch (N=1000 campioni in una singola risposta) e Richieste Indipendenti (N=1000 chiamate senza stato). I risultati rivelano una disparità significativa: il tasso di superamento mediano per la generazione in batch è stato solo del 7%, mentre le richieste indipendenti hanno quasi fallito completamente, con 10 modelli su 11 che non hanno superato alcuna distribuzione. Questa ricerca sottolinea una necessità funzionale vitale man mano che gli LLM vengono incorporati in sistemi stocastici e pipeline che mirano all'intelligenza generale.

Fatti principali

  • Lo studio confronta 11 LLM all'avanguardia su 15 distribuzioni
  • Progetto a doppio protocollo: Generazione in Batch e Richieste Indipendenti
  • Tasso di superamento mediano della generazione in batch: 7%
  • Richieste Indipendenti: 10 modelli su 11 non hanno superato nessuna distribuzione
  • Gli LLM faticano a campionare da distribuzioni di probabilità specificate
  • Studio tratto dall'articolo arXiv 2601.05414
  • Requisito funzionale per gli LLM in pipeline stocastiche
  • Primo audit su larga scala e statisticamente potente del campionamento probabilistico nativo

Entità

Istituzioni

  • arXiv

Fonti