ARTFEED — Contemporary Art Intelligence

Esempi in Contesto Sopprimono il Richiamo di Conoscenze Scientifiche nei LLM

ai-technology · 2026-05-01

Una recente indagine indica che l'incorporazione di esempi in contesto nei grandi modelli linguistici (LLM) riduce la loro capacità di ricordare e utilizzare informazioni scientifiche pre-addestrate, portandoli a concentrarsi maggiormente sul riconoscimento empirico di pattern. Questo studio, registrato su arXiv:2604.27540, ha valutato 60 compiti di recupero della struttura latente in cinque campi scientifici, coinvolgendo 6.000 prove e quattro modelli distinti. I compiti includevano la stima di costanti di reazione in chimica e la deduzione di elasticità della domanda in economia. Mentre l'effetto di spostamento è stato osservato in modo coerente in vari domini, le implicazioni per l'accuratezza sono variate. Questi risultati mettono in discussione le convinzioni prevalenti su come i LLM utilizzano la conoscenza specifica del dominio quando vengono presentati esempi.

Fatti principali

  • Studio pubblicato su arXiv con ID 2604.27540
  • Testati 60 compiti di recupero della struttura latente in cinque domini scientifici
  • Condotte 6.000 prove su quattro modelli
  • Esempi in contesto hanno soppresso il richiamo di conoscenze pre-addestrate
  • Spostamento del calcolo dalla derivazione basata sulla conoscenza all'adattamento empirico di pattern
  • Effetto coerente tra i domini
  • Conseguenze sull'accuratezza variate
  • Compiti includevano costanti di reazione in chimica ed elasticità della domanda in economia

Entità

Istituzioni

  • arXiv

Fonti