ARTFEED — Contemporary Art Intelligence

Potatura della profondità nei LLM: gli obiettivi di calibrazione contano più degli algoritmi di ricerca

ai-technology · 2026-04-30

Una recente indagine contesta la convinzione che la ridondanza nei layer dei grandi modelli linguistici sia una caratteristica essenziale della loro struttura. I ricercatori adottano un punto di vista funzionale, suggerendo che sia il modello che l'obiettivo di valutazione modellano congiuntamente questa ridondanza. Il loro studio empirico, che abbraccia tre famiglie di LLM, due obiettivi di calibrazione e sette algoritmi di ricerca, rivela che obiettivi diversi portano a tipi distinti di layer ridondanti. Le classifiche basate su perplexity e accuratezza downstream non corrispondono in modo coerente. Quando viene fissato un obiettivo specifico, gli algoritmi di ricerca tendono a produrre risultati comparabili. In particolare, l'obiettivo di calibrazione può avere un impatto maggiore rispetto alla scelta dell'algoritmo di ricerca. Questa ricerca è disponibile su arXiv con ID 2604.24938.

Fatti principali

  • La potatura della profondità rimuove i blocchi Transformer per migliorare l'efficienza dell'inferenza.
  • Lavori precedenti trattavano la ridondanza dei layer come una proprietà strutturale intrinseca.
  • Lo studio adotta una prospettiva funzionale: la ridondanza dipende dal modello e dall'obiettivo di valutazione.
  • Analizzate tre famiglie di LLM, due obiettivi di calibrazione, sette algoritmi di ricerca.
  • Obiettivi diversi producono layer ridondanti qualitativamente differenti.
  • Le classifiche di perplexity e accuratezza downstream non si allineano in modo coerente.
  • A parità di obiettivo, gli algoritmi di ricerca producono soluzioni simili.
  • L'obiettivo di calibrazione può essere più influente della scelta dell'algoritmo di ricerca.

Entità

Istituzioni

  • arXiv

Fonti