ARTFEED — Contemporary Art Intelligence

L'Adattamento LLM Basato su Hypernetwork Fallisce in Presenza di Conflitti di Conoscenza

ai-technology · 2026-04-29

Uno studio recente indica che le tecniche basate su hypernetwork, come Doc-to-LoRA, che incorporano documenti nei pesi di un grande modello linguistico (LLM) in un unico passaggio in avanti, falliscono sistematicamente quando il documento contraddice la conoscenza preesistente del preaddestramento. La precisione crolla al 46,4% per i fatti complessi. Questo fallimento è attribuito a un problema di magnitudo: il margine dell'adattatore dell'hypernetwork rimane invariato mentre il margine preaddestrato aumenta con la frequenza di addestramento, portando a conflitti intrinseci. Nei test che coinvolgono 194 conflitti, la precisione di base è scesa dal 68% per domande con prior debole al 16% per quelle con prior forte, con un divario di 52 punti percentuali. I rimedi proposti includono Selective Layer Boosting e Conflict-Aware Internalization.

Fatti principali

  • I metodi basati su hypernetwork come Doc-to-LoRA falliscono sistematicamente in presenza di conflitti di conoscenza.
  • La precisione scende al 46,4% sui fatti più profondi quando il documento contraddice il preaddestramento.
  • Il fallimento è un problema di magnitudo, non rappresentazionale.
  • Il margine dell'adattatore è costante mentre il margine preaddestrato cresce con la frequenza di addestramento.
  • La precisione di base scende dal 68% al 16% per domande con prior forte.
  • Divario di 52 punti percentuali tra domande con prior debole e forte.
  • Selective Layer Boosting e Conflict-Aware Internalization sono proposti come soluzioni.
  • Studio pubblicato su arXiv con ID 2604.23750.

Entità

Istituzioni

  • arXiv

Fonti