ARTFEED — Contemporary Art Intelligence

BoostLoRA: Potenziamento del Gradiente per un Fine-Tuning Efficiente

ai-technology · 2026-05-01

L'approccio innovativo noto come BoostLoRA affronta il bilanciamento tra la dimensione degli adattatori e la loro espressività nel fine-tuning efficiente dei parametri (PEFT). Lo fa addestrando e fondendo iterativamente piccoli adattatori su istanze classificate erroneamente, superando così i vincoli di un sottospazio a rango basso fisso. Utilizzando una strategia di base ROTATE SVD, ogni iterazione viene allocata a un sottospazio ortogonale, consentendo al rango effettivo cumulativo di aumentare linearmente con ogni round, mantenendo ogni adattatore a un rango ultra-basso. Dopo la fusione, gli adattatori vengono scartati, senza alcun overhead di inferenza. Sul modello Qwen2.5-3B, BoostLoRA ottiene l'89,1% su GSM8K e il 68,8% su MATH-500, superando sia TinyLoRA che il fine-tuning completo. Nella generazione di codice, raggiunge il 57,2% su MBPP e l'80,4% su HumanEval, mentre il fine-tuning completo scende al di sotto della linea di base zero-shot.

Fatti principali

  • BoostLoRA è un framework di potenziamento del gradiente per PEFT.
  • Addestra e fonde iterativamente adattatori minimi su esempi classificati erroneamente.
  • La strategia di base ROTATE SVD assegna ogni round a un sottospazio ortogonale.
  • Il rango effettivo cumulativo cresce linearmente con i round.
  • Ogni adattatore rimane a rango ultra-basso.
  • Gli adattatori vengono scartati dopo la fusione, con overhead di inferenza zero.
  • Su Qwen2.5-3B, BoostLoRA raggiunge l'89,1% su GSM8K e il 68,8% su MATH-500.
  • Nella generazione di codice, raggiunge il 57,2% su MBPP e l'80,4% su HumanEval.

Entità

Fonti