ARTFEED — Contemporary Art Intelligence

Il framework SAGE migliora la precisione della modellazione di ottimizzazione con LLM

ai-technology · 2026-05-06

Un gruppo di ricercatori ha presentato SAGE, un nuovo framework che migliora significativamente il modo in cui i grandi modelli linguistici sviluppano programmi di ottimizzazione precisi ed efficienti. Chiarendo l'approccio di modellazione durante la creazione dei dati e dopo l'addestramento, SAGE sfrutta un dataset multi-strategia verificato da solver e incorpora il supervised fine-tuning con Segment-Weighted GRPO per addestrare un modello studente. Il sistema di ricompensa complessivo considera l'aderenza al formato, l'accuratezza e le prestazioni del solver. Testato su otto benchmark, SAGE ha aumentato il tasso medio pass@1 dal 72,7 all'80,3, superando il modello open-source leader. Rileva inoltre una gamma più ampia di formulazioni corrette e migliora la diversità a livello di componente a pass@16 del 19-29%. Su larga scala, SAGE produce sistemi di vincoli con il 14,2% in meno di vincoli.

Fatti principali

  • SAGE è un framework consapevole delle strategie per la modellazione di ottimizzazione con LLM.
  • Utilizza un dataset multi-strategia verificato da solver.
  • L'addestramento prevede supervised fine-tuning e Segment-Weighted GRPO.
  • La ricompensa composita copre conformità al formato, correttezza ed efficienza del solver.
  • Testato su otto benchmark che spaziano da ambienti sintetici a reali.
  • Migliora il pass@1 medio dal 72,7 all'80,3 rispetto al baseline open-source.
  • Aumenta la diversità a livello di componente a pass@16 del 19-29%.
  • Riduce il numero di vincoli del 14,2% alla scala più grande.

Entità

Istituzioni

  • arXiv

Fonti