Il framework SAGE migliora la precisione della modellazione di ottimizzazione con LLM
Un gruppo di ricercatori ha presentato SAGE, un nuovo framework che migliora significativamente il modo in cui i grandi modelli linguistici sviluppano programmi di ottimizzazione precisi ed efficienti. Chiarendo l'approccio di modellazione durante la creazione dei dati e dopo l'addestramento, SAGE sfrutta un dataset multi-strategia verificato da solver e incorpora il supervised fine-tuning con Segment-Weighted GRPO per addestrare un modello studente. Il sistema di ricompensa complessivo considera l'aderenza al formato, l'accuratezza e le prestazioni del solver. Testato su otto benchmark, SAGE ha aumentato il tasso medio pass@1 dal 72,7 all'80,3, superando il modello open-source leader. Rileva inoltre una gamma più ampia di formulazioni corrette e migliora la diversità a livello di componente a pass@16 del 19-29%. Su larga scala, SAGE produce sistemi di vincoli con il 14,2% in meno di vincoli.
Fatti principali
- SAGE è un framework consapevole delle strategie per la modellazione di ottimizzazione con LLM.
- Utilizza un dataset multi-strategia verificato da solver.
- L'addestramento prevede supervised fine-tuning e Segment-Weighted GRPO.
- La ricompensa composita copre conformità al formato, correttezza ed efficienza del solver.
- Testato su otto benchmark che spaziano da ambienti sintetici a reali.
- Migliora il pass@1 medio dal 72,7 all'80,3 rispetto al baseline open-source.
- Aumenta la diversità a livello di componente a pass@16 del 19-29%.
- Riduce il numero di vincoli del 14,2% alla scala più grande.
Entità
Istituzioni
- arXiv