ARTFEED — Contemporary Art Intelligence

DIPS: Utilizzo di LLM per Generare Fronti di Pareto per l'Ottimizzazione Bi-Obiettivo

ai-technology · 2026-05-13

Un nuovo framework noto come DIPS potenzia i grandi modelli linguistici per produrre fronti di Pareto validi per l'ottimizzazione convessa bi-obiettivo con vincoli. A differenza dei metodi tradizionali come la scalarizzazione iterativa o la ricerca evolutiva, DIPS utilizza una descrizione testuale del problema per generare una sequenza ordinata di vettori decisionali continui che assomigliano molto al fronte di Pareto. Per collegare l'ottimizzazione continua con la modellazione linguistica autoregressiva, DIPS impiega un metodo di discretizzazione compatto chiamato Inizializzazione dei Token con Base Numerica per nuovi token numerici, insieme a un'ottimizzazione curriculare in tre fasi che migliora sistematicamente la validità strutturale, la fattibilità e la qualità del fronte di Pareto. L'efficacia di questo metodo è valutata su cinque categorie di problemi di ottimizzazione, consentendo una generazione rapida senza richiedere chiamate al risolutore per ogni istanza.

Fatti principali

  • 1. DIPS è un framework end-to-end per l'ottimizzazione convessa bi-obiettivo con vincoli.
  • 2. Affina i grandi modelli linguistici come generatori ammortizzati di fronti di Pareto.
  • 3. L'input è una descrizione testuale del problema; l'output è un insieme ordinato di vettori decisionali fattibili.
  • 4. Utilizza discretizzazione compatta, Inizializzazione dei Token con Base Numerica e Ottimizzazione Curriculare in Tre Fasi.
  • 5. Valutato su cinque famiglie di problemi di ottimizzazione.
  • 6. Elimina la necessità di ottimizzazione ripetuta per ogni istanza.
  • 7. Pubblicato su arXiv con ID 2605.12106.
  • 8. L'approccio combina LLM con ottimizzazione continua.

Entità

Istituzioni

  • arXiv

Fonti