I LLM Generano Vincoli di Ottimizzazione per la Programmazione a Insiemi di Risposte, Raggiungendo Accelerazioni di 4-5 Volte
Una nuova metodologia di ricerca utilizza i Large Language Model (LLM) per creare vincoli ottimizzati per la Programmazione a Insiemi di Risposte (ASP), migliorando così le capacità di rappresentazione della conoscenza e di ragionamento. Questa tecnica impiega i LLM insieme alla codifica ASP e a esempi di addestramento minimi per suggerire vincoli candidati che restringono lo spazio di ricerca per le sfide combinatorie. I vincoli che introducono errori di sintassi o influiscono negativamente sulle prestazioni vengono eliminati. I vincoli ottimizzati rimanenti vengono valutati rispetto alla codifica iniziale, con una codifica virtuale migliore (VBE) che produce miglioramenti di velocità di 4-5 volte in tre benchmark della Competizione ASP: Partner Units Problem, Sokoban e Towers of Hanoi. Questo studio, pubblicato su arXiv (identificatore 2604.19251v1), mostra notevoli guadagni di prestazioni attraverso il perfezionamento dei vincoli guidato dall'IA.
Fatti principali
- I vincoli di ottimizzazione riducono lo spazio di ricerca dei problemi combinatori eliminando porzioni di soluzione
- I LLM generano vincoli candidati per la Programmazione a Insiemi di Risposte data la codifica e le istanze di addestramento
- I candidati che causano errori di sintassi o rendono insoddisfacibili istanze soddisfacibili vengono scartati
- La codifica virtuale migliore seleziona l'opzione più veloce tra le varianti originale e ottimizzata per ogni istanza
- Raggiunge accelerazioni di 4-5 volte sui benchmark Partner Units Problem, Sokoban e Towers of Hanoi
- Adatta l'approccio StreamLLM dalla Programmazione a Vincoli alla Programmazione a Insiemi di Risposte
- Ricerca annunciata su arXiv con identificatore 2604.19251v1
- Diversi LLM producono vincoli candidati variabili
Entità
Istituzioni
- arXiv