ARTFEED — Contemporary Art Intelligence

I LLM Generano Vincoli di Ottimizzazione per la Programmazione a Insiemi di Risposte, Raggiungendo Accelerazioni di 4-5 Volte

ai-technology · 2026-04-22

Una nuova metodologia di ricerca utilizza i Large Language Model (LLM) per creare vincoli ottimizzati per la Programmazione a Insiemi di Risposte (ASP), migliorando così le capacità di rappresentazione della conoscenza e di ragionamento. Questa tecnica impiega i LLM insieme alla codifica ASP e a esempi di addestramento minimi per suggerire vincoli candidati che restringono lo spazio di ricerca per le sfide combinatorie. I vincoli che introducono errori di sintassi o influiscono negativamente sulle prestazioni vengono eliminati. I vincoli ottimizzati rimanenti vengono valutati rispetto alla codifica iniziale, con una codifica virtuale migliore (VBE) che produce miglioramenti di velocità di 4-5 volte in tre benchmark della Competizione ASP: Partner Units Problem, Sokoban e Towers of Hanoi. Questo studio, pubblicato su arXiv (identificatore 2604.19251v1), mostra notevoli guadagni di prestazioni attraverso il perfezionamento dei vincoli guidato dall'IA.

Fatti principali

  • I vincoli di ottimizzazione riducono lo spazio di ricerca dei problemi combinatori eliminando porzioni di soluzione
  • I LLM generano vincoli candidati per la Programmazione a Insiemi di Risposte data la codifica e le istanze di addestramento
  • I candidati che causano errori di sintassi o rendono insoddisfacibili istanze soddisfacibili vengono scartati
  • La codifica virtuale migliore seleziona l'opzione più veloce tra le varianti originale e ottimizzata per ogni istanza
  • Raggiunge accelerazioni di 4-5 volte sui benchmark Partner Units Problem, Sokoban e Towers of Hanoi
  • Adatta l'approccio StreamLLM dalla Programmazione a Vincoli alla Programmazione a Insiemi di Risposte
  • Ricerca annunciata su arXiv con identificatore 2604.19251v1
  • Diversi LLM producono vincoli candidati variabili

Entità

Istituzioni

  • arXiv

Fonti