Nuovo Framework Combina Campionamento e Model-Checking per la Sintesi di POMDP
Esiste un nuovo approccio per gestire i Processi Decisionali di Markov Parzialmente Osservabili (POMDP) che combina campionamento, apprendimento di automi e model-checking per sviluppare controllori a stati finiti con garanzie di correttezza. Questo metodo è influenzato dall'algoritmo L* di Angluin, utilizzando il campionamento come controllo di appartenenza e il model-checking per verificare l'equivalenza. Raggiunge un livello di completezza fintanto che la politica guidata dal campionamento è regolare. È stato creato un prototipo per dimostrare questo approccio, con l'obiettivo di colmare il divario tra tecniche di campionamento scalabili ma non verificate e metodi di sintesi più formali ma restrittivi. È possibile trovare l'articolo su arXiv.
Fatti principali
- Il framework integra campionamento, apprendimento di automi e model-checking
- Ispirato dall'algoritmo L* di Angluin
- Il campionamento è usato come oracolo di appartenenza
- Il model-checking è usato come oracolo di equivalenza
- Produce controllori a stati finiti con garanzie formali
- Completezza relativa se la politica indotta dal campionamento è regolare
- Implementazione prototipale dimostrata
- Articolo disponibile su arXiv (2605.14440)
Entità
Istituzioni
- arXiv