Raffinamento Adattivo Gerarchico Accelera la Sintesi di Politiche in Grandi MDP
Una nuova strategia per sintetizzare politiche in processi decisionali di Markov (MDP) utilizza il raffinamento adattivo gerarchico per gestire spazi di stato estesi. Questa tecnica identifica iterativamente le aree più sensibili, ottimizzando sia l'accuratezza che l'efficienza. La politica risultante è dimostrata essere quasi ottimale sulla base di assunzioni convenzionali, con errori limitati dalle tolleranze del risolutore locale e dalle discrepanze ai confini. In applicazioni pratiche che coinvolgono MDP con fino a 1 milione di stati, questo metodo fornisce un aumento di velocità fino a 2× rispetto a PRISM, presentando una soluzione praticabile per la sintesi di politiche nel mondo reale in sistemi software-intensivi come linee di prodotti software e robotica.
Fatti principali
- L'approccio accelera la sintesi di politiche in grandi MDP tramite raffinamento adattivo gerarchico
- Raffina dinamicamente l'MDP selezionando iterativamente le regioni più fragili
- Bilancia accuratezza ed efficienza raffinando solo quando necessario
- La politica composta è quasi ottimale sotto assunzioni standard
- Errore limitato dalla tolleranza del risolutore locale e dalla discrepanza ai confini
- Dimostrato su MDP fino a 1 milione di stati
- Raggiunge un aumento di velocità fino a 2× rispetto a PRISM
- Applicabile a linee di prodotti software e robotica
Entità
—