Alberi Decisionali Spiegano Politiche a Memoria Finita per POMDP
Un nuovo metodo da arXiv:2411.13365v2 rappresenta politiche a memoria finita per Processi Decisionali di Markov Parzialmente Osservabili (POMDP) utilizzando alberi decisionali e macchine di Mealy per migliorare la spiegabilità. I POMDP sono un quadro chiave per il processo decisionale in condizioni di incertezza, ma le politiche ottimali spesso richiedono memoria infinita, rendendole difficili da implementare e indecidibili. Le politiche a memoria finita sono più pratiche, ma i loro algoritmi e le politiche risultanti rimangono complessi. L'approccio proposto combina macchine di Mealy, che commutano tra parti stazionarie, con alberi decisionali che descrivono componenti stazionarie semplici. Ciò produce politiche che sono sia interpretabili che più piccole, migliorando la spiegabilità. La traduzione si applica a politiche nella forma di controllori a stati finiti (FSC) dalla letteratura standard.
Fatti principali
- Il metodo combina macchine di Mealy e alberi decisionali.
- Si rivolge a politiche a memoria finita per POMDP.
- Mira a migliorare la spiegabilità di politiche complesse.
- Le politiche sono rappresentate in un formalismo interpretabile.
- Le politiche risultanti sono tipicamente di dimensioni ridotte.
- La traduzione è progettata per la forma di controllori a stati finiti (FSC).
- I POMDP sono un quadro per il processo decisionale in condizioni di incertezza.
- Le politiche ottimali possono richiedere memoria infinita.
Entità
Istituzioni
- arXiv