Distill-Belief: Localizzazione Efficiente a Ciclo Chiuso tramite Framework Insegnante-Studente
Un recente preprint su arXiv (2604.26095) presenta Distill-Belief, un modello insegnante-studente progettato per la localizzazione e caratterizzazione inversa di sorgenti a ciclo chiuso (ISLC). Questo approccio innovativo affronta la difficoltà di ottenere una stima precisa dell'incertezza insieme all'efficienza computazionale nella pianificazione dello spazio delle credenze. Un insegnante basato su filtro particellare Bayes-corretto genera ricchi segnali di guadagno informativo, mentre uno studente snello condensa la distribuzione a posteriori in statistiche di credenza per il controllo e fornisce un certificato di incertezza per la terminazione. Durante l'implementazione, viene utilizzato solo lo studente, garantendo un costo costante per passo. I test su sette modalità di campo mostrano il successo del metodo nella localizzazione di sorgenti e nell'inferenza di parametri di campo latenti sotto stringenti limiti di tempo.
Fatti principali
- Distill-Belief è un framework insegnante-studente per ISLC
- Utilizza un insegnante basato su filtro particellare Bayes-corretto per il segnale di guadagno informativo
- Lo studente condensa la distribuzione a posteriori in statistiche di credenza e un certificato di incertezza
- L'implementazione utilizza solo lo studente con costo costante per passo
- Testato su sette modalità di campo
- Affronta il reward hacking nei modelli di credenza appresi
- Pubblicato su arXiv con ID 2604.26095
- L'agente mobile a ciclo chiuso seleziona le misurazioni sotto vincoli di tempo
Entità
Istituzioni
- arXiv