Valutazione in Tempo Reale di Sistemi Autonomi sotto Attacchi Avversari
Questo studio presenta un nuovo framework progettato per valutare le strategie di guida autonoma in scenari avversari utilizzando dati reali di incroci, superando le limitazioni delle valutazioni puramente simulate. Addestra e confronta tre approcci di apprendimento delle traiettorie: Behavior Cloning (BC) con MLP, BC basato su Transformers tokenizzati per oggetti e apprendimento per rinforzo inverso (IRL) in un contesto di Generative Adversarial Imitation Learning (GAIL). I modelli vengono valutati tramite Average Displacement Error (ADE) e Final Displacement Error (FDE). La ricerca evidenzia che i dati reali rivelano incongruenze strutturali, limitazioni di supervisione e impatti della rappresentazione degli stati che le simulazioni non riescono a catturare. Questa indagine si basa su un contratto dati controllato, enfatizzando la robustezza durante l'inferenza.
Fatti principali
- Il framework utilizza dati reali di guida in incroci per la valutazione della robustezza avversaria.
- Confronta BC basato su MLP, BC basato su Transformer e IRL basato su GAIL.
- Metriche di valutazione: ADE e FDE.
- I dati reali catturano incongruenze strutturali, vincoli di supervisione ed effetti della rappresentazione degli stati.
- Contratto dati controllato utilizzato per la raccolta dati.
- Focus sulla robustezza durante l'inferenza.
- La simulazione non riesce a catturare le complessità del mondo reale.
- Articolo disponibile su arXiv con ID 2605.03491.
Entità
Istituzioni
- arXiv