ARTFEED — Contemporary Art Intelligence

Valutazione in Tempo Reale di Sistemi Autonomi sotto Attacchi Avversari

other · 2026-05-07

Questo studio presenta un nuovo framework progettato per valutare le strategie di guida autonoma in scenari avversari utilizzando dati reali di incroci, superando le limitazioni delle valutazioni puramente simulate. Addestra e confronta tre approcci di apprendimento delle traiettorie: Behavior Cloning (BC) con MLP, BC basato su Transformers tokenizzati per oggetti e apprendimento per rinforzo inverso (IRL) in un contesto di Generative Adversarial Imitation Learning (GAIL). I modelli vengono valutati tramite Average Displacement Error (ADE) e Final Displacement Error (FDE). La ricerca evidenzia che i dati reali rivelano incongruenze strutturali, limitazioni di supervisione e impatti della rappresentazione degli stati che le simulazioni non riescono a catturare. Questa indagine si basa su un contratto dati controllato, enfatizzando la robustezza durante l'inferenza.

Fatti principali

  • Il framework utilizza dati reali di guida in incroci per la valutazione della robustezza avversaria.
  • Confronta BC basato su MLP, BC basato su Transformer e IRL basato su GAIL.
  • Metriche di valutazione: ADE e FDE.
  • I dati reali catturano incongruenze strutturali, vincoli di supervisione ed effetti della rappresentazione degli stati.
  • Contratto dati controllato utilizzato per la raccolta dati.
  • Focus sulla robustezza durante l'inferenza.
  • La simulazione non riesce a catturare le complessità del mondo reale.
  • Articolo disponibile su arXiv con ID 2605.03491.

Entità

Istituzioni

  • arXiv

Fonti