PrivAR: Rilevamento dei Rischi per la Privacy Basato su VLM per la Realtà Aumentata
I ricercatori hanno proposto PrivAR, un framework che utilizza modelli linguistico-visivi (VLM) con prompting a catena di pensiero per rilevare rischi per la privacy dipendenti dal contesto in ambienti di realtà aumentata (AR). A differenza dei framework AR esistenti per la privacy, che mancano di comprensione semantica, PrivAR analizza gli indizi visivi della scena per dedurre i tipi di informazioni sensibili—ad esempio, identificando note con password in un contesto d'ufficio. Rileva e offusca il contenuto testuale per prevenire l'esposizione, preservando al contempo gli indizi contestuali necessari per l'inferenza del VLM. Il sistema esplora anche interfacce di avviso contestualmente informate per aumentare la consapevolezza della privacy degli utenti. Negli esperimenti su un dataset AR del mondo reale, PrivAR ha raggiunto un'accuratezza dell'81,48% e un F1-score dell'84,62%. Il lavoro è stato pubblicato su arXiv (ID: 2604.22805).
Fatti principali
- PrivAR utilizza modelli linguistico-visivi con prompting a catena di pensiero.
- Rileva rischi per la privacy dipendenti dal contesto in ambienti AR.
- Può identificare informazioni sensibili come note con password in uffici.
- Il sistema offusca il contenuto testuale preservando gli indizi contestuali.
- Vengono investigate interfacce di avviso contestualmente informate.
- Gli esperimenti hanno utilizzato un dataset AR del mondo reale.
- Accuratezza raggiunta: 81,48%.
- F1-score raggiunto: 84,62%.
Entità
Istituzioni
- arXiv