I chatbot AI perdono numeri di telefono personali, le protezioni della privacy falliscono
I chatbot AI generativi, tra cui Google Gemini, OpenAI ChatGPT e xAI Grok, stanno rivelando involontariamente i numeri di telefono e le informazioni personali identificabili (PII) degli utenti senza soluzioni semplici. Un utente di Reddit ha riferito di aver ricevuto chiamate da sconosciuti a causa di un errato instradamento dell'AI di Google. A marzo, Daniel Abraham, un ingegnere israeliano, è stato contattato su WhatsApp dopo che Gemini ha erroneamente elencato il suo numero come quello del servizio clienti di PayBox. Ad aprile, Meira Gilbert, una dottoranda dell'Università di Washington, ha ricevuto da Gemini il numero di cellulare personale di un collega. Gli esperti hanno notato un aumento del 400% delle richieste relative alla privacy sull'AI, con il 55% che menziona ChatGPT. Le attuali normative come CCPA e GDPR non affrontano i dati raccolti pubblicamente. Eiger, Gilbert e Gueorguieva stanno sviluppando un progetto di ricerca per indagare le informazioni personali divulgate dai chatbot.
Fatti principali
- Un utente di Reddit ha riferito di aver ricevuto chiamate da sconosciuti a causa di un errato instradamento dell'AI generativa di Google.
- A marzo 2025, il numero di telefono di Daniel Abraham è stato fornito da Gemini come servizio clienti di PayBox.
- Ad aprile 2025, Meira Gilbert ha ottenuto da Gemini il numero di cellulare personale di Yael Eiger.
- ChatGPT ha offerto un approccio 'investigativo' per trovare l'indirizzo di casa e il nome del coniuge di un professore.
- DeleteMe ha registrato un aumento del 400% delle richieste relative alla privacy sull'AI in sette mesi.
- Il 55% delle richieste sulla privacy AI di DeleteMe menziona ChatGPT, il 20% Gemini, il 15% Claude, il 10% altri.
- 31 dei 578 data broker californiani hanno auto-dichiarato di vendere dati agli sviluppatori di GenAI.
- I modelli memorizzano e riproducono dati testuali dai set di addestramento.
- Le protezioni come i filtri di contenuto e le istruzioni sulla privacy di Anthropic spesso non riescono a prevenire le fughe di dati.
- Le leggi sulla privacy esistenti (CCPA, GDPR) non coprono i dati raccolti pubblicamente utilizzati per l'addestramento.
- Il documento di supporto di Google consente agli utenti di opporsi al trattamento dei dati a seconda della giurisdizione.
- Il portale sulla privacy di OpenAI bilancia le richieste di rimozione con l'interesse pubblico.
- Anthropic manca di un processo chiaro per richiedere la rimozione di dati personali.
- Il miglior consiglio attuale è rimuovere i dati personali dal web pubblico prima dello scraping.
- Eiger, Gilbert e Gueorguieva stanno progettando un progetto di ricerca sull'esposizione dei dati dei chatbot.
Entità
Istituzioni
- Gemini
- OpenAI
- ChatGPT
- Anthropic
- Claude
- xAI
- Grok
- DeleteMe
- PayBox
- University of Washington
- Stanford University Institute for Human-Centered Artificial Intelligence
- Hugging Face
- MIT Technology Review
- Futurism
- California Data Broker Registry
- Google Labs
Luoghi
- Israel
- California
- United States