Dataset GPT-Image-2 di Twitter Traccia le Immagini AI dopo il Rilascio di OpenAI
Il dataset GPT-Image-2 di Twitter è stato presentato dai ricercatori, rappresentando la prima raccolta di immagini prodotte dal modello GPT-image-2 di OpenAI. Questo dataset deriva da post pubblici su Twitter/X dopo il lancio del modello il 21 aprile 2026. Utilizzando l'API v2 di Twitter e un processo di curation completo che incorpora euristiche testuali multilingue (in inglese, giapponese e cinese), controlli automatici del browser per l'etichetta "Made with AI" di Twitter e corrispondenza delle varianti del nome del modello, il team ha raccolto con successo 10.217 immagini verificate di GPT-image-2 da un totale di 27.662 voci in sei giorni. Il dataset include analisi sulla classificazione zero-shot basata su CLIP, leggibilità del testo (con l'82,0% delle immagini contenenti testo riconoscibile) e rilevamento dei volti (coprendo il 59,2% delle immagini, per un totale di 22.583 volti). Questo rilascio segna un momento cruciale nel campo delle immagini generate dall'IA, poiché diventa sempre più difficile distinguere tra fotografie reali e immagini sintetiche.
Fatti principali
- Dataset proveniente da post su Twitter/X dopo il rilascio di GPT-image-2 il 21 aprile 2026
- 10.217 immagini confermate di GPT-image-2 da 27.662 record in sei giorni
- Curation multi-fase: euristiche multilingue (inglese, giapponese, cinese), verifica del badge, corrispondenza del nome del modello
- 82,0% delle immagini contiene testo rilevabile (analisi OCR)
- 59,2% delle immagini contiene volti (22.583 volti totali)
- Tassonomia dei soggetti zero-shot basata su CLIP applicata
- Primo dataset pubblicato di immagini generate da GPT-image-2
- Il confine tra realtà fotografica e contenuto sintetico è sempre più difficile da discernere
Entità
Istituzioni
- OpenAI
- X
- arXiv