Apprendimento Attivo con Oracoli Rumorosi: Studio di Annotazione nel Mondo Reale
Un nuovo studio su arXiv (2604.23290) analizza algoritmi di apprendimento attivo utilizzando annotazioni testuali reali ottenute tramite crowdsourcing, affrontando la sfida di oracoli di etichettatura imperfetti o rumorosi. L'apprendimento attivo tradizionale presuppone che gli oracoli siano infallibili, ma le applicazioni reali spesso comportano errori. Ricerche precedenti simulavano oracoli rumorosi con modelli di machine learning, che potrebbero non catturare le sfumature delle annotazioni reali. Questa ricerca raccoglie annotazioni umane effettive per studiare le prestazioni degli algoritmi in condizioni realistiche.
Fatti principali
- Il paper arXiv 2604.23290 analizza algoritmi di apprendimento attivo
- Si concentra su annotazioni testuali reali ottenute tramite crowdsourcing
- Affronta oracoli di etichettatura imperfetti/rumorosi
- L'apprendimento attivo tradizionale presuppone oracoli infallibili
- Ricerche precedenti utilizzavano modelli ML per simulare oracoli rumorosi
- Le sfide dell'annotazione nel mondo reale sono più sfumate
- Lo studio raccoglie annotazioni umane effettive
- Mira a ridurre lo sforzo di annotazione umana nel machine learning
Entità
Istituzioni
- arXiv