Modelli di Apprendimento Contrastivo per Identificazione e Generazione al Limite
Un nuovo preprint su arXiv (2605.06211) introduce l'identificazione e la generazione contrastiva al limite, estendendo i modelli classici di apprendimento. Nell'identificazione al limite di Gold del 1967, un apprendista riceve esempi positivi e deve eventualmente identificare un'ipotesi target. La generazione al limite di Kleinberg e Mullainathan del 2024 richiede l'output di elementi nuovi dal supporto del target. Entrambi si basano su dati solo positivi o completamente etichettati. Il nuovo lavoro affronta segnali di supervisione relazionali, dove l'apprendista osserva coppie non ordinate {x,y} tali che h(x) ≠ h(y) per un'ipotesi binaria sconosciuta h, senza sapere quale elemento è positivo. L'articolo presenta tre risultati in ambiente senza rumore, avviando lo studio delle presentazioni contrastive.
Fatti principali
- Il preprint arXiv 2605.06211 introduce l'identificazione e la generazione contrastiva al limite.
- Estende il modello di identificazione al limite di Gold del 1967.
- Si basa sulla generazione al limite di Kleinberg e Mullainathan del 2024.
- L'apprendista osserva coppie non ordinate {x,y} con h(x) ≠ h(y).
- L'ipotesi binaria h è sconosciuta; l'elemento positivo è nascosto.
- Tre risultati presentati in ambiente senza rumore.
- Si concentra su segnali di supervisione relazionali anziché etichette singole.
- La presentazione contrastiva utilizza flussi di coppie.
Entità
Istituzioni
- arXiv