G-Loss: Il fine-tuning guidato da grafi migliora gli embedding dei modelli linguistici
Un gruppo di ricercatori ha introdotto G-Loss, una nuova funzione di perdita guidata da grafi volta a migliorare modelli come BERT. A differenza delle funzioni di perdita tradizionali come l'entropia incrociata e i metodi contrastivi, che operano principalmente in aree locali, G-Loss sfrutta la propagazione semi-supervisionata delle etichette per attingere ai collegamenti strutturali presenti nella varietà degli embedding. Costruisce un grafo di similarità tra documenti che cattura connessioni semantiche più ampie, consentendo al modello di creare embedding più efficaci e resilienti. Testato su cinque dataset di riferimento—MR per l'analisi del sentiment, R8 e R52 per la categorizzazione per argomento, Ohsumed per la classificazione di documenti medici e 20NG per la categorizzazione di notizie—G-Loss ha mostrato una convergenza più rapida e ha prodotto spazi di embedding semanticamente più coerenti in molti casi. Questo studio è dettagliato nel preprint arXiv 2604.25853.
Fatti principali
- G-Loss è una funzione di perdita guidata da grafi per il fine-tuning di modelli linguistici.
- Utilizza la propagazione semi-supervisionata delle etichette e un grafo di similarità tra documenti.
- Cattura la struttura semantica globale, a differenza delle perdite tradizionali che sono solo locali.
- Valutato sui dataset MR, R8, R52, Ohsumed e 20NG.
- Converge più velocemente e produce embedding più coerenti.
- Mirato a compiti di classificazione downstream: sentiment, argomento, medico, notizie.
- Preprint disponibile su arXiv (2604.25853).
- Applicabile a modelli come BERT.
Entità
Istituzioni
- arXiv