One-Step-Train: Selezione Efficiente dei Dati per Modelli Multimodali
I ricercatori hanno presentato un nuovo approccio chiamato One-Step-Train (OST), che ridefinisce la selezione dei dati inquadrandola come una sfida di ottimizzazione incrementale per i grandi modelli multimodali (LMM). A differenza dei metodi precedenti, come LLM-as-a-Judge, che sono costosi e difficili da comprendere, OST valuta il valore aggiunto di ogni campione utilizzando un aggiornamento simulato a singolo passo con un proxy semplice. I test sulla serie Qwen su diversi benchmark di ragionamento matematico multimodale mostrano che OST raggiunge un'efficienza Pareto-ottimale. Concentrandosi sui primi 50 campioni, riduce i costi di addestramento del 43% e risparmia il 17% del tempo, superando il benchmark LLM-as-a-Judge di 1,8 punti, affrontando efficacemente il compromesso tra qualità e quantità nei dati sintetici.
Fatti principali
- OST riformula la selezione dei dati come ranking di utilità per ottimizzazione incrementale
- OST utilizza un aggiornamento simulato a singolo passo su un proxy leggero
- Esperimenti sulla serie Qwen su benchmark di ragionamento matematico multimodale
- Il sottoinsieme dei primi 50 campioni riduce i costi di addestramento del 43%
- Il tempo totale di elaborazione è ridotto del 17%
- Supera il baseline LLM-as-a-Judge di 1,8 punti
- Affronta il compromesso qualità-quantità nei dati sintetici
- Il framework proposto è interpretabile ed efficiente dal punto di vista computazionale
Entità
Istituzioni
- arXiv