DistPFN: Regolazione a Posteriori in Tempo di Test per lo Spostamento delle Etichette in TabPFN
TabPFN, un modello fondamentale progettato per dataset tabulari che utilizza l'apprendimento in contesto su dati sintetici, affronta sfide con lo spostamento delle etichette, spesso sovradattandosi alla classe dominante. Per contrastare questo problema, i ricercatori hanno introdotto DistPFN, la prima tecnica di regolazione a posteriori in tempo di test per modelli fondamentali tabulari. Questo metodo modifica le probabilità delle classi previste riducendo il peso del prior di addestramento e accentuando il posterior previsto dal modello, senza richiedere modifiche all'architettura o addestramento aggiuntivo. Un'estensione chiamata DistPFN-T aggiunge il temperature scaling per gestire dinamicamente la forza delle regolazioni in base alle discrepanze tra prior e posterior. Testato su oltre 250 dataset OpenML, DistPFN dimostra miglioramenti significativi rispetto a TabPFN quando si verifica uno spostamento delle etichette.
Fatti principali
- 1. TabPFN è un modello fondamentale per dataset tabulari che utilizza l'apprendimento in contesto su dati sintetici.
- 2. TabPFN è vulnerabile allo spostamento delle etichette, sovradattandosi alla classe maggioritaria.
- 3. DistPFN è il primo metodo di regolazione a posteriori in tempo di test per modelli fondamentali tabulari.
- 4. DistPFN riscala le probabilità delle classi riducendo il peso del prior di addestramento ed enfatizzando il posterior previsto.
- 5. DistPFN non richiede modifiche architetturali o addestramento aggiuntivo.
- 6. DistPFN-T incorpora il temperature scaling per una forza di regolazione adattiva.
- 7. La valutazione è stata condotta su oltre 250 dataset OpenML.
- 8. DistPFN mostra miglioramenti sostanziali rispetto a TabPFN in presenza di spostamento delle etichette.
Entità
Istituzioni
- arXiv
- OpenML