ARTFEED — Contemporary Art Intelligence

DistPFN: Regolazione a Posteriori in Tempo di Test per lo Spostamento delle Etichette in TabPFN

ai-technology · 2026-05-07

TabPFN, un modello fondamentale progettato per dataset tabulari che utilizza l'apprendimento in contesto su dati sintetici, affronta sfide con lo spostamento delle etichette, spesso sovradattandosi alla classe dominante. Per contrastare questo problema, i ricercatori hanno introdotto DistPFN, la prima tecnica di regolazione a posteriori in tempo di test per modelli fondamentali tabulari. Questo metodo modifica le probabilità delle classi previste riducendo il peso del prior di addestramento e accentuando il posterior previsto dal modello, senza richiedere modifiche all'architettura o addestramento aggiuntivo. Un'estensione chiamata DistPFN-T aggiunge il temperature scaling per gestire dinamicamente la forza delle regolazioni in base alle discrepanze tra prior e posterior. Testato su oltre 250 dataset OpenML, DistPFN dimostra miglioramenti significativi rispetto a TabPFN quando si verifica uno spostamento delle etichette.

Fatti principali

  • 1. TabPFN è un modello fondamentale per dataset tabulari che utilizza l'apprendimento in contesto su dati sintetici.
  • 2. TabPFN è vulnerabile allo spostamento delle etichette, sovradattandosi alla classe maggioritaria.
  • 3. DistPFN è il primo metodo di regolazione a posteriori in tempo di test per modelli fondamentali tabulari.
  • 4. DistPFN riscala le probabilità delle classi riducendo il peso del prior di addestramento ed enfatizzando il posterior previsto.
  • 5. DistPFN non richiede modifiche architetturali o addestramento aggiuntivo.
  • 6. DistPFN-T incorpora il temperature scaling per una forza di regolazione adattiva.
  • 7. La valutazione è stata condotta su oltre 250 dataset OpenML.
  • 8. DistPFN mostra miglioramenti sostanziali rispetto a TabPFN in presenza di spostamento delle etichette.

Entità

Istituzioni

  • arXiv
  • OpenML

Fonti