ARTFEED — Contemporary Art Intelligence

Mochi: Framework di Meta-Apprendimento per Modelli Fondamentali di Grafi

other · 2026-04-27

Un team di ricercatori ha introdotto Mochi, un Modello Fondamentale di Grafi che utilizza un framework di addestramento basato su meta-apprendimento volto a migliorare l'unificazione dei compiti e l'efficienza dell'addestramento. A differenza dei modelli precedenti che utilizzano obiettivi basati sulla ricostruzione come la previsione dei collegamenti e richiedono una fase di unificazione separata con prototipi di classe, Mochi si concentra su episodi few-shot che replicano il processo di valutazione downstream durante il pre-addestramento. Questo approccio allinea gli obiettivi di addestramento con l'inferenza, eliminando così la necessità di un'unificazione post-hoc. I test condotti su dataset sia sintetici che reali rivelano limitazioni nei metodi tradizionali che ostacolano le prestazioni downstream. Mochi, insieme alla sua variante avanzata Mochi++, dimostra risultati competitivi o addirittura superiori rispetto ai Modelli Fondamentali di Grafi esistenti su 25 dataset reali.

Fatti principali

  • Mochi è un Modello Fondamentale di Grafi che utilizza meta-apprendimento.
  • Si pre-allena su episodi few-shot che rispecchiano la valutazione downstream.
  • Allinea l'obiettivo di addestramento con l'inferenza.
  • Elimina la fase di unificazione post-hoc.
  • Supera i modelli esistenti su 25 dataset reali.
  • Ha una variante più potente, Mochi++.
  • Affronta le limitazioni del pre-addestramento basato sulla ricostruzione.
  • Proposto da ricercatori e pubblicato su arXiv.

Entità

Fonti