ARTFEED — Contemporary Art Intelligence

N-grammi leggeri competono con le reti neurali per la previsione di log di eventi

other · 2026-04-25

Un recente preprint su arXiv (2604.21629) valuta modelli leggeri basati su automi, in particolare n-grammi, rispetto ad architetture neurali come LSTM e Transformer per prevedere la prossima attività in flussi di log di eventi. I test su pattern sintetici e cinque dataset reali di process mining rivelano che gli n-grammi, utilizzando finestre di contesto appropriate, possono raggiungere livelli di accuratezza simili a quelli dei modelli neurali, consumando significativamente meno risorse. A differenza delle architetture neurali finestrate, che mostrano prestazioni inconsistenti, gli n-grammi mantengono un'accuratezza stabile. Sebbene tecniche di ensemble classiche come il voto migliorino le prestazioni degli n-grammi, richiedono il funzionamento parallelo di più modelli durante l'inferenza, aumentando l'uso di memoria e la latenza. Gli autori introducono l'algoritmo di promozione, un metodo ensemble che seleziona intelligentemente tra due modelli attivi durante l'inferenza, riducendo al minimo il sovraccarico rispetto ai metodi di voto convenzionali. Su dataset reali, questi ensemble eguagliano o superano l'accuratezza dei modelli neurali.

Fatti principali

  • arXiv:2604.21629 confronta n-grammi con LSTM e Transformer per la previsione di log di eventi.
  • Gli esperimenti hanno utilizzato pattern sintetici e cinque dataset reali di process mining.
  • Gli n-grammi con finestre di contesto appropriate raggiungono un'accuratezza paragonabile ai modelli neurali.
  • Gli n-grammi richiedono sostanzialmente meno risorse rispetto alle architetture neurali.
  • Le architetture neurali finestrate mostrano pattern di prestazioni instabili.
  • Gli n-grammi forniscono un'accuratezza stabile e consistente.
  • I metodi di ensemble classici come il voto migliorano le prestazioni degli n-grammi ma aumentano memoria e latenza.
  • L'algoritmo di promozione proposto seleziona dinamicamente tra due modelli attivi durante l'inferenza.

Entità

Istituzioni

  • arXiv

Fonti