ARTFEED — Contemporary Art Intelligence

Ricetta di Approssimazione ReLU per Trasformatori Softmax

publication · 2026-04-30

Un nuovo articolo su arXiv fornisce una ricetta sistematica per tradurre i risultati di approssimazione ReLU al meccanismo di attenzione softmax, coprendo obiettivi di approssimazione comuni come moltiplicazione, calcolo reciproco e primitive min/max. Il metodo produce limiti di risorse economici specifici per l'obiettivo, oltre alle dichiarazioni di approssimazione universale, offrendo nuovi strumenti analitici per l'analisi dei modelli di trasformatori softmax. L'articolo è classificato in Computer Science > Machine Learning ed è stato presentato il 25 aprile 2026.

Fatti principali

  • L'articolo fornisce una ricetta sistematica per tradurre i risultati di approssimazione ReLU all'attenzione softmax.
  • Copre obiettivi di approssimazione comuni tra cui moltiplicazione, calcolo reciproco e primitive min/max.
  • Il metodo produce limiti di risorse economici specifici per l'obiettivo, oltre alle dichiarazioni di approssimazione universale.
  • I risultati offrono nuovi strumenti analitici per l'analisi dei modelli di trasformatori softmax.
  • L'articolo è classificato in Computer Science > Machine Learning.
  • La data di presentazione è il 25 aprile 2026.
  • L'articolo è disponibile su arXiv con ID 2604.24878.
  • L'abstract descrive la ricetta come sistematica e che copre molti obiettivi di approssimazione comuni.

Entità

Istituzioni

  • arXiv

Fonti