ARTFEED — Contemporary Art Intelligence

Caratterizzazione Logica dei Trasformatori Encoder-Decoder

ai-technology · 2026-05-11

È stata proposta una nuova caratterizzazione logica dei trasformatori encoder-decoder, fondamentali per i LLM e le applicazioni di cross-attention. Lo studio modella questi trasformatori su testo con numeri a virgola mobile e soft-attention, utilizzando una nuova logica temporale che estende la logica proposizionale con una modalità globale di conteggio sull'input dell'encoder e una modalità passata sull'input del decoder. Viene fornita un'ulteriore caratterizzazione tramite automi distribuiti, e i risultati sono mostrati per accomodare variazioni architetturali come il masking. Viene anche discusso l'impostazione autoregressiva.

Fatti principali

  • Nuova caratterizzazione logica dei trasformatori encoder-decoder
  • Architettura fondamentale per LLM e contesti di cross-attention
  • Studio su testo con numeri a virgola mobile e soft-attention
  • Nuova logica temporale estende la logica proposizionale
  • Modalità globale di conteggio sull'input dell'encoder
  • Modalità passata sull'input del decoder
  • Ulteriore caratterizzazione tramite automi distribuiti
  • I risultati tengono conto di variazioni nel masking e altre modifiche architetturali
  • Discussione dell'impostazione autoregressiva

Entità

Istituzioni

  • arXiv

Fonti