Gyan: Un Modello Neuro-Simbolico Spiegabile
Un nuovo modello linguistico chiamato Gyan, descritto in arXiv:2605.04759, sostiene di superare i limiti dei LLM basati su transformer. Gyan utilizza un'architettura non-transformer che disaccoppia la modellazione linguistica dall'acquisizione di conoscenza. Raggiunge prestazioni all'avanguardia su tre dataset ampiamente citati e prestazioni superiori su due dataset proprietari. Il modello si basa sulla teoria della struttura retorica, sulla teoria dei ruoli semantici e sulla linguistica computazionale basata sulla conoscenza. Gyan è progettato per essere interpretabile, evitare allucinazioni e richiedere meno risorse computazionali. L'articolo è stato annunciato come sottomissione cross-type su arXiv.
Fatti principali
- Gyan è un modello linguistico spiegabile con un'architettura non-transformer.
- Disaccoppia il modello linguistico dall'acquisizione e rappresentazione della conoscenza.
- Raggiunge SOTA su 3 dataset ampiamente citati e prestazioni superiori su 2 dataset proprietari.
- Si basa sulla teoria della struttura retorica, sulla teoria dei ruoli semantici e sulla linguistica computazionale basata sulla conoscenza.
- Punta a essere interpretabile, evitare allucinazioni e ridurre i requisiti computazionali.
- Articolo annunciato su arXiv con ID 2605.04759v1 come cross-type.
- I LLM basati su transformer sono criticati per la mancanza di contesto compositivo e per le allucinazioni.
- La rappresentazione del significato di Gyan si basa su teorie linguistiche.
Entità
Istituzioni
- arXiv