LLM potenziati con memoria ontologica esterna per sistemi ibridi intelligenti
Un nuovo studio pubblicato su arXiv (2604.20795) presenta un framework ibrido all'avanguardia volto a migliorare i sistemi intelligenti. Questo approccio potenzia i grandi modelli linguistici (LLM) integrando un livello esterno di memoria ontologica. Invece di basarsi esclusivamente sulla conoscenza parametrica tradizionale e sul recupero vettoriale (RAG), il framework crea e mantiene un grafo di conoscenza strutturato utilizzando formati RDF/OWL. Ciò consente un ragionamento affidabile, tracciabile e semanticamente ricco. Una caratteristica notevole è la generazione automatizzata di ontologie da varie fonti di dati come documenti e registri di dialogo. Il sistema include processi per il riconoscimento di entità, l'estrazione di relazioni, la normalizzazione dei dati e la generazione di triple, seguiti dalla validazione tramite regole SHACL e OWL, con aggiornamenti continui del grafo. Durante l'inferenza, gli LLM combinano il recupero vettoriale con il ragionamento basato su grafi e strumenti esterni, insieme a risultati sperimentali su compiti di pianificazione.
Fatti principali
- L'articolo propone un'architettura ibrida per sistemi intelligenti che utilizza LLM con memoria ontologica esterna.
- Utilizza rappresentazioni RDF/OWL per un grafo di conoscenza strutturato.
- Pipeline automatizzata per la costruzione di ontologie da fonti di dati eterogenee.
- Esegue riconoscimento di entità, estrazione di relazioni, normalizzazione e generazione di triple.
- Validazione utilizzando vincoli SHACL e OWL.
- Aggiornamenti continui del grafo.
- L'inferenza combina il recupero basato su vettori con il ragionamento basato su grafi e l'interazione con strumenti esterni.
- Osservazioni sperimentali su compiti di pianificazione.
Entità
Istituzioni
- arXiv