La distillazione della conoscenza LLM migliora efficientemente i sistemi di raccomandazione sequenziale
I ricercatori propongono un nuovo metodo di distillazione della conoscenza che utilizza modelli linguistici di grandi dimensioni (LLM) pre-addestrati per generare profili utente testuali, che vengono poi integrati nei sistemi di raccomandazione sequenziale. Questo approccio migliora la comprensione dell'utente senza richiedere l'inferenza LLM al momento del servizio, mantenendo l'efficienza dei modelli tradizionali. Il metodo evita modifiche architetturali o il fine-tuning degli LLM, affrontando i costi di inferenza proibitivi delle attuali integrazioni LLM. L'articolo è stato presentato su arXiv sotto Computer Science > Information Retrieval.
Fatti principali
- I sistemi di raccomandazione sequenziale modellano il comportamento temporale dell'utente ma mancano di una ricca semantica utente.
- Gli LLM offrono capacità di ragionamento per migliorare la comprensione dell'utente.
- Gli approcci esistenti di integrazione LLM creano costi di inferenza proibitivi in tempo reale.
- Il metodo proposto utilizza profili utente testuali generati da LLM pre-addestrati.
- Non è richiesta alcuna inferenza LLM al momento del servizio.
- L'approccio mantiene l'efficienza di inferenza dei modelli sequenziali tradizionali.
- Non sono necessarie modifiche architetturali o fine-tuning degli LLM.
- L'articolo è disponibile su arXiv (2604.21536).
Entità
Istituzioni
- arXiv