I LLM eguagliano i modelli supervisionati nell'estrazione di azioni cliniche
Uno studio recente pubblicato su arXiv indaga l'efficacia dei modelli linguistici di grandi dimensioni (LLM) zero-shot e few-shot nell'estrazione di azioni cliniche da riassunti di dimissione, utilizzando il dataset CLIP. Gli autori propongono un metodo di estrazione in due fasi che scompone le note narrative di dimissione in specifici compiti attuabili attraverso un prompting strutturato. Conducono una valutazione approfondita degli LLM generativi, confrontando le loro prestazioni con quelle dei modelli supervisionati basati su BERT, adattati per compiti specifici, esaminando anche le incoerenze nelle annotazioni. I risultati indicano che gli LLM moderni raggiungono livelli di prestazione simili o superiori ai modelli supervisionati nella rilevazione binaria di azionabilità, sebbene i modelli supervisionati eccellano ancora nell'estrazione fine-grained. Lo studio enfatizza le transizioni di cura e garantisce la sicurezza del paziente dopo la dimissione.
Fatti principali
- Il paper arXiv 2605.06191 valuta gli LLM per l'estrazione di azioni cliniche
- Utilizza il dataset di note di dimissione CLIP
- Introduce un framework di estrazione in due fasi con prompting strutturato
- Confronta gli LLM generativi con i modelli supervisionati basati su BERT
- Gli LLM eguagliano o superano i modelli supervisionati nella rilevazione binaria di azionabilità
- Focus sulle transizioni di cura e sulla sicurezza post-dimissione
- Analisi delle incoerenze nelle annotazioni tra categorie di azioni
- Pubblicato su arXiv come nuovo annuncio
Entità
Istituzioni
- arXiv