LAKE: Rilevamento di Anomalie Senza Addestramento nei Modelli Visione-Linguaggio
Uno studio recente su arXiv mette in discussione la convinzione che i modelli visione-linguaggio (VLM) necessitino di adattatori aggiuntivi o sistemi di memoria per il rilevamento di anomalie (AD). I ricercatori sostengono che i modelli pre-addestrati contengono intrinsecamente conoscenze specifiche per le anomalie, spesso dormienti e non completamente utilizzate, situate in un gruppo limitato di neuroni che rispondono alle anomalie. Introducono un framework chiamato latent anomaly knowledge excavation (LAKE), che opera senza addestramento e utilizza un piccolo numero di campioni normali per attivare questi segnali neuronali essenziali. Mirando a questi neuroni reattivi, LAKE crea una rappresentazione altamente efficiente della normalità. Questa ricerca è documentata in arXiv:2604.07802v3.
Fatti principali
- L'articolo sfida l'assunzione che i VLM necessitino di adattatori esterni per il rilevamento di anomalie
- Sostiene che la conoscenza delle anomalie è intrinsecamente incorporata ma latente
- La conoscenza è concentrata in un sottoinsieme sparso di neuroni sensibili alle anomalie
- Propone LAKE, un framework senza addestramento
- LAKE utilizza solo un insieme minimo di campioni normali
- Costruisce una rappresentazione compatta della normalità
- Pubblicato su arXiv con ID 2604.07802v3
- Tipo di annuncio: replace-cross
Entità
Istituzioni
- arXiv