Framework di distillazione della conoscenza per la classificazione delle misconcezioni degli studenti
Un innovativo framework di distillazione della conoscenza in due fasi affronta i problemi legati all'identificazione delle misconcezioni degli studenti, come dati limitati, distribuzioni a coda lunga, confini di errore ambigui e annotazioni rumorose. Invece di generare set di dati estesi, questo metodo estrae campioni preziosi dai dati disponibili. La fase iniziale esegue una distillazione tradizionale per trasmettere le competenze del compito. Nella fase successiva, viene introdotto un meccanismo di selezione marginale a doppio strato, che si basa sull'incertezza cognitiva per individuare quattro tipi essenziali di campioni, utilizzando l'incertezza del modello insegnante e le variazioni di confidenza. Questa strategia evita il dilemma di implementazione in cui i modelli grandi soccombono ai bias di pre-addestramento e faticano sui dispositivi edge, mentre i modelli più piccoli tendono a sovradattarsi al rumore.
Fatti principali
- arXiv:2605.14752
- Framework di distillazione della conoscenza in due fasi
- Affronta la scarsità di dati e la distribuzione a coda lunga
- Meccanismo di selezione marginale a doppio strato
- L'incertezza cognitiva guida la selezione dei campioni
- Evita la sintesi di dati su larga scala
- Paradosso di implementazione tra modelli grandi e piccoli
- Si concentra sul ragionamento autentico degli studenti
Entità
—