Nuovo Framework di Dimenticanza Sequenziale Consente la Conformità al Diritto all'Oblio negli LLM per Utilizzi Politicamente Sensibili
Un nuovo framework leggero di dimenticanza sequenziale affronta l'implementazione del Diritto all'Oblio nei Large Language Model utilizzati in contesti politicamente sensibili. Questo approccio differenzia tra obiettivi di conservazione e soppressione, stabilizzando inizialmente le funzionalità innocue attraverso un fine-tuning positivo, seguito da un fine-tuning negativo limitato ai layer per eliminare specifici pattern sensibili mantenendo la competenza linguistica complessiva. I test sul benchmark SemEval-2025 LLM Unlearning rivelano un'efficace soppressione comportamentale con scarso effetto sull'accuratezza fattuale e sulla fluidità. I risultati indicano che GPT-2 mostra maggiore resilienza rispetto a DistilGPT-2, sottolineando l'importanza della capacità del modello nelle applicazioni focalizzate sulla privacy. Questo framework, descritto nella preprint arXiv 2604.12459v1, affronta le questioni normative del GDPR riguardanti la conservazione di informazioni personali o confidenziali negli LLM.
Fatti principali
- Viene introdotto un framework leggero di dimenticanza sequenziale per LLM
- Il framework separa gli obiettivi di conservazione e soppressione
- Utilizza il fine-tuning positivo per stabilizzare le capacità benigne
- Il fine-tuning negativo limitato ai layer sopprime i pattern sensibili
- Gli esperimenti hanno utilizzato il benchmark SemEval-2025 LLM Unlearning
- GPT-2 ha mostrato maggiore robustezza rispetto a DistilGPT-2
- La ricerca affronta la conformità al Diritto all'Oblio del GDPR
- Gli LLM sono sempre più impiegati in ambienti politicamente sensibili
Entità
—