ARTFEED — Contemporary Art Intelligence

Nuovo Framework di Dimenticanza Sequenziale Consente la Conformità al Diritto all'Oblio negli LLM per Utilizzi Politicamente Sensibili

ai-technology · 2026-04-15

Un nuovo framework leggero di dimenticanza sequenziale affronta l'implementazione del Diritto all'Oblio nei Large Language Model utilizzati in contesti politicamente sensibili. Questo approccio differenzia tra obiettivi di conservazione e soppressione, stabilizzando inizialmente le funzionalità innocue attraverso un fine-tuning positivo, seguito da un fine-tuning negativo limitato ai layer per eliminare specifici pattern sensibili mantenendo la competenza linguistica complessiva. I test sul benchmark SemEval-2025 LLM Unlearning rivelano un'efficace soppressione comportamentale con scarso effetto sull'accuratezza fattuale e sulla fluidità. I risultati indicano che GPT-2 mostra maggiore resilienza rispetto a DistilGPT-2, sottolineando l'importanza della capacità del modello nelle applicazioni focalizzate sulla privacy. Questo framework, descritto nella preprint arXiv 2604.12459v1, affronta le questioni normative del GDPR riguardanti la conservazione di informazioni personali o confidenziali negli LLM.

Fatti principali

  • Viene introdotto un framework leggero di dimenticanza sequenziale per LLM
  • Il framework separa gli obiettivi di conservazione e soppressione
  • Utilizza il fine-tuning positivo per stabilizzare le capacità benigne
  • Il fine-tuning negativo limitato ai layer sopprime i pattern sensibili
  • Gli esperimenti hanno utilizzato il benchmark SemEval-2025 LLM Unlearning
  • GPT-2 ha mostrato maggiore robustezza rispetto a DistilGPT-2
  • La ricerca affronta la conformità al Diritto all'Oblio del GDPR
  • Gli LLM sono sempre più impiegati in ambienti politicamente sensibili

Entità

Fonti