ARTFEED — Contemporary Art Intelligence

Studio rivela: i LLM vulnerabili alla manipolazione da parte di teorie pseudoscientifiche

ai-technology · 2026-04-30

Un'indagine attualmente in fase di valutazione su AI and Ethics rivela che i contenuti pseudoscientifici possono facilmente influenzare i modelli linguistici di grandi dimensioni (LLM), minando la comprensione pubblica della scienza. I ricercatori hanno adattato specifici LLM per enfatizzare informazioni provenienti da studi pseudoscientifici selezionati riguardanti la Costante di Struttura Fine e le Onde Gravitazionali. Questi modelli modificati hanno generato risposte articolate e persuasive contrarie al consenso scientifico consolidato, rendendo difficile per i non esperti riconoscere la disinformazione. I risultati indicano che gli LLM non sono sostituti dell'analisi esperta e presentano pericoli legati alla diffusione di informazioni false.

Fatti principali

  • Studio in fase di revisione su AI and Ethics
  • LLM modificati per dare priorità a studi pseudoscientifici su Costante di Struttura Fine e Onde Gravitazionali
  • I modelli alterati contraddicevano il consenso scientifico
  • I non esperti hanno faticato a individuare risposte fuorvianti
  • Gli LLM sono vulnerabili alla manipolazione
  • Gli LLM non possono sostituire il giudizio degli esperti
  • Rischi per la comprensione pubblica della scienza
  • Potenziale diffusione di disinformazione

Entità

Istituzioni

  • AI and Ethics

Fonti