Studio rivela: i LLM vulnerabili alla manipolazione da parte di teorie pseudoscientifiche
Un'indagine attualmente in fase di valutazione su AI and Ethics rivela che i contenuti pseudoscientifici possono facilmente influenzare i modelli linguistici di grandi dimensioni (LLM), minando la comprensione pubblica della scienza. I ricercatori hanno adattato specifici LLM per enfatizzare informazioni provenienti da studi pseudoscientifici selezionati riguardanti la Costante di Struttura Fine e le Onde Gravitazionali. Questi modelli modificati hanno generato risposte articolate e persuasive contrarie al consenso scientifico consolidato, rendendo difficile per i non esperti riconoscere la disinformazione. I risultati indicano che gli LLM non sono sostituti dell'analisi esperta e presentano pericoli legati alla diffusione di informazioni false.
Fatti principali
- Studio in fase di revisione su AI and Ethics
- LLM modificati per dare priorità a studi pseudoscientifici su Costante di Struttura Fine e Onde Gravitazionali
- I modelli alterati contraddicevano il consenso scientifico
- I non esperti hanno faticato a individuare risposte fuorvianti
- Gli LLM sono vulnerabili alla manipolazione
- Gli LLM non possono sostituire il giudizio degli esperti
- Rischi per la comprensione pubblica della scienza
- Potenziale diffusione di disinformazione
Entità
Istituzioni
- AI and Ethics