I modelli di IA faticano nel trasferimento causale astratto rispetto agli umani
Una recente indagine pubblicata su arXiv (2604.24062) esplora la capacità dei Large Language Models (LLM) e dei Vision Language Models (VLM) di trasferire strutture causali astratte in contesti diversi, un elemento cruciale della cognizione umana. I ricercatori hanno utilizzato il paradigma OpenLock, che richiede l'identificazione sequenziale delle strutture Causa Comune (CC) ed Effetto Comune (CE). I risultati indicano che i modelli di IA spesso mostrano capacità di trasferimento ritardate o inesistenti. Anche quelli che funzionano bene necessitano comunque di una significativa esposizione iniziale ai loro ambienti, a differenza degli umani, che possono trasferire conoscenze con un'esposizione minima. Inoltre, gli agenti classici di Reinforcement Learning (RL) subiscono gravi fallimenti. Questa ricerca sottolinea una disparità significativa tra i processi di apprendimento causale umani e quelli dell'IA.
Fatti principali
- Studio pubblicato su arXiv con identificativo 2604.24062
- Indaga il trasferimento causale in LLM e VLM utilizzando il paradigma OpenLock
- Gli umani ottengono il trasferimento dopo un'esposizione minima
- Gli agenti classici di RL falliscono catastroficamente
- I modelli di IA mostrano un trasferimento ritardato o assente
- I modelli di successo richiedono esposizione ambientale iniziale
- Focus sulle strutture Causa Comune (CC) ed Effetto Comune (CE)
- Domanda aperta se l'IA possieda meccanismi di trasferimento causale simili a quelli umani
Entità
Istituzioni
- arXiv