Più conformisti, dissociati dalle nostre stesse idee, meno capaci di pensare in modo autonomo e soprattutto meno capaci di apprendere. L’intelligenza artificiale ci rende stupidi? È una domanda legittima dopo la pubblicazione (preliminare) di un nuovo studio sperimentale del Media Lab del Massachusetts Institute of Technology sugli effetti dei «large language models».
Il titolo del paper
Il paper ha un titolo esplicito: «Il tuo cervello e ChatGPT: accumulazione di debito cognitivo nell’usare un assistente di intelligenza artificiale per compiti di scrittura».
A guidare lo studio è Natalia Kosmyna, una ricercatrice con un dottorato in informatica che lavora sull’interazione fra i computer e il cervello umano. Il modello di ricerca di Kosmyna e dei suoi colleghi, fra i quali vari neuroscienziati e studiosi del linguaggio, è stato del tutto sperimentale.
I tre gruppi che compongono il campione
Kosmyna ha formato tre gruppi da un campione di 54 volontari, incaricando ciascuno dei componenti di scrivere tre brevi testi per tre sessioni successive su temi predefiniti, per un periodo esteso su un trimestre.
Il primo gruppo («Brain-only») poteva scrivere solo sulla base delle proprie risorse mentali, senza accesso né a internet né a uno schermo.
Il secondo gruppo aveva accesso al motore di ricerca di Google.
Il terzo gruppo invece aveva accesso all’intelligenza artificiale generativa, in particolare ChatGPT di Open AI. Il cervello dei partecipanti a tutti e tre i gruppi è stato analizzato, connettendolo a degli elettrodi per un elettroencefalografia mentre svolgevano il compito richiesto.
La connettività celebrale
I risultati sono sorprendenti. Lo sono sia nell’immediato che negli effetti successivi dell’esperimento sui comportamenti e le capacità mentali delle persone sottoposte al test.
In primo luogo, nello stesso processo di scrittura i componenti dei tre gruppi hanno manifestato un’attivazione molto diversa delle loro menti. Rispetto al livello del gruppo che scriveva senza supporto digitale, il gruppo con accesso al solo motore di ricerca ha registrato una connettività cerebrale fra il 34% e il 48% più bassa; il gruppo con accesso a ChatGPT (nella forma di GPT-4o) ha mostrato una connettività cerebrale del 55% più bassa. In sostanza, più consistente è il supporto e più si riduce l’ampiezza dell’attività del cervello.
Le aree del cervello interessate
Era forse prevedibile che andasse così. Ma anche la qualità del lavoro cambia.
Il gruppo «Brain-only» evidenzia un’attivazione delle aree del cervello connesse con l’ideazione creativa, con l’integrazione dei significati fra loro e con l’automonitoraggio: le funzioni necessarie a generare contenuti, pianificarli e rivederli.
Invece chi usa Google fa lavorare soprattutto la corteccia occipitale e visuale: le aree che presiedono ad assimilare tramite la vista l’informazione ottenuta sullo schermo e poi raccoglierla. Infine, chi usa ChatGPT attiva soprattutto le aree per funzioni pressoché automatiche e entro un’impalcatura esterna.
Che cosa succede con l’Ai
I lavori prodotti sono risultati molto vari e diversi gli uni dagli altri nel caso del gruppo «Brain-only», ma estremamente omogenei e simili fra loro per il gruppo che ha usato l’intelligenza artificiale.
In sostanza, affidarsi all’AI genera conformismo di pensiero e messaggi.
Qui però è arrivata una sorpresa ulteriore: nell’83% dei casi, chi aveva lavorato con ChatGPT ha poi avuto difficoltà nel citare frasi dai propri stessi testi già pochi minuti dopo averli consegnati; come se chi aveva scritto con ChatGPT non avesse sviluppato nessun senso di appartenenza riguardo al contenuto del proprio lavoro e tutta l’attenzione fosse andata solo a come riprodurre passivamente informazioni generate all’esterno. Al contrario, pressoché tutti coloro che avevano lavorato da soli sono riusciti a citare frasi dai testi appena scritti quasi esattamente, mostrando molta più attenzione al contenuto e al senso del lavoro svolto (non solo alle modalità).
I concetti non vengono assimilati
In sostanza, l’uso dell’intelligenza artificiale ha reso le persone sottoposte al test dei semplici assemblatori di concetti che non vengono assimilati dai loro stessi autori.
I testi poi sono stati esaminati come piccoli saggi scolastici. I valutatori basati sull’intelligenza artificiale hanno assegnato voti più alti di testi scritti con la stessa intelligenza artificiale. Invece i valutatori umani, gli insegnanti, hanno subito riconosciuto quali erano i testi scritti con l’intelligenza artificiale e li hanno valutati meno degli altri.
L’inversione dei gruppi
Ma quel che è accaduto dopo dà ancora di più da riflettere. C’è infatti stata una quarta sessione del test, nella quale le parti si sono invertite. Al gruppo che aveva sempre usato l’intelligenza artificiale è stato chiesto di comporre un testo a tema fisso senza alcun supporto digitale; al contrario, chi aveva scritto fino ad allora senza supporto ha potuto usare ChatGPT.
Si crea un debito cognitivo
Il risultato è destinato ad aprire un dibattito sulla pericolosità dell’uso dell’intelligenza artificiale. Chi si era abituato ad usare ChatGPT ha mostrato difficoltà a ricreare il tipo di robusta attività cerebrale, ricca di connessioni, che occorre per sostenere un’attività di creazione autonoma di contenuti. Fra loro si è evidenziato quello che Kosmyna definisce un «debito cognitivo». Il tema dello scritto richiesto era uguale a quello di scritti precedenti, ma coloro che si erano abituati a ChatGPT sono riusciti a citare un elemento qualunque appena due su dieci, ora che potevano contare solo sulla propria mente. Invece chi aveva contato solo sul proprio cervello all’inizio, allenandolo in modo autonomo, è riuscito a produrre testi più ricchi e precisi proprio grazie all’uso dell’AI nella sessione finale.
Attivazione cerebrale più debole
Anche l’elettroencefalografia ha confermato i risultati. Chi era abituato a contare su ChatGPT ha mostrato comunque un’attivazione cerebrale più debole quando è rimasto senza supporto digitale, come se la mente fosse divenuta più pigra e incapace di creatività, giudizio di merito e memoria profonda. Invece chi aveva già imparato a pensare e produrre lavoro in autonomia ha potenziato le proprie capacità cognitive con ChatGPT.
Le conclusioni
Conclude lo studio: «Quando i partecipanti (al test, ndr) riproducono dei suggerimenti (dell’intelligenza artificiale, ndr) senza valutarne l’esattezza o la pertinenza, rinunciano non solo ad appropriarsi delle idee espresse, ma rischiano di interiorizzare prospettive superficiali o distorte».
In altri termini, diventano individui più manipolabili da ogni sorta di propaganda o interesse.
Le implicazioni per la democrazia e per la scuola o l’università non potrebbero essere più grandi: una società di persone libere e capaci di elaborare idee e un giudizio autonomo usa sì l’intelligenza artificiale; ma solo dopo aver allenato molto bene – e a lungo – quella naturale.
corriere.it/economia/intelligenza-artificiale/25_giugno_20/chatgpt-cervello-risultati-studio-mit-432a4af7-cc10-4e7a-aba8-e56ca5206xlk.shtml