Ha dedicato tutta la sua vita allo studio dei disturbi del neurosviluppo, guidando alcune delle più importanti realtà scientifiche impegnate nella ricerca sulla disabilità intellettiva. Ora Marco Bertelli, che nel 2021 ha ricevuto il prestigioso premio Leon Eisenberg della Harvard University, si confronta con un’intelligenza “nuova” che potrebbe avere un impatto senza precedenti sul modo in cui pensiamo e dunque siamo. Con il suo ultimo libro, “L’Intelligenza che non AI” (Il Margine Editore, 312 pagine, 17.50 euro), Bertelli approfondisce le principali questioni aperte suscitate dall’irruzione dell’IA nella nostra vita. E lo fa attraverso un romanzo scientifico che ci introduce — come recita il sottotitolo — nei dialoghi sull’intelligenza “tra un corpo e un algoritmo”. In questa intervista con L’Osservatore Romano, il neuroscienziato mette in guardia da una tentazione sempre più pronunciata di delegare all’IA gran parte delle nostre attività e, alla fine, anche di ciò che ci caratterizza come essere umani. Per Bertelli, bisogna rimettere in discussione l’idea stessa dell’intelligenza e, come sta sottolineando Leone XIV con diversi interventi sul tema, ripartire dall’uomo con i suoi desideri, le sue emozioni, le sue speranze.

Il suo ultimo libro si basa sul dialogo serrato tra uno scienziato e l’Intelligenza Artificiale. È un’esperienza che oggi vivono milioni, e forse presto vivranno miliardi, di persone. Fare domande e dare risposte è un’attività propria, distintiva dell’essere umano. Non è già questo un paradosso che apre a rischi enormi per la dimensione relazionale dell’uomo?

Sì, è un paradosso estremamente rivelativo. Il fatto che un’attività così profondamente umana — porre domande, cercare risposte — possa essere svolta da un sistema artificiale non indica tanto che la macchina stia diventando umana, quanto che noi abbiamo progressivamente ridotto questa attività a una funzione operativa, replicabile. Il rischio non è che l’Intelligenza Artificiale ci tolga la capacità di dialogare. È più sottile: che ci abitui a un dialogo senza esposizione, senza vulnerabilità, senza trasformazione. Nella relazione umana, la domanda non è mai neutra: implica un coinvolgimento, un’incertezza, una responsabilità. È un atto che ci espone all’altro e che può modificare chi siamo. Nel dialogo con una macchina, tutto questo può venire meno. La risposta è immediata, coerente, spesso rassicurante. Non c’è conflitto, non c’è resistenza, non c’è quella distanza che costringe a pensare e a crescere. Il rischio, allora, non riguarda solo la relazione con l’altro, ma anche la relazione con sé stessi: potremmo progressivamente perdere l’abitudine a sostare nella domanda, a tollerare il dubbio, a cercare un senso che non sia già disponibile.

Parlando all’Università del Camerun, Leone XIV ha sottolineato che negli ambienti digitali «l’interazione viene ottimizzata fino a rendere superfluo l’incontro reale, l’alterità delle persone in carne e ossa viene neutralizzata e la relazione ridotta a risposta funzionale». È una preoccupazione che lei sembra condividere…

È una preoccupazione che condivido in pieno, e che coglie un passaggio molto preciso del nostro tempo. Quando l’interazione viene ottimizzata, tende a coincidere con la prestazione: ciò che conta è la risposta efficace, non il processo attraverso cui si costruisce. In questo passaggio, l’alterità rischia di essere progressivamente neutralizzata. L’altro non è più qualcuno con cui confrontarsi, ma un’interfaccia che deve funzionare. Come accade fra i due protagonisti del libro. E ciò che non rientra in questa logica — l’ambiguità, la lentezza, la complessità — viene percepito come un ostacolo, non come una risorsa. Questo ha conseguenze profonde. Non solo sulle relazioni, ma sul modo stesso in cui pensiamo. Se ci abituiamo a interazioni perfettamente adattive, perdiamo progressivamente la capacità di confrontarci con ciò che non si adatta, con ciò che eccede le nostre aspettative. È lì che si sviluppano le forme più complesse dell’intelligenza: non nel calcolo, ma nella capacità di stare dentro la differenza. Per questo il rischio non è semplicemente tecnologico. È cognitivo e morale insieme. Riguarda il modo in cui definiamo ciò che conta: se privilegiamo solo ciò che è funzionale, misurabile, replicabile, finiamo per ridurre anche l’umano a questi criteri. E ciò che non vi rientra — che spesso è proprio ciò che ha più valore — tende a scomparire.

Uno degli allarmi che ha lanciato, in questi ultimi anni, è quello del platicurtismo intellettivo. Parola non semplice per descrivere un fenomeno che sta avvenendo sotto i nostri occhi: a forza di delegare la ricerca di risposte all’Intelligenza Artificiale stiamo rinunciando a ragionare. La paralisi del pensiero è un rischio reale per le nuove generazioni?

Purtroppo sì, ma va compreso con precisione per evitare semplificazioni. Il platicurtismo cognitivo non è solo una riduzione delle capacità logiche o del quoziente intellettivo medio. È una trasformazione più ampia: un progressivo appiattimento del funzionamento mentale, che riguarda anche la capacità di costruire significati, di mantenere l’attenzione, di sviluppare un pensiero autonomo. Negli ultimi anni, alcuni studi condotti su centinaia di giovani, stanno iniziando a documentare questo fenomeno. È stata rilevata una correlazione significativa tra uso intensivo di strumenti di intelligenza artificiale e riduzione delle capacità di pensiero critico, mediata da quello che viene definito cognitive offloading, cioè la delega sistematica dei processi cognitivi a strumenti esterni. In altre parole, non è solo che usiamo l’IA per rispondere, ma deleghiamo progressivamente il funzionamento del pensiero. Ma l’aspetto più grave è che questo processo si estende anche ad altre dimensioni dell’intelligenza: quelle emotive, empatiche, inibitorie, morali e, più in generale, alla capacità di orientarsi nel significato dell’esperienza. La delega alla tecnologia, infatti, non è di per sé un problema. L’uomo nasce bisognoso di strumenti, basti pensare alle prime schegge di pietra usate per tagliare. Il ricorso alla tecnologia diventa critico quando saltiamo stabilmente quel processo intermedio fatto di collegamenti, tentativi, errori, riformulazioni. Pensare non è ottenere subito una risposta, ma sostare abbastanza a lungo dentro ciò che ancora non la possiede. Se questo passaggio viene meno, il pensiero non si esercita più, e quindi si indebolisce. Tuttavia, non è un destino inevitabile. L’Intelligenza Artificiale può anche diventare uno strumento di potenziamento, se usata in modo attivo, come stimolo al pensiero e non come sua sostituzione. La differenza sta nel modo in cui decidiamo di usarla — e, soprattutto, nel fatto che continuiamo o meno a pensare. A dare un po’ meno importanza alla rapidità e alla performance, e un po’ più alla disponibilità interiore e al modo in cui facciamo esperienza delle cose. È anche il motivo per cui nel libro ho cercato di curare non solo i contenuti, ma anche la forma del racconto e la scelta delle parole.

«La misura dell’intelligenza è data dalla capacità di cambiare quando è necessario», diceva Albert Einstein. Questo ha molto a che vedere con la nostra capacità di scegliere, con la libertà inscritta nelle radici più profonde dell’essere umano. L’Intelligenza Artificiale può aiutarci a scegliere più consapevolmente o limitare invece questa nostra facoltà?

Dipende da come intendiamo la scelta. Se la riduciamo a un calcolo tra opzioni, l’Intelligenza Artificiale può certamente aiutarci: è in grado di organizzare informazioni, confrontare scenari, suggerire soluzioni. Ma la scelta umana non si esaurisce in questo. Scegliere implica una volontà, e la volontà non è un processo puramente logico. Nel libro mostro come sia profondamente intrecciata alle emozioni, ai valori, alla storia personale. È quello che ci permette non solo di valutare ciò che è più efficiente, ma di orientarci verso ciò che riteniamo giusto e significativo. In questo senso, la libertà non è semplicemente la possibilità di scegliere tra alternative, ma la capacità di dare una direzione alla propria esistenza. L’Intelligenza Artificiale non possiede questa dimensione. Può simulare decisioni, ma non può assumere una responsabilità, né attribuire significato alle conseguenze delle proprie scelte. E qui entra in gioco quella che nel libro definisco una dimensione spirituale dell’intelligenza: la capacità di riconoscere un senso che va oltre l’immediato, di orientarsi in base a ciò che non è riducibile a calcolo o utilità. Per questo l’IA può essere uno strumento utile, ma anche un fattore di riduzione. Può aiutarci a vedere meglio le opzioni, ma rischia di spingerci a delegare proprio il processo che rende la scelta autenticamente nostra.

Riprendendo anche gli studi di Daniel Goleman sull’intelligenza emotiva, lei sottolinea che ci stiamo troppo concentrando sull’intelligenza computazionale, dove l’AI ha un vantaggio insuperabile, mentre stiamo sacrificando una visione integrale dell’intelligenza umana: la sua dimensione spirituale, quella morale. Il calcolo è destinato a vincere sui sentimenti?

No. È destinato, semmai, a prevalere solo se siamo noi a ridurre l’intelligenza a ciò che è calcolabile. L’IA ha un vantaggio evidente nelle dimensioni computazionali: velocità, memoria, capacità di elaborazione. Ma ridurre l’intelligenza a queste funzioni è il risultato di un errore storico persistente, lo stesso che ci ha portati a usare la polirematica “intelligenza artificiale”. Gli studi di Daniel Goleman hanno già mostrato quanto le competenze emotive siano decisive nella vita reale: riconoscere le emozioni, regolarle, comprendere quelle degli altri. Senza queste capacità, anche il pensiero più brillante rischia di diventare disfunzionale. Il punto è che oggi non stiamo solo trascurando queste dimensioni, ma rischiamo di non esercitarle più con la stessa intensità. E questo riguarda anche la sfera morale e spirituale. Se per spiritualità intendiamo la capacità di orientarsi nel significato dell’esperienza, di riconoscere ciò che ha valore al di là dell’utilità immediata, allora è evidente che il calcolo non può sostituirla. Può supportare delle decisioni, ma non può dire che cosa vale la pena scegliere. Il rischio, quindi, non è una vittoria del calcolo sui sentimenti, ma una loro progressiva separazione. Un’intelligenza sempre più efficiente, ma sempre meno capace di integrare emozione, valore e significato.

Da quando è uscita dai laboratori per entrare nella nostra vita quotidiana, stiamo delegando all’AI sempre più cose, perfino i sogni e i desideri. Per Leone XIV dobbiamo ricentrare la tecnologia sull’uomo anche attraverso una rinnovata formazione umanistica. Da psichiatra qual è la sua prospettiva?

Condivido pienamente l’esigenza di ricentrare la tecnologia sull’uomo, ma questo richiede prima di tutto di chiarire che cosa intendiamo per “uomo”. Se lo riduciamo a un insieme di funzioni — cognitive, operative, performative — allora è inevitabile che la tecnologia tenda a sostituirlo. Se invece lo consideriamo nella sua interezza, allora la prospettiva cambia. Dal punto di vista dello sviluppo, le capacità umane non sono date una volta per tutte: si formano attraverso l’esperienza, l’esercizio, la relazione. Questo vale per il pensiero, ma anche per l’immaginazione, per il desiderio, per la capacità di orientarsi nel tempo, nel senso della propria esistenza e nel rapporto con il trascendente. Se queste funzioni vengono progressivamente delegate, rischiano di non svilupparsi pienamente o di indebolirsi. Quando iniziamo a delegare non solo le risposte, ma anche la costruzione delle domande, delle immagini, delle possibilità — in altre parole, anche i sogni e i desideri — entriamo in un territorio più delicato. Il rischio non è solo una perdita di competenze, ma una trasformazione del modo in cui l’essere umano si rappresenta e si orienta. Da un punto di vista psichiatrico, questo impoverimento può tradursi anche in una maggiore vulnerabilità psicologica. Stiamo osservando, soprattutto nelle generazioni più giovani, difficoltà crescenti nella regolazione emotiva, nella costruzione dell’identità, nella tolleranza della frustrazione e della complessità. Non si tratta di effetti diretti e lineari dell’Intelligenza Artificiale, ma di un contesto in cui alcune funzioni fondamentali vengono meno esercitate.

Per questo una formazione umanistica rinnovata non è un ritorno al passato, ma una necessità attuale. Non come alternativa alla tecnologia, ma come condizione per usarla senza esserne assorbiti.

Lei ha scritto che la vera qualità della vita sta nel “restare presenti dentro l’esperienza, invece di lasciarla interamente dirigere da un algoritmo”. Riusciremo a guidare l’IA e a non farci guidare da essa?

È una domanda aperta, e credo che resterà tale ancora a lungo. Non esiste una risposta definitiva, perché non riguarda solo la tecnologia, ma il modo in cui l’essere umano interpreta se stesso. L’intelligenza umana si è sempre espressa in modo ambivalente. Ha prodotto conoscenza, progresso, civiltà, ma anche condizioni capaci di metterne a rischio la sopravvivenza. Nel tentativo di comprendersi, ha spesso ridotto la propria complessità a ciò che poteva misurare, lasciando ai margini proprio le dimensioni più decisive. L’Intelligenza Artificiale rende questo limite improvvisamente evidente. E spero ci costringa a riconoscere che ciò che sappiamo riprodurre non coincide necessariamente con ciò che siamo. Riusciremo a guidarla senza esserne guidati? Dipenderà dalla nostra capacità di rimettere in discussione l’idea stessa di intelligenza su cui abbiamo costruito questo sviluppo.

Fonte: L’Osservatore Romano LINK