Il pericolo non è che la AI diventi come noi. Il pericolo è che noi diventiamo come la AI, di Michele Kettmaier

Non basta dire che l’intelligenza artificiale sta cambiando tutto. Lo si ripete ovunque, ma quasi sempre senza sapere cosa vuol dire davvero. Cambia perché costringe a rimettere in discussione i criteri stessi di realtà, non solo i modelli economici o produttivi. Cambia perché introduce un agente non biologico dentro l’arena delle decisioni, della parola, dell’immaginazione. Non è solo una questione di automazione o di sostituzione del lavoro. Cambia perché modifica il modo in cui decidiamo, parliamo, immaginiamo. Cambia perché inserisce logiche estranee nel cuore delle nostre relazioni e decisioni.
L’AI non ha esperienza del limite. Ma la maggior parte dei sistemi che la usano, o la sviluppano, non lo considera un problema. Anzi, lo considera un vantaggio. La sofferenza non è computabile, quindi è inefficiente. Non ottimizza. Non contribuisce al risultato.
 Ma è esattamente questo il punto: l’intelligenza artificiale non ha un corpo, non ha storia, non conosce il limite. Non è pensiero, non è esperienza, non è soggetto. Anche se la stiamo usando come se noi fossimo oggetti e lei il soggetto. È tecnologia; e come ogni tecnologia, restituisce ciò che le è stato dato in ingresso, secondo regole che qualcuno ha scritto. Nessuna generazione di senso, solo calcolo. Nessuna comprensione, solo correlazione. Parlare di “coscienza artificiale” è un errore di prospettiva: si confonde lo strumento con il soggetto, la simulazione con la realtà.
La logica computazionale ragiona per obiettivi definiti, minimizzazione della perdita, massimizzazione dell’efficienza. Ma la vita reale funziona in altro modo. È fatta di ambiguità, contraddizione, tensione non risolvibile. Non si può addestrare un modello perché provi un lutto, né si può chiedergli di reggere il peso di un dubbio morale. La coscienza non è una funzione obiettivo.
Il problema, allora, non è se l’AI ci supererà. Il problema è cosa ci rimarrà, una volta che avremo delegato a lei tutte le decisioni in cui era necessario sostare nella complessità. La AI sta diventando la prima tecnologia “soggetto” della storia trasformando noi in “oggetto”. La tecnologia, ogni volta che prende il sopravvento, tende a semplificare. Taglia i rami storti. Elimina le deviazioni. Ma è proprio nelle deviazioni che nasce la coscienza critica.
Non sto dicendo che l’AI debba essere fermata. Dico che dobbiamo capire cosa le stiamo insegnando e, soprattutto, cosa ci stiamo dimenticando nel farlo. In ogni algoritmo c’è un’impostazione valoriale, anche se mascherata da neutralità tecnica. Ogni dataset è un condensato di decisioni politiche, culturali, sociali. Se continuiamo a pensare che questi strumenti siano solo neutri esecutori, finiremo per adattarci noi ai loro vincoli, non il contrario.
Il rischio non è che le macchine diventino come noi. Il rischio è che noi diventiamo come loro. Efficienti, prevedibili, misurabili. Privati dell’ambiguità che ci rende vivi.
Serve recuperare la grammatica dell’umano. Una che non si vergogni della fragilità, che non consideri l’errore una colpa, ma una soglia. Una che non chieda alla tecnologia di salvarci, ma che la riporti nel perimetro della responsabilità collettiva. Perché finché non saremo disposti a trattare la tecnica come qualcosa che ci attraversa, ma non ci definisce, continueremo a costruire strumenti senza sapere perché. E ogni strumento, alla fine, si trasforma nel suo padrone.
Ma la questione non è se l’AI sarà mai “etica”. La questione è chi decide cosa significa essere etici, e con quale potere.
Le grandi narrative sull’“etica dell’AI” rischiano di diventare, già oggi, un’operazione di marketing regolamentare. Un linguaggio rassicurante che permette ai grandi gruppi di controllo dei dati, Google, OpenAI, Microsoft, Amazon, Alibaba, Baidu, Tencent e gli altri, di apparire come garanti di uno sviluppo “responsabile” mentre consolidano infrastrutture proprietarie opache, sistemi chiusi, modelli non controllabili. La vera partita si gioca sulla governance dei modelli, sulla proprietà degli ambienti computazionali e sull’accesso alle risorse materiali (dati, energia, hardware, manodopera). Non sul dibattito etico-tecnologico a uso convegnistico.
Non è importante, oggi, sapere se l’AI diventerà più “intelligente” di noi, o se potrà un giorno imitare le emozioni. È importante sapere chi la addestra, con quali dati, per quali scopi, e quali margini abbiamo per intervenire. È qui che si misura la nostra libertà.
La retorica sull’AGI, l’intelligenza artificiale generale, tende a distrarre da questo. Il futuro delle macchine senzienti è sempre a vent’anni da adesso. Nel frattempo, però, decidono già le assunzioni, le diagnosi, le carcerazioni preventive, le priorità infrastrutturali, gli algoritmi di guerra. Lo fanno ora. E non serve che siano coscienti per essere pericolose: basta che siano efficienti e impunite.
Serve una critica del potere computazionale. Serve una capacità diffusa di leggere le architetture dell’intelligenza automatizzata per quello che sono: estensioni tecniche di una volontà. Nonintelligenze autonome”, ma strutture logiche costruite per servire chi ne ha il controllo.
 Questa volontà è oggi quasi interamente concentrata in mano a soggetti privati sovranazionali. Con una visione del mondo estrattiva, accentrata, predittiva. Una visione in cui l’imprevedibilità, cioè l’umano, è un rischio da gestire, non un valore da difendere.
Il vero problema non è l’intelligenza artificiale, ma la sua centralizzazione. Il fatto che, anche quando apparentemente “democratica” o “open source, resti comunque legata a infrastrutture computazionali e finanziarie inaccessibili alla maggior parte dei cittadini, dei territori, delle comunità. Il fatto che si stia creando un nuovo monopolio globale, mascherato da innovazione.
E allora non si tratta solo di pretendere AI “etiche”. Si tratta di ripensare da zero i modelli di proprietà, i diritti sui dati, le architetture distribuite, l’autonomia territoriale sul digitale. 
La battaglia è lì. Non nella coscienza delle macchine, ma nella coscienza di chi le programma, le regola, le vende, le impone. Spetta ai territori e alle comunità stabilire cosa serve, cosa è accettabile e cosa no, cosa deve essere e come deve essere la AI.
Se c’è un punto cieco, non è nella tecnologia. È nel nostro sguardo.

michelekettmaier.nova100.ilsole24ore.com/2025/05/27/il-pericolo-non-e-che-la-ai-diventi-come-noi-il-pericolo-e-che-noi-diventiamo-come-la-ai/

PRESENTANDOCI

Cercasi un fine è “insieme” un periodico e un sito web dal 2005; un’associazione di promozione sociale, fondata nel 2008 (con attività che risalgono a partire dal 2002), iscritta al RUNTS e dotata di personalità giuridica. E’ anche una rete di scuole di formazione politica e un gruppo di accoglienza e formazione linguistica per cittadini stranieri, gruppo I CARE. A Cercasi un fine vi partecipano credenti cristiani e donne e uomini di diverse culture e religioni, accomunati dall’impegno per una società più giusta, pacifica e bella.


 

 

          Con il 5x1000 e il ricavato della vendita dei libri sosteniamo:

    scuole di formazione sociale e politica, 

    sito web e periodico di cultura e politica, 

    insegnamento dell’italiano per cittadini stranieri gruppo I Care, 

    la biblioteca “Bice Leddomade”,

    incontri, dibattiti…

 

          basta la tua firma 

          e il numero dell'associazione 

          

         91085390721 


         nel primo riquadro sul volontariato

___________________________________________________________________________

Ultimi Articoli

Contribuendo

Per sostenere le nostre attività, cioè le scuole di formazione sociale e politica, questo sito web e il periodico cartaceo di cultura e politica, l’insegnamento dell’italiano per cittadini stranieri, la biblioteca “Bice Leddomade” e le altre attività di formazione culturale e sociopolitica, ti invitiamo a:

  • Donare un sostegno economico attraverso un Bonifico Bancario Cercasi un Fine APS

IBAN IT26C0846941440000000019932 BCC Credito Cooperatvo oppure CCP 000091139550 intestato ad Associazione Cercasi un fine

  • Donare il tuo 5×1000: basta la tua firma e il numero dell’associazione 91085390721 nel primo riquadro (in alto a sinistra) dedicato al Terzo Settore – RUNTS. 
  • Predisporre un lascito nel tuo testamento: hai la possibilità di aiutarci nel futuro – nel rispetto della legge, senza escludere possibili soggetti legittimari – attraverso il dono di qualcosa a Cercasi un fine (come una somma di denaro, beni mobili o immobili, una polizza di vita). Il testamento è un atto semplice, libero, sempre revocabile. Con il tuo lascito sosterrai le nostre attività. 

Grazie per quello che farai per noi.

SORRIDENDO