Il pericolo non è che la AI diventi come noi. Il pericolo è che noi diventiamo come la AI, di Michele Kettmaier

Non basta dire che l’intelligenza artificiale sta cambiando tutto. Lo si ripete ovunque, ma quasi sempre senza sapere cosa vuol dire davvero. Cambia perché costringe a rimettere in discussione i criteri stessi di realtà, non solo i modelli economici o produttivi. Cambia perché introduce un agente non biologico dentro l’arena delle decisioni, della parola, dell’immaginazione. Non è solo una questione di automazione o di sostituzione del lavoro. Cambia perché modifica il modo in cui decidiamo, parliamo, immaginiamo. Cambia perché inserisce logiche estranee nel cuore delle nostre relazioni e decisioni.
L’AI non ha esperienza del limite. Ma la maggior parte dei sistemi che la usano, o la sviluppano, non lo considera un problema. Anzi, lo considera un vantaggio. La sofferenza non è computabile, quindi è inefficiente. Non ottimizza. Non contribuisce al risultato.
 Ma è esattamente questo il punto: l’intelligenza artificiale non ha un corpo, non ha storia, non conosce il limite. Non è pensiero, non è esperienza, non è soggetto. Anche se la stiamo usando come se noi fossimo oggetti e lei il soggetto. È tecnologia; e come ogni tecnologia, restituisce ciò che le è stato dato in ingresso, secondo regole che qualcuno ha scritto. Nessuna generazione di senso, solo calcolo. Nessuna comprensione, solo correlazione. Parlare di “coscienza artificiale” è un errore di prospettiva: si confonde lo strumento con il soggetto, la simulazione con la realtà.
La logica computazionale ragiona per obiettivi definiti, minimizzazione della perdita, massimizzazione dell’efficienza. Ma la vita reale funziona in altro modo. È fatta di ambiguità, contraddizione, tensione non risolvibile. Non si può addestrare un modello perché provi un lutto, né si può chiedergli di reggere il peso di un dubbio morale. La coscienza non è una funzione obiettivo.
Il problema, allora, non è se l’AI ci supererà. Il problema è cosa ci rimarrà, una volta che avremo delegato a lei tutte le decisioni in cui era necessario sostare nella complessità. La AI sta diventando la prima tecnologia “soggetto” della storia trasformando noi in “oggetto”. La tecnologia, ogni volta che prende il sopravvento, tende a semplificare. Taglia i rami storti. Elimina le deviazioni. Ma è proprio nelle deviazioni che nasce la coscienza critica.
Non sto dicendo che l’AI debba essere fermata. Dico che dobbiamo capire cosa le stiamo insegnando e, soprattutto, cosa ci stiamo dimenticando nel farlo. In ogni algoritmo c’è un’impostazione valoriale, anche se mascherata da neutralità tecnica. Ogni dataset è un condensato di decisioni politiche, culturali, sociali. Se continuiamo a pensare che questi strumenti siano solo neutri esecutori, finiremo per adattarci noi ai loro vincoli, non il contrario.
Il rischio non è che le macchine diventino come noi. Il rischio è che noi diventiamo come loro. Efficienti, prevedibili, misurabili. Privati dell’ambiguità che ci rende vivi.
Serve recuperare la grammatica dell’umano. Una che non si vergogni della fragilità, che non consideri l’errore una colpa, ma una soglia. Una che non chieda alla tecnologia di salvarci, ma che la riporti nel perimetro della responsabilità collettiva. Perché finché non saremo disposti a trattare la tecnica come qualcosa che ci attraversa, ma non ci definisce, continueremo a costruire strumenti senza sapere perché. E ogni strumento, alla fine, si trasforma nel suo padrone.
Ma la questione non è se l’AI sarà mai “etica”. La questione è chi decide cosa significa essere etici, e con quale potere.
Le grandi narrative sull’“etica dell’AI” rischiano di diventare, già oggi, un’operazione di marketing regolamentare. Un linguaggio rassicurante che permette ai grandi gruppi di controllo dei dati, Google, OpenAI, Microsoft, Amazon, Alibaba, Baidu, Tencent e gli altri, di apparire come garanti di uno sviluppo “responsabile” mentre consolidano infrastrutture proprietarie opache, sistemi chiusi, modelli non controllabili. La vera partita si gioca sulla governance dei modelli, sulla proprietà degli ambienti computazionali e sull’accesso alle risorse materiali (dati, energia, hardware, manodopera). Non sul dibattito etico-tecnologico a uso convegnistico.
Non è importante, oggi, sapere se l’AI diventerà più “intelligente” di noi, o se potrà un giorno imitare le emozioni. È importante sapere chi la addestra, con quali dati, per quali scopi, e quali margini abbiamo per intervenire. È qui che si misura la nostra libertà.
La retorica sull’AGI, l’intelligenza artificiale generale, tende a distrarre da questo. Il futuro delle macchine senzienti è sempre a vent’anni da adesso. Nel frattempo, però, decidono già le assunzioni, le diagnosi, le carcerazioni preventive, le priorità infrastrutturali, gli algoritmi di guerra. Lo fanno ora. E non serve che siano coscienti per essere pericolose: basta che siano efficienti e impunite.
Serve una critica del potere computazionale. Serve una capacità diffusa di leggere le architetture dell’intelligenza automatizzata per quello che sono: estensioni tecniche di una volontà. Nonintelligenze autonome”, ma strutture logiche costruite per servire chi ne ha il controllo.
 Questa volontà è oggi quasi interamente concentrata in mano a soggetti privati sovranazionali. Con una visione del mondo estrattiva, accentrata, predittiva. Una visione in cui l’imprevedibilità, cioè l’umano, è un rischio da gestire, non un valore da difendere.
Il vero problema non è l’intelligenza artificiale, ma la sua centralizzazione. Il fatto che, anche quando apparentemente “democratica” o “open source, resti comunque legata a infrastrutture computazionali e finanziarie inaccessibili alla maggior parte dei cittadini, dei territori, delle comunità. Il fatto che si stia creando un nuovo monopolio globale, mascherato da innovazione.
E allora non si tratta solo di pretendere AI “etiche”. Si tratta di ripensare da zero i modelli di proprietà, i diritti sui dati, le architetture distribuite, l’autonomia territoriale sul digitale. 
La battaglia è lì. Non nella coscienza delle macchine, ma nella coscienza di chi le programma, le regola, le vende, le impone. Spetta ai territori e alle comunità stabilire cosa serve, cosa è accettabile e cosa no, cosa deve essere e come deve essere la AI.
Se c’è un punto cieco, non è nella tecnologia. È nel nostro sguardo.

michelekettmaier.nova100.ilsole24ore.com/2025/05/27/il-pericolo-non-e-che-la-ai-diventi-come-noi-il-pericolo-e-che-noi-diventiamo-come-la-ai/

PRESENTANDOCI

Cercasi un fine è “insieme” un periodico e un sito web dal 2005; un’associazione di promozione sociale, fondata nel 2008 (con attività che risalgono a partire dal 2002), iscritta al RUNTS e dotata di personalità giuridica. E’ anche una rete di scuole di formazione politica e un gruppo di accoglienza e formazione linguistica per cittadini stranieri, gruppo I CARE. A Cercasi un fine vi partecipano credenti cristiani e donne e uomini di diverse culture e religioni, accomunati dall’impegno per una società più giusta, pacifica e bella.


 REFERENDUM COSTITUZIONALE DEL 22-23 MARZO 2026 

Come Direttivo e Redazione di CuF abbiamo deciso di prendere posizione sul Referendum, esprimendoci per un NO meditato e convinto, ribadendo il diritto/dovere di recarsi alle urne (art. 48 della Costituzione e n. 75 della Gaudium et Spes) e rispettando scelte personali diverse, fatte in coscienza.  

La nostra associazione è “apartitica, cioè rigorosamente autonoma e indipendente da partiti e movimenti politici” (art. 3 del nostro statuto). Ciò non significa che è “apolitica”, anzi! Il referendum non è una questione partitica o di coalizione, è, invece, questione meramente politica perché tocca uno dei poteri della Repubblica, cioè quello giudiziario, e apre possibili scenari che minano l’indipendenza e l’autonomia della magistratura. Ne abbiamo parlato diffusamente nel nuovo numero cartaceo di Cercasi un fine (che trovate anche qui ), cercando di spiegare i rischi futuri della nostra democrazia.

 Di seguito i link ad altro materiale che potrebbe essere utile, in particolare la SCHEDA ESPLICATIVA e un VIDEO ESPLICATIVO.
 

 – la spiegazione del quesito con alcune domande che trovi nella SCHEDA ESPLICATIVA e un VIDEO ESPLICATIVO

 – il documento del Direttivo e della Redazione sulle ragioni del NO alla Riforma che trovi in LE RAGIONI DEL NO

  Articoli e video: 

 – Un articolo di Rocco D’Ambrosio su  REFERENDUM, RIFORMA ED ETICA COSTITUZIONALE 

 – Un video di Alessandro Barbero in BARBERO SPIEGA LE RAGIONI DEL NO

 – Altri articoli di Rocco D’Ambrosio su:

Ultimi Articoli

SORRIDENDO