Intelligenza artificiale e democrazia: rischi, poteri e sfide per una governance algoritmica partecipata, di Antonio Picarazzi

L’avvento dell’intelligenza artificiale (AI) rappresenta una delle trasformazioni più profonde e pervasive della nostra epoca. La sua evoluzione dagli esperimenti di laboratorio a forza motrice di innumerevoli aspetti della nostra vita quotidiana è stata rapida e radicale. Tuttavia, mentre celebriamo le sue potenzialità in campi come la medicina, la scienza e l’economia, è imperativo rivolgere uno sguardo critico e approfondito al suo impatto sui sistemi democratici, fondamenta delle nostre società libere e plurali. L’AI si pone come una lama a doppio taglio, capace di rafforzare la partecipazione civica e l’efficienza governativa, ma anche di erodere le libertà individuali, amplificare le disuguaglianze e manipolare il dibattito pubblico.
Storicamente, l’evoluzione dei sistemi democratici è stata strettamente intrecciata con l’innovazione tecnologica. La stampa ha democratizzato l’accesso all’informazione, la radio e la televisione hanno ampliato la portata del discorso politico, e internet ha promesso una nuova era di partecipazione e trasparenza. L’AI, con la sua capacità di analizzare enormi quantità di dati, automatizzare processi e personalizzare esperienze, si inserisce in questa linea evolutiva con un potenziale trasformativo senza precedenti.
Da un lato, l’AI offre strumenti promettenti per rafforzare i pilastri della democrazia. Sistemi di e-governance basati sull’AI potrebbero rendere i servizi pubblici più efficienti e accessibili, riducendo la burocrazia e migliorando la reattività delle istituzioni alle esigenze dei cittadini. L’analisi intelligente dei dati pubblici potrebbe supportare la formulazione di politiche più informate ed efficaci, basate su evidenze concrete piuttosto che su intuizioni o pressioni di parte. Piattaforme di partecipazione online potenziate dall’AI potrebbero facilitare la consultazione pubblica e il coinvolgimento dei cittadini nei processi decisionali, superando i limiti geografici e temporali delle forme tradizionali di democrazia partecipativa.
Inoltre, l’AI potrebbe contribuire a contrastare la disinformazione e la manipolazione del dibattito pubblico. Sistemi di fact-checking automatizzati e algoritmi capaci di identificare pattern di propaganda potrebbero aiutare a discernere la verità dalle fake news, fornendo ai cittadini informazioni più affidabili per formare le proprie opinioni. L’analisi del sentiment e delle dinamiche delle conversazioni online potrebbe offrire agli osservatori una comprensione più profonda delle dinamiche sociali e politiche, consentendo risposte più mirate ed efficaci alle sfide emergenti.

I Rischi di Involuzione Democratica nell’Era dell’AI
Tuttavia, il dispiegarsi dell’AI nei sistemi democratici non è privo di insidie e potenziali derive involutive. La sua capacità di raccogliere, analizzare e utilizzare grandi quantità di dati solleva preoccupazioni cruciali riguardo alla privacy e alla protezione dei dati personali. Sistemi di sorveglianza potenziati dall’AI, come il riconoscimento facciale generalizzato e l’analisi predittiva del comportamento, potrebbero erodere le libertà civili e creare un clima di controllo e diffidenza, minando la fiducia tra cittadini e istituzioni. In questo contesto, si potrebbe richiamare l’attenzione di Gramsci sulla “società civile” come spazio di mediazione tra lo Stato e l’individuo, uno spazio che l’AI rischia di penetrare e condizionare in modi inediti, alterando gli equilibri di potere.
Un altro rischio significativo è rappresentato dalla potenziale amplificazione delle disuguaglianze sociali ed economiche. Algoritmi di AI utilizzati nei processi di selezione del personale, nell’accesso al credito o nella valutazione dei rischi giudiziari potrebbero incorporare e perpetuare pregiudizi esistenti nei dati di addestramento, portando a decisioni discriminatorie e ingiuste. Questo potrebbe esacerbare le fratture sociali e minare il principio di uguaglianza di fronte alla legge, un pilastro fondamentale della democrazia.
Questa dinamica richiama la riflessione gramsciana sull’”egemonia“, ovvero la capacità della classe dominante di imporre la propria visione del mondo come senso comune. L’AI, se sviluppata e implementata senza una consapevolezza critica dei suoi potenziali bias, potrebbe diventare un nuovo strumento per rafforzare e perpetuare forme di egemonia tecnologica e sociale.
Forse la sfida più insidiosa all’integrità dei sistemi democratici risiede nella capacità dell’AI di manipolare l’opinione pubblica e influenzare i processi elettorali. Algoritmi sofisticati possono essere utilizzati per profilare i cittadini in base alle loro vulnerabilità psicologiche e alle loro convinzioni politiche, veicolando messaggi personalizzati e mirati, spesso sotto forma di microtargeting politico. Questa capacità di influenzare il comportamento elettorale su larga scala, sfruttando le dinamiche dei social media e la diffusione di deepfake sempre più realistici, rappresenta una minaccia seria alla libertà di voto e alla genuinità del consenso democratico. In questo scenario, la fabbricazione del consenso attraverso l’AI potrebbe rappresentare una nuova forma di “trasformismo” politico, un concetto caro a Gramsci per descrivere l’assorbimento e la neutralizzazione delle opposizioni attraverso meccanismi sottili e pervasivi.
Inoltre, la crescente complessità degli algoritmi di AI e la loro natura spesso opaca (“black box“) rendono difficile la comprensione dei processi decisionali automatizzati e l’attribuzione di responsabilità in caso di errori o danni. Questa mancanza di trasparenza e di accountability può minare la fiducia nelle istituzioni e rendere difficile il controllo democratico sull’operato dell’AI. La questione della trasparenza si lega al concetto gramsciano di “intellettuali organici“. Chi sono gli sviluppatori e i decisori dell’AI? A quali interessi rispondono? Questo interrogativo diventa ancor più urgente se applicato alle grandi corporation tecnologiche che oggi agiscono come ‘intellettuali organici’ del capitalismo digitale; attraverso il controllo degli algoritmi e dei dati, queste entità private plasmano l’AI in modo opaco, definendo non solo le regole tecniche ma anche i valori e le priorità che essa incorpora. La loro influenza supera quella di molti Stati, ridefinendo gli equilibri tra democrazia, mercato e potere senza un vero controllo pubblico. È cruciale, all’opposto, che emergano intellettuali capaci di analizzare criticamente l’impatto dell’AI, promuovendo una sua governance democratica e partecipativa. Inoltre, si può osservare come lo sviluppo e l’adozione dell’AI non siano neutri dal punto di vista sociale. Il “capitale culturale incorporato” (Bourdieu), ovvero le competenze, le conoscenze e le disposizioni interiorizzate dagli individui, gioca un ruolo cruciale nel determinare chi ha la capacità di comprendere, utilizzare e beneficiare delle tecnologie AI. Coloro che possiedono un habitus più affine al pensiero computazionale e alla cultura digitale si trovano in una posizione di vantaggio, rischiando di ampliare ulteriormente le disuguaglianze esistenti.
Se Gramsci ci invita a interrogare chi controlla gli algoritmi – le élite tecnocratiche che agiscono come ‘intellettuali organici’ del capitalismo digitale –, Bourdieu ci ricorda che anche chi li utilizza è parte di un campo sociale stratificato. L’accesso all’AI, infatti, non dipende solo dalla disponibilità tecnologica, ma proprio dal ‘capitale culturale incorporato’. Infatti, le competenze digitali, l’educazione matematica, la familiarità con il linguaggio algoritmico diventano nuove forme di privilegio. Coloro che possiedono un habitus affine alla razionalità computazionale – spesso legato a classi sociali avvantaggiate – possono decodificare, utilizzare o contestare l’AI; gli altri rischiano di subirla come una forza opaca e incomprensibile. Questa asimmetria trasforma l’intelligenza artificiale in un moltiplicatore di disuguaglianza, non solo nelle decisioni che produce (dai prestiti bancari alle sentenze giudiziarie), ma già nella capacità stessa di partecipare al dibattito sul suo ruolo democratico. Per contrastare questa deriva, è necessario democratizzare la governance degli algoritmi (sfidando l’egemonia delle Big Tech) e redistribuire il capitale culturale necessario per comprenderli (attraverso l’istruzione pubblica). Solo così l’AI potrà essere uno strumento di emancipazione, anziché di esclusione.

Un Dialogo Continuo
Comprendere l’impatto dell’AI sulla democrazia richiede anche di inquadrarla nel contesto della storia del pensiero politico e delle riflessioni sull’organizzazione del potere. Le preoccupazioni riguardo alla concentrazione del potere, alla manipolazione delle masse e alla protezione delle libertà individuali non sono nuove. Pensatori come Platone, con la sua critica alla democrazia come forma di governo incline alla demagogia, o autori più recenti come Hannah Arendt, con le sue analisi sui totalitarismi e sulla fragilità della sfera pubblica, offrono spunti di riflessione preziosi per interpretare le sfide poste dall’AI. La riflessione gramsciana sull’importanza della “lotta culturale” per la costruzione di un’egemonia alternativa diventa particolarmente rilevante nell’era dell’AI. Contrastare i potenziali effetti involutivi dell’AI sulla democrazia richiederà un impegno culturale profondo per promuovere la consapevolezza critica, la trasparenza e la partecipazione.
L’AI, in un certo senso, ripropone in una forma inedita alcune delle antiche dialettiche tra efficienza e libertà, tra governabilità e partecipazione. La promessa di un governo più efficiente e basato sui dati deve essere bilanciata con il rischio di una tecnocrazia che escluda il dibattito pubblico e la deliberazione democratica. La capacità di personalizzare l’informazione e i servizi non deve tradursi in una frammentazione della sfera pubblica e in una polarizzazione ancora maggiore delle opinioni.

Definire il Futuro
Il futuro della democrazia nell’era dell’AI non è predeterminato. Dipenderà dalle scelte politiche e dalle strategie normative che sapremo adottare. È fondamentale promuovere una cultura della trasparenza e della accountability nello sviluppo e nell’implementazione dell’AI, garantendo che gli algoritmi siano comprensibili, auditabili e rispettosi dei principi democratici. In linea con il pensiero gramsciano sull’importanza della “formazione” e dell’organizzazione delle classi subalterne, è cruciale investire nell’educazione civica e nella consapevolezza critica, per aiutare i cittadini a comprendere il funzionamento dell’AI e a sviluppare le competenze necessarie per navigare in un ambiente informativo sempre più complesso e manipolabile.
È altresì urgente definire un quadro normativo robusto che protegga la privacy dei dati, contrasti la disinformazione e la manipolazione online, e prevenga l’uso discriminatorio dell’AI. Così come è cruciale promuovere un dibattito pubblico ampio e inclusivo sulle implicazioni etiche e politiche dell’AI, coinvolgendo esperti di diverse discipline, decisori politici, rappresentanti della società civile e i cittadini stessi. Solo attraverso un dialogo aperto e consapevole, ispirato anche dalla necessità gramsciana di costruire un “blocco storico” capace di orientare il cambiamento sociale, si potrà plasmare un futuro in cui l’intelligenza artificiale sia al servizio della democrazia, rafforzandone i valori fondamentali di libertà, uguaglianza e partecipazione, anziché minarne le fondamenta. La strada che imboccheremo dipenderà dalla nostra capacità di navigare questa nuova frontiera tecnologica con saggezza, lungimiranza e un profondo senso di responsabilità democratica.

L’AI come Nuovo “Principe Moderno”
L’intelligenza artificiale, nella sua capacità di organizzare consenso, indirizzare comportamenti e concentrare potere decisionale, potrebbe configurarsi come una forma inedita di “Principe moderno”, azzardando un altro paradosso gramsciano, non incarnato in un soggetto politico ma in una rete di poteri tecnico-finanziari che agiscono attraverso il codice e l’algoritmo. Questo richiederebbe una nuova forma di “guerra di posizione” culturale e istituzionale, capace di ridare centralità al cittadino e alla collettività come soggetti attivi e critici del cambiamento.

Il Rischio della Neutralità Tecnologica
Un ulteriore nodo problematico riguarda la retorica della “neutralità” tecnologica, spesso usata per giustificare l’adozione di sistemi AI come strumenti oggettivi o efficienti. In realtà, ogni algoritmo incorpora una visione del mondo, una gerarchia di valori e un criterio implicito di “normalità”. La democrazia non può essere delegata a meccanismi automatizzati che sfuggono al vaglio etico e al conflitto politico che da sempre ne costituisce l’anima.

In conclusione, l’AI potrebbe agire da catalizzatore di una ‘crisi organica’ nel senso gramsciano, accentuando le contraddizioni tra vecchie strutture di governance e nuove forme di potere algoritmico, spingendo verso una riarticolazione degli equilibri egemonici.
Esempi come il sistema di credito sociale cinese o lo scandalo Cambridge Analytica dimostrano come l’AI possa già oggi incarnare, rispettivamente, un’egemonia autoritaria e un’erosione della sovranità democratica attraverso la manipolazione del consenso.

globalist.it/media/2025/05/12/intelligenza-artificiale-e-democrazia-rischi-poteri-e-sfide-per-una-governance-algoritmica-partecipata/

PRESENTANDOCI

Cercasi un fine è “insieme” un periodico e un sito web dal 2005; un’associazione di promozione sociale, fondata nel 2008 (con attività che risalgono a partire dal 2002), iscritta al RUNTS e dotata di personalità giuridica. E’ anche una rete di scuole di formazione politica e un gruppo di accoglienza e formazione linguistica per cittadini stranieri, gruppo I CARE. A Cercasi un fine vi partecipano credenti cristiani e donne e uomini di diverse culture e religioni, accomunati dall’impegno per una società più giusta, pacifica e bella.


 

 

VI ASPETTIAMO AL NOSTRO CONVEGNO,
Trani, 9-11 Maggio 2025
Per info clicca sulla locandina
oppure scrivi a amministrazione@cercasiunfine.it

___________________________________________________________________________ Il 5 aprile 2025, si è svolta l'Assemblea annuale dei soci di Cercasi un fine per l'approvazione del bilancio (che tra qualche giorno sarà pubblicato sul sito regionale RUNTS, nel nostro spazio). L'Assemblea ha anche votato e/o confermato le cariche associative, che sono le seguenti:

Direttivo: Rocco D’AMBROSIO (presidente), Matteo LOSAPIO (vice presidente), Carlo RESTA (tesoriere), Nunzio LILLO (segretario), Giuseppe FERRARA (direttore della Biblioteca Bice Leddomade, bibliotecaleddomade@cercasiunfine.it), Franco GRECO, Donatella A. REGA.
associazione@cercasiunfine.it

Redazione del Periodico, oltre ai membri del Direttivo: Eleonora BELLINI, Vito CATALDO, Davide D'AIUTO, Paolo IACOVELLI, Lucio LANZOLLA, Elisabetta RESTA, Massimo DICIOLLA, Isabella SANTINI (collaboratrice per l’amministrazione).

Redazione web: Vito CATALDO, Davide D’AIUTO (Responsabile DPO), Paolo IACOVELLI, Eleonora BELLINI, Matteo LOSAPIO. email: webmaster@cercasiunfine.it

Responsabili del gruppo I CARE 2024-2025: Volontarie del Servizio Civile Universale: Naomi BARBERIO, Francesca CAPONIO, Alessia CIMMARUSTI, Giovanna SPINELLI; Fara CELLAMARE (OLP per i volontari SCU); mail: icare@cercasiunfine.it

Auguri a tutti e buon servizio nella scia del I CARE di Lorenzo Milani. Grazie ai soci per la loro presenza o partecipazione on line o per delega.

Ultimi Articoli

Contribuendo

Per sostenere le nostre attività, cioè le scuole di formazione sociale e politica, questo sito web e il periodico cartaceo di cultura e politica, l’insegnamento dell’italiano per cittadini stranieri, la biblioteca “Bice Leddomade” e le altre attività di formazione culturale e sociopolitica, ti invitiamo a:

  • Donare un sostegno economico attraverso un Bonifico Bancario Cercasi un Fine APS

IBAN IT26C0846941440000000019932 BCC Credito Cooperatvo oppure CCP 000091139550 intestato ad Associazione Cercasi un fine

  • Donare il tuo 5×1000: basta la tua firma e il numero dell’associazione 91085390721 nel primo riquadro (in alto a sinistra) dedicato al Terzo Settore – RUNTS. 
  • Predisporre un lascito nel tuo testamento: hai la possibilità di aiutarci nel futuro – nel rispetto della legge, senza escludere possibili soggetti legittimari – attraverso il dono di qualcosa a Cercasi un fine (come una somma di denaro, beni mobili o immobili, una polizza di vita). Il testamento è un atto semplice, libero, sempre revocabile. Con il tuo lascito sosterrai le nostre attività. 

Grazie per quello che farai per noi.

SORRIDENDO