Tu sei qui: Home / Meditando / In articoli e commenti, scelti da noi / Ha senso parlare di etica degli algoritmi?, di Laura Carrer

Ha senso parlare di etica degli algoritmi?, di Laura Carrer

creato da Paolo Iacovelli ultima modifica 27/05/2021 09:15
Secondo chi ne studia gli impatti legati a bias cognitivi e pregiudizi, è meglio riflettere sul potere dell'intelligenza artificiale…

Sono utilizzate nel marketing, nella finanza, per predire le condizioni meteorologiche, assisterci nella vita quotidiana o rendere più realistiche le nostre sessioni di gioco. Alcune delle intelligenze artificiali che ci accompagnano sono utili, altre sono figlie dell’idea che la tecnologia possa dare una risposta a tutto. Insieme però pongono sul tavolo una questione rilevante: come sono realizzate, da chi e che impatto hanno sugli esseri umani? Stiamo parlando di etica, anche se la ricerca di cosa sia bene o male è un concetto che accompagna gli esseri umani più che le macchine.

Il dibattito sull’etica degli algoritmi o della tecnologia è molto florido negli ultimi anni. Ne discutono associazioni o autorità internazionali, così come l’Unione europea. Il 21 aprile proprio quest’ultima ha pubblicato una proposta di regolamentazione delle intelligenze artificiali, con un approccio che mette al centro l’individuo e che classifica le tecnologie su diversi livelli di rischio. Una proposta che da molti difensori dei diritti umani, anche digitali, è stata definita deludente poiché vaga e poco dettagliata sugli utilizzi concreti di alcune tecnologie, come il riconoscimento facciale. 

I dati non sono la realtà, ma una rappresentazione

Alla base di almeno una parte del discorso sull’etica delle intelligenze artificiali c’è l’idea che un algoritmo, ovvero un programma informatico che compie una serie di azioni per arrivare ad un dato obiettivo, sia dotato della capacità di definire cosa sia meglio o peggio fare davanti ad un quesito posto dai suoi sviluppatori.

Gli algoritmi però si possono definire dotati di un “agire morale” nel senso che noi umani deleghiamo alle macchine scelte e decisioni che hanno, a volte, anche un impatto etico. La risposta dell’algoritmo viene considerata oggettivamente corretta perché basata sui dati, ma qualsiasi dato creiamo non corrisponde alla realtà bensì a una rappresentazione della stessa. “Qualcuno, in un dato momento, decide esplicitamente di collezionare dei dati su un certo fenomeno. Ciò significa che decide quali sono i parametri e le proprietà rilevanti a tal fine: se andiamo all’ospedale per fare dei controlli ci daranno delle informazioni sulla pressione del sangue, non sul colore delle nostre calze”, commenta a Wired Virginia Dignum, docente del dipartimento di Scienze informatiche dell’Università Umeå in Svezia. 

In questa prima fase stiamo quindi già esprimendo preferenze o pregiudizi su cosa riteniamo utile alla nostra classificazione del dato. Oltre a ciò, sono da considerare anche altri due punti. “A volte i dati che raccogliamo per uno scopo A sono potenzialmente utilizzati per uno scopo B, e molto spesso sono combinati con altri dati che non sono stati collezionati con gli stessi requisiti o parametri”, continua Dignum.

Inoltre, per capire qual è l’impatto di un sistema di intelligenza artificiale sulle nostre vite è necessario pensare anche al modo in cui vengono “allenati” gli algoritmi, ovvero come le macchine apprendono gli input forniti dagli sviluppatori. “Un modo molto utilizzato è quello del supervised learning (apprendimento sotto controllo, nda), che consiste nel fornire al sistema una serie di esempi che corrispondono a una certa definizione, per esempio identificare o meno un cane in una foto – continua Dignum-. Questa procedura di tagging è nella maggior parte dei casi realizzata da esseri umani, spesso sotto pressione, pagati poco o non pagati per niente”. 

Di questo tema ha discusso Antonio Casilli, sociologo e professore all’Università Télécom di Parigi, nel libro Schiavi del clic, in cui si fa riferimento anche a una pratica di login che svolgiamo pressoché tutti i giorni quando accediamo a numerosi servizi online. A chi non è capitato infatti di segnalare semafori, idranti, montagne, macchine, per assicurare alle piattaforme digitali la nostra natura umana e non artificiale (a volte invano).

In queste procedure di tagging tendiamo a individuare oggetti che ci sono familiari, contribuendo all’insinuazione di pregiudizi all’interno del sistema. I risultati che derivano dall’apprendimento delle intelligenze artificiali possono portare a falsi negativi (non c’è un cane nell’immagine ma in realtà c’è) o a falsi positivi (c’è un cane anche se così non è) che hanno profonde conseguenze, così come emerso da una ricerca svolta dai giornalisti di ProPublica nel 2016 sull’algoritmo Compas, utilizzato per stabilire la possibilità di recidiva di criminali americani (risultata più bassa) o afroamericani (risultata più alta). 

Più che di etica si dovrebbe parlare di potere

“Pensiamo a un algoritmo che categorizza l’imputato in un processo penale: se un giudice decide che l’imputato sarà libero o meno basandosi esclusivamente sulla previsione di questo algoritmo, si può affermare che l’algoritmo ha avuto un certo tipo di agency morale. Questo però non significa affatto che gli algoritmi siano “etici””, commenta Gry Hasselbach, ricercatrice indipendente sui temi dell’etica dei dati e delle intelligenze artificiali e membro del gruppo di esperti sull’intelligenza artificiale della Commissione europea tra il 2018 e il 2020. 

“Se un algoritmo fa una previsione distorta perchè è stato addestrato su dati pieni di pregiudizi che portano a una discriminazione, non “si preoccupa” degli effetti che ha creato perché fondamentalmente non mette in discussione il proprio giudizio. Solo gli esseri umani hanno la capacità critica per farlo” continua Hasselbach. La proposta di regolamentazione europea sulle intelligenze artificiali mette al centro delle decisioni “etiche” l’uomo, e ciò è ritenuto da entrambe le ricercatrici un passo in avanti soprattutto perché negli ultimi anni abbiamo visto come vari impieghi delle intelligenze artificiali siano sfuggite di mano ai privati, così come al settore pubblico.

Benché la manipolazione suggestiva, il social scoring e i rischi per i gruppi vulnerabili siano stati proibiti, “mi preoccupano le scappatoie per l’utilizzo di questa tecnologia per questioni di sicurezza pubblica. Prevedere eccezioni significa consentire la progettazione di uno spazio pubblico che tecnicamente è incline alla sorveglianza e agli squilibri di potere, un problema molto serio in una società democratica” commenta Hasselbach. La creazione di team con figure professionali diverse per etnia, genere ed età può effettivamente fare la differenza e non solo perché include. Il coinvolgimento umano è utile quando conscio delle dinamiche di potere, dei vari interessi e dei pregiudizi presenti nella nostra società.  

“Penso che concentrarsi sul design dell’Ai non sia la strada da percorrere. Abbiamo bisogno di un approccio più orizzontale: il bias può iniziare e finire ovunque in un sistema di intelligenza artificiale. Nella scelta del modello, nella progettazione dei compiti, nell’elaborazione dei dati prima e dopo, nell’uso e nell’adozione. Ma anche se ci sedessimo e aggiungessimo manualmente immagini di persone non bianche a un database di persone bianche, i bias troverebbero sempre un modo per entrare nell’intelligenza artificiale. Perché i pregiudizi derivano dalle dinamiche generali del potere nella società”, continua Hasselbach.

Gli effetti discriminatori dell’Ai si verificano molto spesso perché i modelli che le regolano vengono adottati in modo acritico e hanno la priorità sul processo decisionale umano. L’intelligenza artificiale è solo un sistema di dati che agisce e si comporta come se fosse completo. Quindi qualunque azione si metta in campo nella progettazione dell’Ai, questa è solo una modifica in un quadro più ampio di soluzioni a problemi sociali sistemici e molto complessi. Come spiega Kate Crawford nel suo libro Atlas of Ai, che indaga da un punto di vista politico, sociale e ambientale lo sviluppo delle intelligenze artificiali, ci dovremmo interrogare su chi tiene le redini di questo “progresso tecnologico” e che tipo di mondo vogliamo costruire per il nostro futuro.

https://www.wired.it/attualita/tech/2021/05/27/algoritmi-etica-studi/

Azioni sul documento
  • Stampa
archiviato sotto: , ,
Pubblicando, i testi di Cercasi un fine

Formare alla politica. L'esperienza di Cercasi un fine

Nasce la nuova collana I libri di Cercasi un fine in coedizione con Magma Edizioni. Il primo volume sul metodo educativo e la storia di Cercasi un fine...


Potere e partecipazione. Un'esperienza locale di amministrazione condivisa, di S. Di Liso, D. Lomazzo

Sesto libro della collana di Cercasi un fine


La salute nella e oltre la leggeLa salute nella e oltre la legge. Sfide odierne, di F. Anelli e G. Ferrara

 Quinto libro della collana di Cercasi un fine


Attrezzarsi per la città

Attrezzarsi per la città. Laboratori di formAZIONE socio-politica, di M. Natale

Questo libro, quarto della collana di Cercasi un fine, racconta un’idea, diventata poi una esperienza, basata sulla convinzione che si possa, anzi si debba, progettare...


 

Meditando in video
Un video per scoprire le nostre attività: scuole di politica, giornale e sito web, collana di libri, incontri e seminari, scuola di italiano per stranieri... benvenuti in Cercasi un fine!
Cercasi un fine. Presentandoci
2020
13th of January 2020, BBC interviews our Director Rocco D'Ambrosio on the case of the book of Ratzinger-Sarah
Il nostro direttore Rocco D'Ambrosio intervistato dalla BBC
2020
Di più…
I nostri amici stranieri

Cercasi un fine organizza degli incontri settimanali di dialogo tra culture e insegnamento della lingua italiana per stranieri.

Maggiori info >>>

centro di ascolto.jpg

Associandoci

logo-barchetta.jpg
Cercasi un fine
è insieme un periodico, un’associazione onlus, di promozione sociale, iscritta all’albo regionale della Puglia, fondata nel 2008, con attività che risalgono a partire dal 2002, una rete di scuole di formazione politica, un gruppo di amici stranieri e volontari per l'insegnamento della lingua italiana. Vi partecipano credenti cristiani e donne e uomini di diverse culture e religioni, accomunati dall’impegno per una società più giusta, pacifica e bella.

Una presentazione sintetica delle nostre attività la trovi nel video qui 

altre info su

presentandoci
cercasi una casa
sostenendoci

con carta di credito o PayPal

Leggendo il giornale

E' in distribuzione Cercasi un fine n. 122
(2021- Anno XVII)

quadratino rosso Tema: Tutti pazzi per i sociale?

Scrivendo per il giornale

Se volete scrivere per il giornale:
direttore@cercasiunfine.it


 

 listing Il n. 123 è sulla RINASCITA (1. Cosa vuol dire “rinascita” dopo la crisi sanitaria? 2. Positività e negatività della crisi sanitaria nel lavoro, scuola, famiglia, politica, sanità, economia, ambiente? 3. Cosa vuol dire sperare in un futuro migliore?): in preparazione.

 listing Il n. 124 è su Il Pianeta che vogliamo (1. Che rapporto c'è tra la pandemia e la situazione ambientale? 2. Nuove politiche industriali e del lavoro e impatto sull'ambiente? 3. Cosa cambiare negli stili di vita? 4. Quale il contributo delle religioni?) Testi da inviare da entro 31 maggio 2021.

 listing Il n. 125 è sulla Repubblica "post Covid e tante risorse"  Testi da inviare da entro 31 agosto 2021.

Se avete qualcosa da proporci su qualcuno di questi temi siamo ben lieti di accoglierlo. Accettiamo anche contributi in altre lingue.