Tu sei qui: Home / Meditando / In articoli e commenti, scelti da noi / Un'etica umana per l'intelligenza artificiale: il compito cruciale a cui è chiamato il Terzo Settore, di Marco Dotti

Un'etica umana per l'intelligenza artificiale: il compito cruciale a cui è chiamato il Terzo Settore, di Marco Dotti

creato da Paolo Iacovelli ultima modifica 18/10/2018 12:50
Davanti alle tecnologie emergenti, dall'AI alla robotica, dall'industria 4.0 all' internet of things, la sfida per il Terzo Settore è rendersi protagonista di una nuova intermediazione, non subirla…

L’Intelligenza Artificiale (AI) accresce le opportunità. Con le opportunità, moltiplica i rischi. L’impatto sulla vita quotidiana dei sistemi di AI sarà rapido e, senza una sua adeguata comprensione e gestione, non sarà indolore.

Etica, economia, deontologia, responsabilità sociale: ogni aspetto del vivere comune, ogni spazio – pubblico, privato – è già chiamato in causa e, al contempo, messo in discussione dalla grande trasformazione in atto.

Si è aperta dunque una fase nuova per la società civile. Una fase legata all’impressionante sviluppo dei programmi di ricerca applicata legati all’AI, ma soprattutto al ruolo strategico – non solo all’opportunità tattica del loro utilizzo particolare – che questi sistemi avranno negli ambiti per tradizione e storia presidiati dal Terzo Settore: welfare, istruzione, salute e sanità, integrazione, cura, accoglienza, lotta alle disuguaglianze e alle discriminazioni. Lavoro.

Presidiare non basta

In una società come la nostra improntata ai servizi, scenari attendibili ritengono che circa l’80% dei posti di lavoro intellettuale, di fascia medio-alta, verrà sopravanzato dai vantaggi applicativi e competitivi dei sistemi di AI. Altri scenari meno apocalittici prevedono, in luogo della sostituzione, una fase di transizione comunque rapidissimo. In questo secondo scenario sarà la rapidità, più che la fatalità a costituire problema.

La società civile e, in particolare, il Terzo Settore nelle sue punte avanzate sono chiamati a presidiare tre linee di faglia etica sottraendo il dibattito ai contesti ingegneristici, per declinarlo – in una prospettiva di umanesimo rinnovato e di digital humanities – in forma transdisciplinare.

Presidiare non basta. Occorre dunque pensare un’etica speciale condivisa che permetta, subito, di

  • contrastare gli usi malevoli dell’AI (killer robots,fake news, machine bias, profiling, trasformazione del cittadino e del consumatore in targets, ingegnerizzazione delle abitudini, costruzione diaddictions, etc.);
  • contenere, anche in assenza di un’intenzione malevola, l’impatto socio-economico e lavorativo fortemente diseconomico dell’AI, riducendo i costi e ripartendo su base sociale i vantaggi;
  • ridurre la black box, la camera oscura che a oggi, dietro lo schermo della proprietà commerciale, impedisce il controllo effettivo degli algoritmi di base dell’AI;
  • incrementare la responsabilità sociale attraverso l’approccio human-in-command: le macchine devono costantemente restare sotto controllo umano e il processo innescato, per essere innescato, deve poter essere fermato in ogni momento;
  • garantire un sistema open data che garantisca l’accesso condiviso a enti di ricerca, non solo la tutela individuale, ai dati sensibili utilizzabili per finalità comuni.

 

L'uomo al centro

Al contempo occorre ripensare a un’etica che abbia l’umano al centro e non alla periferia – in cui rischia di essere confinato – del sistema.

Sul piano dell’etica generale occorre richiamare alla responsabilità di ogni visione:

  • se l’AI sarà for good or not for good dipende in gran parte dalla visione dell’uomo di cui programmatori (designers), utenti, governo e società civile si stanno facendo portatori. Ma da questa visione non dipenderà solo l’orientamento di un particolare ambito applicativo tecnologico. Per la potenza dispiegata dai sistemi di AI, ne discenderà una posizione di subalternità complessiva o di rinnovata centralità dell’umano. La scelta è di campo e da questa scelta dipenderanno le forme future del convivere e del confliggere.

 

Sul piano dell’etica particolare occorre pensare concretamente a:

  • Etica per i designers (responsible design):
  • definire un design etico che nell’attività di progettazione e programmazione non si orientisul cosiddetto machine bias, incrementando pregiudizi su base predittiva, favorendo la manipolazione di attenzione, credenze, modelli cognitivi.
  • Etica per gli utenti: orientare a un uso concretamente responsabile dell’AI imprese, governi, centri di ricerca, utenti ordinari;
  • Etica nellapolitics e nella policy: definire gli ambiti invalicabili per i quali non è ammessa alcuna delega all’AI nelle scelte concrete (es: licenziamenti; selezione del personale).

 

Oltre il disimpegno morale

Dobbiamo impedire che il software design inneschi un processo irreversibile di deleghe in bianco su interventi che vertono sulla sussistenza stessa della vita umana (quando interrompere una terapia, quando intervenire, valutazione di rischi-benefici non fondata unicamente su prospettive utilitaristiche, etc.), non meno che su valori, relazioni, visioni che sono alla base del legame civile. Questo fenomeno produrrebbero effetti di moral disengagement con effetti domino di matrice sistemica.

La società civile e il Terzo Settore avanzato sono chiamati a rappresentare l’avanguardia nel tracciare il nuovo scenario in cui l’AI venga fin da ora ripensata by design, come una forma per ottimizzare risorse e massimizzare benessere condiviso.

Dovremmo ripensara a un’etica della volontà adattandola a nuove sfide. Un’etica dei valori che ribadisca la centralità umana dinanzi a sfide che rischiano prescindere da questa centralità.

In questo senso, propongo qui di seguito 10 punti come call for action e, al contempo, come terreno comune su cui generare riflessione e approfondimento. L'invito è rivolto a soggetti, individuali e collettivi, che condividano di contro ai facili entusiasmi le criticità che abbiamo elencato e abbiano a cuore il destino e la vita stessa di un legame sociale che potrebbe essere vivificato, ma non per questo meno scosso dall’AI alle sue radici. La tecnica non è buona o cattiva a seconda dell'uso che se ne fa (anche questo, ovviamente).

La tecnica è soprattutto un contesto. Un design. Proprio per questo ogni tecnica porta in sé una precisa riconfigurazione del legame sociale. Renderla esplicita e, al contempo, affrontarla è - in tutta umiltà - un compito a cui il Terzo settore avanzato non può sottrarsi.

Un manifesto per l'etica dell'AI

1. Gli sviluppatori di software, algoritmi, AI sono chiamati a definire, chiarire, dichiarare senza ambiguità la propria visione dell’uomo e la sua centralità rispetto alla “macchina”.

2. Sviluppatori di software, algoritmi, AI sono chiamati a interessarsi alle implicazioni etico-morali derivanti dal loro uso o abuso, tenendo conto in fase di programmazione e progettazioni di queste possibilità.

3. Tutti i sistemi di AI devono essere progettati e condotti a operare in maniera compatibile con i valori della dignità, del rispetto e della libertà umana.

4. I sistemi di AI dovrebbero essere progettati in modo tale che i loro obiettivi e comportamenti si allineino con i valori umani di dignità, libertà e rispetto durante tutto il loro funzionamento.

5. I sistemi di AI devono orientarsi alla massima condivisione di conoscenza, benefici eempowermentdel maggior numero di persone possibile.

6. Il tema della redistribuzione del lavoro deve essere da subito al centro dell’azione del Terzo Settore.

7. Istituzioni pubbliche, imprese for e non profit, consapevoli dell’inevitabile ricaduta collettiva delle loro scelte di campo su AI, Big Data e algoritmi, sono chiamati a dotarsi di criteri di controllo umano preventivo e permanente sugli effetti delle loro scelte.

8. Imprese for e non profit si impegnano fin da ora a adottare, e il legislatore si impegna a introdurre ex lege, ambiti che non possono essere delegati alle scelte autonome e deresponsabilizzanti dell’AI, quando queste scelte impattano sui fondamenti della vita umana (sospendere le cure a un malato; licenziare o assumere una persona, etc).

9. Il potere decisionale, pubblico e privato, conferito a sistemi di IA altamente avanzati anche nell’ambito del Terzo settore dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civici da cui dipende la salute della società. Nel contesto sanitario va tutelata la qualità della relazione umana che non può, né deve, in alcun modo essere sostituita o trovare supplenza in dispositivi algoritmici o di AI mediati da schermi o robot.

10. Istituzioni e soggettività for e non profit si devono dotare di una figura interna di controllo (ethical manager) e di un’autorità esterna di vigilanza che vigili sul loro utilizzo e sulle scelte delegate ai sistemi di AI.

 

http://www.vita.it/it/article/2018/10/12/unetica-umana-per-lintelligenza-artificiale-il-compito-cruciale-a-cui-/149358/

Azioni sul documento
  • Stampa
archiviato sotto: , ,
Pubblicando, i testi di Cercasi un fine

Potere e partecipazione. Un'esperienza locale di amministrazione condivisa, di S. Di Liso, D. Lomazzo

Sesto libro della collana di Cercasi un fine

 


La salute nella e oltre la leggeLa salute nella e oltre la legge. Sfide odierne, di F. Anelli e G. Ferrara

 

Quinto libro della collana di Cercasi un fine


Attrezzarsi per la città

Attrezzarsi per la città. Laboratori di formAZIONE socio-politica, di M. Natale

Questo libro, quarto della collana di Cercasi un fine, racconta un’idea, diventata poi una esperienza, basata sulla convinzione che si possa, anzi si debba, progettare...


 

Meditando in video
Papa Francesco ha inviato domenica 23 aprile 2017 un video messaggio dedicato a don Lorenzo Milani, il priore di Barbiana, alla manifestazione “Tempo di Libri”, a Milano, dove nel pomeriggio è stata presentata l’edizione completa di “Tutte le Opere” del sacerdote, con alcuni inediti, curata dallo storico Alberto Melloni per la collana dei Meridiani Mondadori...
Videomessaggio del Santo Padre per Don Milani
Politica in weekend - 2 e 3 luglio 2016
Guida alla riforma costituzionale
Di più…
I nostri amici stranieri

Cercasi un fine organizza degli incontri settimanali di dialogo tra culture e insegnamento della lingua italiana per stranieri.

Maggiori info >>>

centro di ascolto.jpg

Associandoci

logo-barchetta.jpg
Cercasi un fine
è insieme un periodico, un’associazione onlus, di promozione sociale, iscritta all’albo regionale della Puglia, fondata nel 2008, con attività che risalgono a partire dal 2002 e una rete di scuole di formazione politica. Vi partecipano credenti cristiani e donne e uomini di diverse culture e religioni, accomunati dall’impegno per una società più giusta, pacifica e bella.

Una presentazione sintetica delle nostre attività la trovi nel video qui 

altre info su

presentandoci
cercasi una casa
sostenendoci

con carta di credito o PayPal

Leggendo il giornale

Cercasi un fine 116.jpg

E' in distribuzione Cercasi un fine n. 116
(2019 - Anno XIV)

quadratino rosso Tema: La coppia

Scrivendo per il giornale

Se volete scrivere per il giornale:
direttore@cercasiunfine.it


 

 listing Il 117 è sul RAZZISMO (Dove nasce il razzismo? Cosa ci fa diventare razzisti? C'è il razzismo nella Chiesa?), in preparazione.

 listing Il 118 è sull'ECONOMIA CIVILE (Cosa è l'economia civile? I Pro e i Contro di questo modello? Dove è applicato e come?)  testi da inviare entro il 15 dicembre 2019.

 listing Il 119 è sul DIALOGO INTERRELIGIOSO  (Quanto abbiamo paura delle altre religioni? Le religioni dialogano tra di loro? Qual'è la finalità del dialogo? Cos'è il fondamentalismo religioso?)  testi da inviare entro il 31 gennaio 2020.

 listing Il 120 è sui DOVERI (si parla spesso di diritti: e i doveri? Cosa intendiamo per doveri? Esistono gruppi, culture e religioni che danno seria testimonianza sui doveri? Come educare ai doveri?)  testi da inviare entro il 15 marzo 2020.


Se avete qualcosa da proporci su qualcuno di questi temi siamo ben lieti di accoglierlo. Accettiamo anche contributi in altre lingue.