American (artificial) Sniper, di Roberto Massaro
Lo scorso anno, l’attore e regista americano Clint Eastwood ha diretto un film sulla storia di Chris Kyle, giovane texano arruolatosi nei Navy Seal dopo gli eventi dell’11 settembre 2001. Kyle, soprannominato “Leggenda” dai suoi commilitoni, è stato un cecchino abilissimo: ben 250 vittime tra i terroristi (e i civili) iracheni che lo hanno fatto diventare un vero e proprio mito negli States, pluridecorato da medaglie al valor militare. Dopo il suo ritiro dalle esperienze belliche, fu assassinato da un marine che soffriva di disturbi post traumatici da stress.
Chissà a cosa sarebbero servite le sue doti belliche al tempo della guerra dei droni…
Sono passati pochi giorni dall’annuncio di Barack Obama della morte dei due cooperanti, Giovanni Lo Porto e Warren Weinstein, caduti sotto i colpi di un Predator B Reaper, un drone, un aereo-robot-killer della United States Air Force, inviato in Pakistan per un’operazione antiterroristica. In conferenza stampa, il presidente degli Stati Uniti si è assunto tutta la responsabilità per l’operazione che ha portato alla morte dei due cooperanti e ha assicurato che la procedura di attacco del drone ha seguito le regole fissate per questi blitz e cioè: la sicurezza di colpire una cellula terroristica; la convinzione dell’assenza di civili al suo interno; l’impossibilità di catturare i terroristi vivi.
Ma la questione etica che emerge con vigore da questa triste vicenda è legata all’uso dell’intelligenza artificiale in ambito bellico.
Non vi è dubbio che l’uso dei droni in guerra porti significativi vantaggi: riduce il numero dei soldati impegnati al fronte, consente la raccolta di maggiori informazioni, grazie al pilotaggio remoto può operare più a lungo rispetto a un aereo e, infine, data la precisione, minimizza i danni per i civili (tuttavia su quest’ultimo dato restano dei forti dubbi, legati alla scarsa precisione dei dati statistici).
Solleviamo però almeno tre domande su cui la riflessione etica è chiamata a fornire delle risposte.
La prima riguarda il rischio di far diventare i droni niente di più che dei video-game: uccidere da 8.000 km di distanza non è la stessa cosa che avere una persona a poche centinaia di metri. La distanza tra il drone operator e gli obiettivi militari potrebbe spingere a scegliere con molta più facilità di ricorrere all’uso della forza.
La seconda concerne il rapporto costi/benefici: può la riduzione dei costi connessa all’uso dei droni essere il criterio per preferire l’elaborazione di algoritmi all’apporto e all’intelligenza umani?
La terza questione etica riguarda invece la convinzione da parte di alcuni studiosi che l’uso degli attuali droni sarebbe solo un punto di passaggio verso l’utilizzo di armi autonome. Tali armi, già in sperimentazione in alcuni paesi, mediante l’installazione di software sofisticati, consentirebbero l’automatizzazione dell’uso della forza e garantirebbero maggior precisione e minori costi in termini economici e di vite umane.
Ma, a questo punto, su chi ricadrebbe la responsabilità morale e penale di determinate operazioni militari programmate da un software e delegate a un’intelligenza artificiale? Quale capacità di discernimento morale potrebbe avere un’arma autonoma, pur adeguatamente programmata? La responsabilità e il discernimento non sono questione di algoritmi!
Condividiamo la preoccupazione di Mons. Silvano Tomasi, delegato della Santa Sede presso le Nazioni Unite: «È importante riconoscere che un coinvolgimento umano significativo è assolutamente essenziale nelle decisioni che riguardano la vita e la morte di esseri umani, che i sistemi di armi autonome non possono mai rimpiazzare la capacità umana di ragionamento morale, anche nel contesto della guerra, che lo sviluppo di sistemi di armi autonome in ultimo porterà a una vasta proliferazione delle stesse, e che lo sviluppo di sistemi di armi autonome complessi, che escludono l’attore umano dalla presa di decisioni letali, è imprevidente e può modificare in maniera irreversibile il modo di condurre la guerra, in una direzione meno umana, portando a conseguenze che non siamo in grado di prevedere, ma che comunque aumenteranno la disumanizzazione della guerra».
Precauzione e prudenza sono la strada giusta per non consentire che eventuali artificial sniper superino di gran lunga il palmarès del compianto Chris Kyle!
[presbitero, responsabile Scuola CuF di Monopoli, Bari]