(dal Blog dell’Accademia Alfonsiana)
Recentemente, si è appreso che il 27 marzo 2020 un drone turco aveva preso, autonomamente, la decisione di attaccare le truppe nemiche nella guerra libica. Il drone ha deciso di attaccare in base al suo algoritmo integrato, senza aspettarsi alcun intervento umano. Questa notizia ha evidenziato la possibilità di nuovi scenari di guerra e cambiamenti fondamentali nella natura dei conflitti. [1][2]
1. Droni da guerra o “robot killer”
Programmando un drone militare, si può decidere che tipo di controllo umano si può esercitare sul suo pilotaggio e apprendimento, arrivando persino a renderlo altamente autonomo. In base al tipo di controllo, si può fare una distinzione tra robot d’attacco militari che possono agire in modalità autonoma (LAWS: Lethal Autonomous Weapon Systems) e altri sistemi militari robotici (RMS: Robotized military systems). [3]
È importante distinguere tra un sistema automatizzato e un sistema autonomo. Entrambi eseguono azioni senza l’intervento diretto e tempestivo di un agente umano, ma le azioni del primo sono prevedibili e programmate, mentre quelle del sistema autonomo possono essere imprevedibili e potrebbero eventualmente superare gli obiettivi e le azioni inizialmente fissate dal programmatore umano.
Esistono anche sistemi robotici computerizzati che operano su reti di computer con tecniche simili a virus e potrebbero causare guerre informatiche con conseguenze gravi e imprevedibili. Le accuse di interferenza russa nelle elezioni presidenziali statunitensi del 2016 sono solo un esempio.
Gli RMS sono controllati a distanza. L’operatore umano è l’unico che può prendere la decisione finale di sparare. Una seconda categoria di RMS, più vicina alle LAWS, sono i sistemi d’arma semi-autonomi, in grado di identificare i bersagli da soli, ma l’agente umano li monitora costantemente e può interrompere le loro azioni in qualsiasi momento. È ormai accettato che un uso eticamente valido di queste armi semi-autonome debba essere limitato a compiti difensivi come la difesa missilistica (Otto 101).
La terza categoria sarebbe LE LAWS, che sono sistemi autonomi nel loro funzionamento e apprendimento. Ecco perché sono anche chiamate “LAWS innovative”. Ciò solleva la questione di chi sarà direttamente responsabile delle loro azioni e degli “effetti collaterali”. L’autonomia con cui agiscono, una volta attivati, li rende in grado di attaccare solo bersagli hardware, come i sistemi che bloccano le comunicazioni. Tuttavia, la linea tra il controllo umano e la completa assenza di tale controllo sta diventando sempre più sfocata.
1.1. Il difficile compito di programmare questi droni
È molto difficile programmare questi robot da guerra. Dotarli di regole etiche efficaci sembra attualmente impossibile, perché le circostanze reali sono sempre complesse e l’etica non può essere ridotta alla logica o all’applicazione automatizzata degli standard. Inoltre, gli algoritmi risultanti presuppongono una scelta preventiva sui principi sottostanti e sul tipo di etica. Alcuni autori suggeriscono che l’etica utilitaristica sarebbe la più facile da implementare in un algoritmo, in quanto consentirebbe al software di scegliere tra opzioni i cui effetti sarebbero quantificabili.
Le situazioni di guerra stanno diventando sempre più complesse. Le parti in conflitto armato cercano di rendere difficile distinguere tra combattenti e civili. Inoltre, non è facile determinare, soprattutto per un robot, se i soldati nemici sono già fuori combattimento o se si sono arresi, nonché valutare la proporzionalità della risposta.
1.2. I pericoli della guerra robotica
Essere robotici non rende la guerra più rispettosa della dignità umana, perché i robot armati agiscono freddamente, come un codice binario, senza pietà o perdono. Alcuni autori sostengono che l’uso dei robot ridurrebbe significativamente il costo umano della guerra, evitando così i movimenti di protesta che condizionano l’azione del governo.
I paesi occidentali stanno già guidando lo sviluppo delle loro armi in questa direzione. Ciò potrebbe portare a una corsa agli armamenti che è ancora più difficile da controllare rispetto alla precedente Guerra Fredda. Papa Francesco ha chiarito che il semplice possesso di armi atomiche è già immorale. Questa dichiarazione può essere applicata anche alle LAWS. [4]
I conflitti armati potrebbero anche intensificarsi, poiché i benefici che i paesi aggressori cercano compenserebbero il costo ridotto che dovrebbero pagare per usare la forza armata. Con meno spese e meno proteste sociali, la decisione di andare in guerra sarebbe più facile da prendere e le responsabilità più difficili da determinare.
È facile eliminare migliaia di persone quando sono già state ridotte a figurine sullo schermo di un computer. Evitando ogni forma di relazione faccia a faccia, l’altro non viene percepito come un “alter ego” ma come un essere anonimo, estraneo a me stesso e di cui non mi sento responsabile.
2. Basi per superare la nuova corsa agli armamenti
Le LAWS sono giustificate dal fatto che si comporterebbero in modo più razionale ed equilibrato rispetto agli umani. Alcuni autori sostengono che questi robot da combattimento ridurrebbero il numero di vite innocenti e commetterebbero meno crimini di guerra, non essendo soggetti a passioni umane come la paura, la vendetta o l’odio.
2.1. Necessità di andare oltre la concezione antropologica negativa
Gli argomenti usati per giustificare l’uso delle LAWS si basano su una concezione antropologica negativa (homo homini lupus). Dobbiamo adottare una visione antropologica più positiva. In effetti, gli argomenti di cui sopra per preferire le LAWS agli esseri umani possono anche essere usati nella direzione opposta.
Dal punto di vista cristiano, l’essere umano è intrinsecamente sociale, capace di perdonare e mostrare compassione, perché è dotato di un profondo senso morale e di una naturale inclinazione a non uccidere. Invece di delegare le questioni di vita e di morte alle macchine, dobbiamo assumerle responsabilmente, promuovendo sempre l’apertura al perdono e al dono di sé. Una pace duratura si costruisce sulla riconciliazione, sul dialogo, sul perdono, non sulla violenza e sull’oblio.
Solo l’uomo può costruire una comunità di valori, fraterna e autenticamente umana. Non può delegare questa attività ai computer. Il freddo calcolo delle laws, basato sul principio della massima utilità, potrebbe portarli a massacri. Inoltre, l’essere umano è in grado di andare oltre la logica dell’equivalenza che governa la giustizia per abbracciare la gratuità e il perdono, aprendo così un futuro di speranza e di fraternità.
2.2. La dottrina della guerra giusta non è più valida
La concezione antropologica negativa ha portato a considerare la guerra come inevitabile e quindi a giustificare la corsa agli armamenti. Questa dottrina è anche usata per giustificare e regolarizzare le LAWS.
L’enciclica Pacem in terris ha segnato il punto finale dei riferimenti ufficiali della Chiesa alla dottrina della guerra giusta, poiché il potere distruttivo delle armi moderne impedisce che la guerra sia una risposta proporzionata al risarcimento dell’ingiustizia. Ciò è ancora più evidente nella guerra robotica, poiché le LAWS non sono in grado di applicare correttamente il principio di proporzionalità, che richiede la considerazione di molti elementi. Inoltre, la guerra oggi non è un male minore, ma il male più grande ([5]FT 258).
La Chiesa insegna che la guerra “è sempre un fallimento dell’umanità” (FT 261), “la negazione di tutti i diritti e una drammatica aggressione contro l’ambiente” (FT 257). La guerra robotica accentua questa disumanizzazione e quindi non può essere promossa come soluzione. Per spezzare la spirale della violenza, dobbiamo superare gli atteggiamenti che l’hanno generata e le ingiustizie che la alimentano.
Esistono già strumenti alternativi per ristabilire la pace e la giustizia senza ricorrere alla guerra. Si può quindi dire che attualmente non esistono più le condizioni che potrebbero giustificare l’applicazione di questa dottrina. Un argomento simile è stato usato per rifiutare la pena di morte. Papa Francesco insegna che entrambi (la guerra e la pena di morte) “sono risposte false, che non risolvono i problemi posti, e che alla fine aggiungono solo nuovi fattori di distruzione” (FT 255).
Conclusione
Quando le macchine autonome gestiscono aspetti importanti della vita sociale, c’è il rischio di disumanizzare le relazioni e indebolire la fratellanza universale. Ogni guerra è disumana, ma lo sarà ancora di più se chi la compie sono macchine autonome e nessuno si assume la responsabilità diretta delle proprie azioni.
Qualsiasi sistema d’arma con capacità letale deve rimanere sotto l’assoluta supervisione dell’uomo. Pertanto, lo sviluppo delle LAWS che sia completamente autonomo nelle loro azioni e apprendimento deve essere proibito.
La violenza provoca più violenza. Solo la gratuità e il perdono possono far nascere un’autentica fraternità universale.
P. Martín Carbajo Nuñez, OFM
[1] Testo completo e dettagliato con abbondanti riferimenti bibliografici in: Carbajo Nunez M., «La guerre des drones autonomes”, in Verità e La Vita 280 (2022). In italiano: Laurentianum 63/1 (2022).
[2] Apps P., «New era of robot war may be underway unnoticed», Reuters (10.06.2021), in Internet : https://www.reuters.com/article/apps-drones-idUSL5N2NS2E8.
[3] Cf. Otto P. – Gräf E., 3th1cs. A reinvention of ethics in the digital age?, [Otto], Irights Media, Berlin 2017.
[4] Francesco «Incontro per la pace, Hiroshima» (24.11.2019), in OR 269 (2019) 8.
[5] Cfr. Lorenzetti L., «Pacem · in Terris, svolta per la teologia morale», in RTM 179/3 (2013) 347-355. «Alienum è un ratione» (PT 67).