(del Blog de la Academia Alfonsiana)
Recientemente, se supo que el 27 de marzo de 2020, un dron turco había tomado de forma autónoma la decisión de atacar a las tropas enemigas en la guerra de Libia. El dron decidió atacar basándose en su algoritmo incorporado, sin esperar ninguna intervención humana. Esta noticia destacó la posibilidad de nuevos escenarios de guerra y cambios fundamentales en la naturaleza de los conflictos. [1] [2]
- Drones de guerra o “robots asesinos”
Al programar un dron militar, se puede decidir qué tipo de control humano se puede ejercer sobre su pilotaje y aprendizaje, llegando incluso a hacerlo altamente autónomo. En función del tipo de control, se puede distinguir entre robots militares de ataque que pueden actuar en modo autónomo (LAWS: Lethal Autonomous Weapon Systems) y otros sistemas robóticos militares (RMS: Robotized Military Systems). [3]
Es importante distinguir entre un sistema automatizado y un sistema autónomo. Ambos realizan acciones sin la intervención directa y oportuna de un agente humano, pero las acciones del primero son predecibles y planificadas, mientras que las del sistema autónomo pueden ser impredecibles y posiblemente excedan los objetivos y acciones planteadas inicialmente por el programador humano.
También existen sistemas robóticos computarizados que operan en redes informáticas con técnicas similares a virus y podrían provocar guerras cibernéticas con consecuencias graves e impredecibles. Las acusaciones de interferencia rusa en las elecciones presidenciales estadounidenses de 2016 son solo un ejemplo.
Los RMS se controlan de forma remota. El operador humano es el único que puede tomar la decisión final de disparar. Una segunda categoría de RMS, más cercana a LAWS, son los sistemas de armas semiautónomos, capaces de identificar objetivos por sí mismos, pero el agente humano los monitorea constantemente y puede interrumpir sus acciones en cualquier momento. Ahora se acepta que un uso éticamente válido de estas armas semiautónomas debe limitarse a tareas defensivas como la defensa antimisiles (Otto 101).
La tercera categoría serían las LAWS, que son sistemas autónomos en su funcionamiento y aprendizaje. Por eso también se les llama “LAWS innovadoras”. Esto plantea la cuestión de quién será directamente responsable de sus acciones y “efectos secundarios”. La autonomía con la que actúan, una vez activados, les permite atacar únicamente objetivos de hardware, como sistemas que bloquean las comunicaciones. Sin embargo, la línea entre el control humano y la ausencia total de ese control es cada vez más borrosa.
1.1. La difícil tarea de programar estos drones
Es muy difícil programar estos robots de guerra. Dotarlos de reglas éticas efectivas parece actualmente imposible, porque las circunstancias reales son siempre complejas y la ética no puede reducirse a la lógica o a la aplicación automatizada de estándares. Además, los algoritmos resultantes presuponen una elección previa sobre los principios subyacentes y el tipo de ética. Algunos autores sugieren que la ética utilitarista sería la más fácil de implementar en un algoritmo, ya que permitiría al software elegir entre opciones cuyos efectos serían cuantificables.
Las situaciones de guerra son cada vez más complejas. Las partes en un conflicto armado intentan dificultar la distinción entre combatientes y civiles. Tampoco es fácil determinar, especialmente para un robot, si los soldados enemigos ya están fuera de combate o se han rendido, así como evaluar la proporcionalidad de la respuesta.
1.2. Los peligros de la guerra robótica
El hecho de ser robótico, usar robots, no hace que la guerra sea más respetuosa con la dignidad humana, porque los robots armados actúan con frialdad, como un código binario, sin piedad ni perdón. Algunos autores sostienen que el uso de robots reduciría significativamente el costo humano de la guerra, evitando así los movimientos de protesta que afectan la acción del gobierno.
Los países occidentales ya están liderando el desarrollo de sus armas en esta dirección. Esto podría conducir a una carrera armamentista aún más difícil de controlar que en la anterior Guerra Fría. El Papa Francisco dejó claro que la mera posesión de armas atómicas ya es inmoral. Esta declaración también se puede aplicar a las LAWS. [4]
Los conflictos armados también podrían escalar, ya que los beneficios que buscan los países agresores compensarían el costo reducido que tendrían que pagar para usar la fuerza armada. Con menos gastos y menos protestas sociales, la decisión de ir a la guerra sería más fácil de tomar y las responsabilidades más difíciles de determinar.
Es fácil eliminar a miles de personas cuando ya han quedado reducidas a simples imágenes o iconos en la pantalla de un ordenador. Evitando cualquier forma de relación cara a cara, el otro no es percibido como un “alter ego” sino como un ser anónimo, ajeno a mí mismo y del cual no me siento responsable.
- Bases para superar la nueva carrera armamentista
Las LAWS se justifican por el hecho de que se comportarían de una manera más racional y equilibrada que los humanos. Algunos autores sostienen que estos robots de combate reducirían el número de vidas inocentes y cometerían menos crímenes de guerra, al no estar sujetos a pasiones humanas como el miedo, la venganza o el odio.
2.1. Necesidad de ir más allá de la concepción antropológica negativa
Los argumentos utilizados para justificar el uso de las LAWS se basan en una concepción antropológica negativa (homo homini lupus). Necesitamos adoptar una visión antropológica más positiva. De hecho, los argumentos anteriores para preferir las LAWS a los humanos también pueden usarse en la dirección opuesta.
Desde el punto de vista cristiano, el ser humano es intrínsecamente social, capaz de perdonar y de mostrar compasión, porque está dotado de un profundo sentido moral y de una natural inclinación a no matar. En lugar de delegar en las máquinas los temas de la vida y la muerte, debemos asumirlos con responsabilidad, promoviendo siempre la apertura al perdón y la entrega. Una paz duradera se construye sobre la reconciliación, el diálogo, el perdón, no sobre la violencia y el olvido.
Sólo el hombre puede construir una comunidad de valores, fraterna y auténticamente humana. No puede delegar esta tarea a las computadoras. El frío cálculo de las LAWS, basado en el principio de máxima utilidad, podría conducirlas a masacres. Además, el ser humano es capaz de trascender la lógica de la equivalencia que rige la justicia para abrazar la gratuidad y el perdón, abriendo así un futuro de esperanza y fraternidad.
2.2. La doctrina de la guerra justa ya no es válida
La concepción antropológica negativa ha llevado a considerar la guerra como inevitable y por tanto a justificar la carrera armamentista. Esta doctrina también se utiliza para justificar y regularizar las LAWS.
La encíclica Pacem in terris marcó el punto final de las referencias oficiales de la Iglesia a la doctrina de la guerra justa, ya que el poder destructivo de las armas modernas impide que la guerra sea una respuesta proporcionada a la reparación de la injusticia. Esto es aún más evidente en la guerra robótica, ya que las LAWS no pueden aplicar correctamente el principio de proporcionalidad, que requiere la consideración de muchos elementos. Además, la guerra hoy no es el mal menor, sino el mal mayor ([5] FT 258).
La Iglesia enseña que la guerra “es siempre un fracaso de la humanidad” (FT 261), “la negación de todos los derechos y una agresión dramática contra el medio ambiente” (FT 257). La guerra robótica acentúa esta deshumanización y, por lo tanto, no puede promoverse como una solución. Para romper la espiral de la violencia, debemos superar las actitudes que la generaron y las injusticias que la alimentan.
Ya existen herramientas alternativas para restaurar la paz y la justicia sin recurrir a la guerra. Por tanto, puede decirse que en la actualidad ya no se dan las condiciones que podrían justificar la aplicación de esta doctrina. Se ha utilizado un argumento similar para rechazar la pena de muerte. El Papa Francisco enseña que ambas (la guerra y la pena de muerte) “son respuestas falsas, que no resuelven los problemas planteados, y que al final sólo añaden nuevos factores de destrucción” (FT 255).
Conclusión
Cuando las máquinas autónomas gestionan aspectos importantes de la vida social, existe el riesgo de deshumanizar las relaciones y debilitar la fraternidad universal. Toda guerra es inhumana, pero lo será aún más si quienes la protagonizan son máquinas autónomas y nadie se responsabiliza directamente de sus actos.
Cualquier sistema de armas con capacidad letal debe permanecer bajo la supervisión absoluta del hombre. Por lo tanto, debe prohibirse el desarrollo de las LAWS que sean completamente autónomas en sus acciones y aprendizajes.
La violencia genera más violencia. Sólo la gratuidad y el perdón pueden hacer nacer una auténtica fraternidad universal.
P. Martín Carbajo Nuñez, OFM
[1] Texto completo y detallado con muchas referencias bibliográficas en: Carbajo Núñez M., «La guerre des drones autonomes», en Verdad y Vida 280 (2022). En italiano : Laurentianum 63/1 (2022)..
[2] Apps P., «New era of robot war may be underway unnoticed», Reuters (10.06.2021), in Internet : https://www.reuters.com/article/apps-drones-idUSL5N2NS2E8..
[3] Cf. Otto P. – Gräf E., 3th1cs. A reinvention of ethics in the digital age?, [Otto], Irights Media, Berlin 2017.
[4] Francesco «Encuentro por la Paz, Hiroshima» (24.11.2019), in OR 269 (2019) 8.
[5] Cfr. Lorenzetti L., «Pacem · in Terris, svolta per la teologia morale», in RTM 179/3 (2013) 347-355. «Alienum est a ratione» (PT 67).