Vehículos autónomos y responsabilidad

0
1055

(del Blog de la Academia Alfonsiana)

Recientemente, algunos empleados de la compañía de coches eléctricos Tesla han acusado al fundador y jefe ejecutivo (CEO)[i], Elon Musk, de haber subordinado la seguridad de sus coches a otros criterios comerciales y de no haber advertido suficientemente de las limitaciones y riesgos de su sistema de conducción autónoma. Los denunciantes aseguran que ese sistema ha sido anunciado de manera equívoca, como si fuera capaz de prescindir completamente del conductor humano (nivel 5)[ii].

Hacia la conducción completamente autónoma

En su publicidad, Tesla reconoce explícitamente las limitaciones del sistema de conducción autónoma, seguramente por motivos legales, y advierte que el conductor debe estar siempre preparado para tomar el control del vehículo. Sin embargo, a nivel de percepción, intenta que los usuarios crean en la seguridad del sistema[iii]. De formas diversas, intenta convencerles de que estos vehículos son capaces de operar autónomamente y en modo fiable, incluso en situaciones complejas e imprevisibles. Eso parece indicar, por ejemplo, el hecho de que, recientemente, Tesla haya introducido juegos para que el conductor se entretenga mientras el vehículo se encarga de llevarle a su destino[iv]. De hecho, circulan videos por internet que muestran a conductores de estos vehículos aparentemente dormidos mientras viajan por las autopistas californianas[v].

Tesla no ha sido la primera en intentar conseguir coches con conducción autónoma. Ya en 1930, General Motors fabricó un coche de este tipo que necesitaba carreteras con transmisores fijos. El coche se guiaba captando, vía radio, los campos electromagnéticos generados por esos transmisores. En 1977, la compañía japonesa Tsukuba introdujo un coche que no necesitaba carreteras especialmente adaptadas, pues se guiaba autónomamente usando dos cámaras. Actualmente, la demanda de estos vehículos está creciendo en más de un 16% anual a nivel mundial, aunque también crece la oposición a ellos. Muchas compañías de automoción prevén poner a la venta vehículos autónomos en las próximas décadas[vi].

La difícil programación

Estos vehículos necesitan ser programados para tomar decisiones en circunstancias complejas que exigen juicios de valor[vii]. Esa programación es difícil, pues son muchas las posibles situaciones de incerteza moral. ¿Quién debe decidir el tipo de ética (deontológica, utilitarista, ética de la virtud, etc.) que orientará las decisiones del vehículo y su posible aprendizaje?[viii] No se puede dejar estas decisiones solamente al programador o al fabricante, pues hay otros muchos posibles implicados, en modo activo y pasivo, por ejemplo, los conductores, usuarios, pasajeros y viandantes (Robot-2, 35; 46).

Los dilemas del tranvía[ix] y del casco[x] son buenos ejemplos. Si casos de este tipo exigen siempre un cuidadoso discernimiento cuando la decisión la toma una persona humana, resulta aún más difícil el elaborar un algoritmo que pueda guiar a esas máquinas autónomas en la toma de decisiones. Lo que para el conductor puede ser una decisión circunstancial, sujeta a la improvisación del momento, cambia de sentido al insertarla con mucho tiempo de anticipación en un algoritmo, ya que las decisiones programadas serán premeditadas y, por tanto, sujetas a una mayor carga de responsabilidad.

Al fabricar y programar un vehículo, se deberá prever la posterior implicación de la persona que lo va a manejar, para que pueda ejercitar su autonomía moral. Concretamente, se deberá facilitar que el conductor pueda escoger el tipo de ética sobre la que el vehículo tomará sus decisiones. Asimismo, los demás posibles implicados deberían poder participar. (Robot-2, 23). Por ejemplo, se ha sugerido que, para conseguir este objetivo, sería conveniente que el comprador respondiera a un cuestionario previo y, en base a sus respuestas, se pudiera reprogramar el vehículo.

De todas formas, la complejidad de las situaciones que el vehículo tendrá que afrontar provoca numerosas incertidumbres. En el estado actual de la tecnología, todavía muy mejorable, se considera imprescindible que la programación de estos vehículos determine cómo y cuándo el algoritmo debe transferir al conductor humano la toma final de decisiones en casos complejos.

Accidentes y responsabilidad

Estos vehículos se presentan como más seguros, pero, hasta ahora, el número de accidentes en que han estado involucrados no es inferior al de los convencionales, aunque las consecuencias hayan sido menos graves[xi].

Resulta difícil delimitar las responsabilidades en caso de accidentes, muertes, daños[xii]. Normalmente, el propietario del vehículo es el primer responsable del daño ocasionado, lo mismo que, cuando un perro muerde a un viandante, es su dueño el que debe asumir la responsabilidad (Robot-2, 68). Sin embargo, la cuestión es compleja. Se deberá analizar si ha sido debido a los algoritmos que el vehículo lleva incorporados, a defectos de fabricación o a fallos en el sistema de alerta. Actualmente, están aumentando las denuncias por accidentes provocados por fallos en el sistema de conducción autónoma[xiii].

Estas son sólo algunas de las muchas cuestiones éticas que los coches de conducción autónoma provocan en la actualidad. En este y en otros ámbitos, se necesita un debate amplio y sereno sobre las muchas tecnologías relacionadas con la robótica y la inteligencia artificial que cada día están más presentes en nuestra sociedad.

p. Martín Carbajo Nuñez, OFM


[i] Cf. https://www.tesla.com/elon-musk. CEO (Chief Executive Officer).

[ii] El nivel 5 se refiere a una autonomía completa, que haría innecesaria la intervención del conductor (Full Self Driving, F.S.D.). Cf. https://www.km77.com/reportajes/varios/conduccion-autonoma-niveles.

[iii] Elon Musk había declarado en 2016: «The basic news is that all Tesla vehicles leaving the factory have all the hardware necessary for Level 5 autonomy». Citado en Metz Cade – Boudette Neal E., «Inside Tesla as Elon Musk Pushed an Unflinching Vision for Self-Driving Cars», in The New York Times, [NYT],(6.12.2021); Internet: https://www.nytimes.com/2021/12/06/technology/tesla-autopilot-elon-musk.html.

[iv] Boudette Neal E., «A new Tesla safety concern: Drivers can play video games in moving cars», in NYT (12.12.2021); Internet: https://www.nytimes.com/2021/12/07/business/tesla-video-game-driving.html

[v] Baker Peter C., «I think this guy is, like, passed out in his Tesla», in NYT (27.11.2019); Internet: https://www.nytimes.com/2019/11/27/magazine/tesla-autopilot-sleeping.html?searchResultPosition=7

[vi] El año 2019, la empresa Uber estaba ya ofreciendo servicios con coches de conducción autónoma en la ciudad estadunidense de Pittsburgh. Cf. Benanti Paolo, «Intelligenze artificiali, robot, bio-ingegneria e cyborg: nuove sfide teologiche?», in Concilium 55/3 (2019) 46-61, aquí 48.

[vii] «Algorithms that automate complex ethical decision making». Millar Jason, «Ethics settings for autonomous vehicles», in Lin Patrick – Jenkins Ryan – Abney Keith, (edd.) Robot ethics 2.0. From autonomous cars to artificial intelligence, [Robot-2],Oxford Univ. Press, Oxford 2017, 22.

[viii] Loh Janina, «Responsabilità vecchie o responsabilità nuove? I pro e i contro di una trasformazione della responsabilità», in Concilium 55/3 (2019) 111-121, aquí 118.

[ix] This dilemma was developed by philosopher Philippa Foot in 1967 and adapted by Judith Jarvis Thomson in 1985. Cf. https://theconversation.com/the-trolley-dilemma-would-you-kill-one-person-to-save-five-57111

[x] Cf. https://www.youtube.com/watch?v=ixIoDYVfKA0&t=8s

[xi] https://gerberinjurylaw.com/autonomous-vehicle-statistics/

[xii] Millar Jason, «Ethics settings for autonomous vehicles», in Robot-2,20-34,aquí 22.

[xiii] Cf. Robot-2, 66; Boudette Neal E., «Tesla says autopilot makes its cars safer. Crash victims say it kills», in NYT (5.07.2021); Internet: https://www.nytimes.com/2021/07/05/business/tesla-autopilot-lawsuits-safety.html?searchResultPosition=2