Veicoli autonomi e responsabilità

0
811

Di recente, alcuni dipendenti dell’azienda di auto elettriche Tesla hanno accusato il fondatore e amministratore delegato (CEO)[i], Elon Musk, di aver subordinato la sicurezza delle sue auto ad altri criteri commerciali e di non aver sufficientemente avvertito delle limitazioni e rischi del sistema di guida autonoma. I denuncianti affermano che questo sistema è stato pubblicizzato erroneamente, come se fosse in grado di fare a meno del conducente umano (livello 5)[ii].

Verso una guida completamente autonoma
Nella sua pubblicità, Tesla riconosce esplicitamente i limiti del sistema di guida autonoma, probabilmente per motivi legali, e avverte che il guidatore deve essere sempre pronto a prendere il controllo del veicolo. Tuttavia, a livello di percezione,  cerca di far credere agli utenti che il sistema è sicuro[iii]. In vari modi, cerca di convincerli che questi veicoli sono in grado di operare in modo autonomo e affidabile, anche in situazioni complesse e imprevedibili. Questo sembra indicare, ad esempio, il fatto che Tesla abbia recentemente introdotto giochi per far divertire il guidatore mentre il veicolo lo porta a destinazione[iv]. Su Internet, infatti, stanno circolando video che mostrano i conducenti di questi veicoli apparentemente addormentati mentre viaggiano sulle autostrade californiane[v].

Tesla non è stata la prima a provare a procurarsi auto con guida autonoma. Già nel 1930 la General Motors realizzava un’auto del genere che necessitava di strade con trasmettitori fissi. L’auto è stata guidata captando, via radio, i campi elettromagnetici generati da questi trasmettitori. Nel 1977, l’azienda giapponese Tsukuba introdusse un’auto che non necessitava di strade appositamente adattate, poiché si guidava autonomamente utilizzando due telecamere. Attualmente, la domanda di questi veicoli sta crescendo di oltre il 16% all’anno in tutto il mondo, sebbene stia crescendo anche l’opposizione ad esse. Molte aziende automobilistiche prevedono di mettere in vendita veicoli autonomi nei prossimi decenni[vi].

La difficile programmazione
Questi veicoli devono essere programmati per prendere decisioni in circostanze complesse che richiedono giudizi di valore[vii]. Questa programmazione è difficile, poiché ci sono molte possibili situazioni di incertezza morale. Chi dovrebbe decidere il tipo di etica (etica, utilitaristica, etica della virtù, ecc.) che guiderà le decisioni del veicolo e il suo eventuale apprendimento?[viii] Queste decisioni non possono essere lasciate solo al programmatore o al produttore, poiché ci sono molti altri possibili coinvolti, attivamente e passivamente, ad esempio conducenti, utenti, passeggeri e pedoni (Robot-2, 35; 46).

I dilemmi del tram[ix] e del casco[x] sono buoni esempi. Se casi di questo tipo richiedono sempre un attento discernimento quando la decisione viene presa da una persona umana, è ancora più difficile sviluppare un algoritmo che possa guidare queste macchine autonome nel prendere decisioni. Quella che per il conducente può essere una decisione circostanziale, soggetta all’improvvisazione del momento, cambia significato quando viene inserita con largo anticipo in un algoritmo, poiché le decisioni programmate saranno premeditate e, quindi, soggette ad un maggior carico di responsabilità.

Nella fabbricazione e nella programmazione di un veicolo deve essere previsto il successivo coinvolgimento della persona che lo guiderà, affinché possa esercitare la propria autonomia morale. Nello specifico, dovrebbe essere più facile per il conducente scegliere il tipo di etica su cui il veicolo prenderà le sue decisioni. Allo stesso modo, le altre possibili parti interessate dovrebbero poter partecipare. (Robot-2, 23). Ad esempio, è stato suggerito che, per raggiungere questo obiettivo, sarebbe conveniente che l’acquirente risponda ad un precedente questionario e, in base alle sue risposte, il veicolo potrebbe essere riprogrammato.

In ogni caso, la complessità delle situazioni che il veicolo dovrà affrontare provoca numerose incertezze. Allo stato attuale della tecnologia, che è ancora altamente migliorabile, si ritiene essenziale che la programmazione di questi veicoli determini come e quando l’algoritmo deve trasferire al conducente umano il processo decisionale finale nei casi complessi.

Infortuni e responsabilità
Questi veicoli vengono presentati come più sicuri, ma, fino ad ora, il numero di incidenti in cui sono stati coinvolti non è inferiore a quello dei veicoli convenzionali, anche se le conseguenze sono state meno gravi[xi].

Difficile definire le responsabilità in caso di incidenti, decessi, danni[xii]. Normalmente il proprietario del veicolo è il primo responsabile del danno causato, nello stesso modo in cui, quando un cane morde un pedone, è il suo proprietario che deve assumersi la responsabilità (Robot-2, 68). Tuttavia, la questione è complessa. Deve essere analizzato se sia dovuto agli algoritmi che il veicolo ha incorporato, a difetti di fabbricazione o a guasti nel sistema di allerta. Attualmente sono in aumento le segnalazioni di incidenti causati da guasti al sistema di guida autonoma[xiii].

Queste sono solo alcune delle tante domande etiche che le auto a guida autonoma sollevano oggi. In questo e in altri ambiti è necessario un dibattito ampio e sereno sulle tante tecnologie legate alla robotica e all’intelligenza artificiale che sono sempre più presenti nella nostra società.

P. Martin Carbajo Nuñez, OFM


[i] Cf. https://www.tesla.com/elon-musk. CEO (Chief Executive Officer).

[ii] El nivel 5 se refiere a una autonomía completa, que haría innecesaria la intervención del conductor (Full Self Driving, F.S.D.). Cf. https://www.km77.com/reportajes/varios/conduccion-autonoma-niveles.

[iii] Elon Musk había declarado en 2016: «The basic news is that all Tesla vehicles leaving the factory have all the hardware necessary for Level 5 autonomy». Citado en Metz Cade – Boudette Neal E., «Inside Tesla as Elon Musk Pushed an Unflinching Vision for Self-Driving Cars», in The New York Times, [NYT],(6.12.2021); Internet: https://www.nytimes.com/2021/12/06/technology/tesla-autopilot-elon-musk.html.

[iv] Boudette Neal E., «A new Tesla safety concern: Drivers can play video games in moving cars», in NYT (12.12.2021); Internet: https://www.nytimes.com/2021/12/07/business/tesla-video-game-driving.html

[v] Baker Peter C., «I think this guy is, like, passed out in his Tesla», in NYT (27.11.2019); Internet: https://www.nytimes.com/2019/11/27/magazine/tesla-autopilot-sleeping.html?searchResultPosition=7

[vi] El año 2019, la empresa Uber estaba ya ofreciendo servicios con coches de conducción autónoma en la ciudad estadunidense de Pittsburgh. Cf. Benanti Paolo, «Intelligenze artificiali, robot, bio-ingegneria e cyborg: nuove sfide teologiche?», in Concilium 55/3 (2019) 46-61, aquí 48.

[vii] «Algorithms that automate complex ethical decision making». Millar Jason, «Ethics settings for autonomous vehicles», in Lin Patrick – Jenkins Ryan – Abney Keith, (edd.) Robot ethics 2.0. From autonomous cars to artificial intelligence, [Robot-2],Oxford Univ. Press, Oxford 2017, 22.

[viii] Loh Janina, «Responsabilità vecchie o responsabilità nuove? I pro e i contro di una trasformazione della responsabilità», in Concilium 55/3 (2019) 111-121, aquí 118.

[ix] This dilemma was developed by philosopher Philippa Foot in 1967 and adapted by Judith Jarvis Thomson in 1985. Cf. https://theconversation.com/the-trolley-dilemma-would-you-kill-one-person-to-save-five-57111

[x] Cf. https://www.youtube.com/watch?v=ixIoDYVfKA0&t=8s

[xi] https://gerberinjurylaw.com/autonomous-vehicle-statistics/

[xii] Millar Jason, «Ethics settings for autonomous vehicles», in Robot-2,20-34,aquí 22.

[xiii] Cf. Robot-2, 66; Boudette Neal E., «Tesla says autopilot makes its cars safer. Crash victims say it kills», in NYT (5.07.2021); Internet: https://www.nytimes.com/2021/07/05/business/tesla-autopilot-lawsuits-safety.html?searchResultPosition=2