Le leggi della robotica di Isaac Asimov (1902-1992)

0
1865

Le leggi della robotica di Isaac Asimov (1902-1992)

Nel film L’uomo bicentenario, il robot NDR Andrew, presenta le tre leggi della robotica. Sono:

1) Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno;
(2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge;
3) Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

Una quarta legge, aggiunta in seguito dall’autore, la cosiddetta Legge Zero: un robot non può danneggiare l’umanità e, per inazione, permettergli di subire qualsiasi danno.

Queste leggi si applicherebbero nel contesto attuale? Asimov, in qualche modo già capisce la complessità derivante dall’azione dei robot, anche in modo incipiente, ed elabora tali regole considerando alcune azioni di queste macchine costruite con un livello di intelligenza artificiale, potrebbe raggiungere una certa autonomia, lasciando da parte la programmazione stessa. Quindi formula tali leggi che, nel loro insieme, hanno un contenuto etico. Ovviamente, i tempi sono cambiati e il livello di applicazione di queste leggi è molto limitato in quanto sono intuitive dal contesto della fantascienza. Anche se fossero in vigore oggi, come tutta l’etica, non risolverebbero tutti i problemi e i dilemmi, ma apriranno la discussione in questo campo.

Il Consiglio di ricerca in ingegneria e scienze fisiche (EPSRC per le sigle in inglese: Engineering and Physical Sciences Research Council), commentando le leggi di Asimov, afferma: ‘Sebbene siano un utile punto di partenza per la discussione, le regole di Asimov sono dispositivi immaginari. Non sono stati scritti per essere utilizzati nella vita reale e non sarebbe pratico farlo, perché semplicemente non funzionano nella pratica. (Ad esempio, come può un robot conoscere ogni possibile modo di danneggiare un essere umano? Come può un robot comprendere e obbedire a tutti gli ordini umani quando anche le persone sono confuse su cosa significano le istruzioni?). Le storie di Asimov hanno anche mostrato che anche in un mondo di robot intelligenti, le loro leggi potevano sempre essere evitate e venivano individuate lacune. Ma alla fine, e soprattutto, le leggi di Asimov sono inadeguate perché cercano di insistere sul fatto che i robot si comportano in certi modi, come se fossero persone, quando nella vita reale sono gli umani a progettare e usare i robot che dovrebbero essere i soggetti. di qualsiasi legge ”.

A partire dalla riflessione indotta dalle leggi di Asimov, i suoi limiti e la necessità di principi guida per progettisti, costruttori e utenti di robot, un gruppo di esperti dell’EPSRC e dal Arts and Humanities Research Council Robotics Retreat  hanno formulato questi principi:

1) I robot sono strumenti multiuso. Non dovrebbero essere progettati esclusivamente o principalmente per uccidere o nuocere agli esseri umani se non nell’interesse della sicurezza nazionale.

2) Gli umani, non i robot, sono agenti responsabili. I robot devono essere progettati; operato nella misura del possibile per conformarsi alle leggi esistenti e ai diritti e alle libertà fondamentali, inclusa la privacy.

3) I robot sono prodotti. Devono essere progettati utilizzando processi che utilizzano processi che garantiscano la loro sicurezza e protezione.

4) I robot sono manufatti prodotti. Non dovrebbero essere progettati in modo fuorviante per sfruttare gli utenti vulnerabili; invece, la natura della macchina deve essere trasparente.

5) Ad un robot dovrebbe essere assegnata una persona con responsabilità legale.

Vincent C. Müller fa una critica interessante di questi cinque principi nel suo testo Legal vs. ethical obligations – a comment on the EPSRC’s principles for robotics, riflettendo sulla necessità di differenziare gli obblighi legali e i requisiti etici. Muller adotta questi principi, cerca di ristrutturarli per motivi legali ed etici e sottolinea anche i limiti che esistono in essi, poiché questo campo di conoscenza è recente e aperto a nuove questioni etiche e legali.

Pertanto, la validità dei principi di Asimov non risiede oggi nella loro applicazione pratica, ma nell’intuizione che è necessaria, in questo nuovo campo di conoscenza, avanzare ulteriormente, preparando teoricamente e tecnicamente a formulare principi che considerano entrambi positività e progressi in questa nuova area, in modo che si espanda, rispettando sempre il principio di agire e vivere bene tra tecnologia e società.

p. Rogério Gomes, CSsR