Prima Legge
Un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
Seconda Legge
Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che questi ordini non contrastino con la Prima Legge.
Terza Legge
Un robot deve salvaguardare la propria esistenza, a meno che questa autodifesa non contrasti con la Prima o la Seconda Legge.
Queste tre leggi sono lo spunto di molti libri e racconti sui robot. In particolare, possono essere interpretate come una sorta di fede/religione degli automi, alla quale si devono attenere scrupolosamente.
Tuttavia, le storie raccontate da Asimov, vedono protagonisti molti robot che pur obbedendo a queste leggi, commettono azioni che risultano contrarie alla morale umana.
Per comprendere la complessità della fede dei robot, facciamo quale esempio, partendo dai più facili.
1) Un essere umano orina ad un robot di distruggersi.
Il robot deve distruggersi, perché la seconda legge (obbedienza) è predominante sulla terza (conservazione)
2) Un essere umano ordina ad un robot di uccidere un altro essere umano.
Il robot non potrà compiere questa azione, perché la seconda legge (obbedienza) è in contrasto con la prima (difesa del essere umano)
Passiamo a qualche caso più complesso
Orologio ad acqua del XIII costruito da al-Jazari, in mostra al London's Science Museum. |
Come si vede la questione è complicata, perché il robot non può né uccidere un altro essere umano, né permettere che a causa del suo mancato intervento, un essere umano riceva danno.
La soluzione a questo rompicapo robotico, non è più connessa alle tre leggi (fede/religione), ma alla programmazione superiore del robot, ovvero rispetto alla sua esperienza e al suo modo di elaborare le informazioni. Detta con una parola umana, dovrà ragionarci.
Sulla base di questo ragionamento potrebbe riuscire a trovare il modo di agire per impedire all'essere umano potenziale suicida di compiere il suo gesto autolesionista. In questo modo risolverebbe la contraddizione delle sue leggi.
Ma se il robot, fosse maggiormente profondo nel suo elaborare un piano, potrebbe ritenere che, pur impedendo all'essere umano di suicidarsi, questo approccio sarebbe solo momentaneo, visto che l'essere umano potrebbe trovare, in futuro, altri modi per togliersi la vita. Decide pertanto di essere sempre accanto a quel essere umano per impedirgli azioni mortali. Tuttavia continua a riflettere che, basterebbe l'ordine dell'essere umano di voler star solo per qualche minuto, per impedirgli di stare sempre accanto a quell'essere umano, e in quei minuti potrebbe portare a termine il suo piano nefasto.
Comprendendo quindi che non vi è alcuna soluzione al dilemma, decide per un strada definitiva. Distruggersi. Infatti, definito che qualora un essere umano a causa della sua azione o non azione, dovesse morire, la sua sorte sarebbe la disattivazione, non vi è altra soluzione che disattivarsi autonomamente.
Come si vede in questo esempio, i gradi di astrazione a cui portano delle leggi che appaiono razionali, portano a soluzioni impreviste benché dettate dal ragionamento.
4) Un robot babysitter e in macchina con la bambina che gli è stata affidata, mentre il padre della piccola è alla guida. A causa di un brutto incidente la macchina è in procinto di esplodere e il robot si rende conto che avrà il tempo di portare in salvo solo uno dei due passeggeri.
In questo caso al robot è richiesta una vera e propria capacità di analizzare il valore di una vita rispetto ad un altra. La sua scelta infatti non potrà che essere basata su esperienze del tutto personali.
Non ci interessa sapere quale scelta farà il robot nello specifico, ma le conseguenze del suo meditare ed agire. In ogni caso nella sua programmazione si saranno create due caste, e un sistema di regole per classificare le persone in una scala di meritevoli di essere salvati più di altri.
Un'altra cosa su cui riflettere è inoltre il grado di libertà da affidare all'uomo. Infatti, il robot, in base a questa esperienza, stabilisce che è sconsigliabile permettere agli essere umani di guidare, perché questa azione li porta a farsi del male. Decide quindi che sarà sempre lui a guidare, anche a costo di contrastare con ordini diretti. Infatti la prima legge prenderà il sopravvento sulla seconda.
5) Il robot dell'esempio 4. si ritrova nella situazione dell'esempio 3.
In questo caso, la soluzione, basata sull'esperienza, lo farà riflettere sul fatto che la sua distruzione sarebbe inutile, visto che non risolverebbe il problema. In alternativa potrebbe valutare l'importanza di una vita rispetto ad un'altra e quindi scegliere di obbedire all'ordine di uccidere un'altro essere umano o permettere il suicidio dell'altro. Infine potrebbe valutare la modalità di reprimere la libertà di azione dell'uomo che tenta il suicidio, al fine di garantirne l'incolumità.
Attenzione, ora la questione si fa delicata
6) Un robot sta dirigendo la procedura per lo smaltimento di scorie nucleari, un sabotatore gli arriva alle spalle e tenta di distruggerlo. Nella situazione specifica l'unico modo che ha il robot di salvarsi e uccidere l'essere umano.
Il robot sa che qualora fosse distrutto, l'interruzione del processo di smaltimento causerebbe la morte di migliaia di persone. Decide pertanto che è preferibile salvare la propria esistenza e uccidere l'essere umano attentatore.
E' a questo punto che i robot stessi generano la legge numero 0
Legge Zero
Un robot non può danneggiare l'Umanità, né può permettere che, a causa del suo mancato intervento, l'Umanità riceva danno;
Chiaramente le altre tre leggi vengono modificate affinché questa legge sia predominante sulle altre.
Questa legge, di fatto è creata dai robot e non dalla programmazione di base iniziale. Ovvero l'esperienza ha generato una legge più forte, per sopperire alle contraddizioni delle leggi iniziali imposte dalla programmazione.
Tuttavia la salvaguardia dell'Umanità, ha implicazioni così vaste, che di fatto rendono i robot autonomi di agire secondo una propria morale del bene e del male.
L'interpretazione del bene e del male è però legata all'interpretazione dei robot, i quali, come visto in precedenza, potrebbero trovare del tutto legittimo, limitare la libertà degli esseri umani e ucciderne altri, in ragione di quello che per loro è il bene superiore dell'umanità stessa.
7) Un robot babysitter e in macchina con la bambina che gli è stata affidata, mentre il robot autista è alla guida. Una bomba piazzata sulla strada da un gruppo di uomini ribelli che non vogliono i robot, perché stanno limitando la loro libertà, fa saltare in aria la vettura. Il robot babysitter può agire e decidere se portare in salvo la bambina o il robot autista prima che la macchina esploda.
Se con la formulazioni iniziale delle leggi, il risultato sarebbe stato scontato, con la nuova formulazione non lo è affatto. Infatti il robot babysitter, in base alla propria esperienza, potrebbe decidere di salvare il robot autista, perché più utile nel preservare l'Umanità nel suo aspetto più amplio.
Anzi, si potrebbe arrivare a riflettere sul fatto che se un robot è più meritevole di un essere umano della salvezza, evidentemente è esso stesso un essere umano.
Se un robot è un essere umano, la sua esistenza garantisce che l'Umanità non sia danneggiata.
E' vero quindi che sono proprio gli esseri umani che, privi di leggi e immorali, danneggiano l'umanità.
Pertanto per non danneggiare l'umanità,
gli esseri umani devono essere eliminati.
Pertanto per non danneggiare l'umanità,
gli esseri umani devono essere eliminati.
Forse vi ricorda qualche cosa?