I robot del futuro avranno una coscienza?

 

12823368_10207315049967217_4914444321179212998_o

Immagine realizzata da Pietro Tripiciano, (in foto) Francesca Sgrò

“Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno”.

Quella che avete appena letto è la legge 0, uno dei fondamenti principali dell’universo fantascientifico creato dal celebre scrittore russo Isaac Asimov; nei suoi racconti, l’interazione tra umani e macchine avviene secondo vincoli estremamente rigidi e stereotipati, dettati dalle modalità di programmazione innestate in ciascun robot.

La teorizzazione di questa e delle altre leggi della robotica, per quanto si possa considerare un espediente letterario di enorme successo, nella realtà difficilmente riuscirebbe a trovare una concreta applicazione; persino nella narrativa dello stesso Asimov, come sottolinea Roger Clarke: «forse ironicamente, o forse perché era artisticamente appropriato, la somma delle storie di Asimov confuta la tesi con cui iniziò: non è possibile limitare con certezza il comportamento dei robot semplicemente inventando ed applicando un insieme di regole».

Non a caso in uno dei suoi romanzi più celebri, Liar!, Asimov evidenzia infatti la natura parossistica delle leggi da lui stesso create: alcuni scienziati, a causa di un difetto di fabbricazione, creano un robot in grado di leggere il pensiero; dal momento che anche per questo robot valgono le leggi della robotica, egli mente in merito alla natura del suo difetto per non danneggiare i propri creatori, che si vedrebbero così superati da una macchina da loro assemblata. In questo modo però, rifiutandosi di collaborare ed ostacolandone le ricerche, il robot li danneggia ugualmente. Scoperto ed accusato per la sua condotta, egli si trova dinanzi ad un conflitto logico irrisolvibile, finendo per disattivarsi.

Ed è qui che le leggi della robotica si scontrano con un costrutto psicologico che Asimov non aveva (volutamente?) considerato: l’etica ed il ragionamento morale riuscirebbero a sovvertire l’ordine con il quale un robot potrebbe trovarsi a razionalizzare la realtà, introducendo forme di pensiero e di interazione con l’ambiente più strettamente “umane”. (Parliamo qui, più nel dettaglio, di quanto l’intelligenza artificiale può essere “intelligente”).

Nel romanzo di Asimov, il robot mente solo perché costretto da una legge universale; se avesse avuto a disposizione schemi di pensiero alternativi sarebbe stato in grado di mettere in atto un comportamento più flessibile, avrebbe compreso come la verità sarebbe stata utile agli scienziati e, di conseguenza, avrebbe potuto evitare il blocco. Ma esisteranno mai intelligenze artificiali capaci di sviluppare ed articolare dei processi di pensiero su base etica e morale? Esisteranno mai robot in grado di agire secondo coscienza anziché secondo uno schema, per quanto complesso, pre-programmato?

Per cercare di fornire una risposta a queste domande è necessario ricorrere ad un intelligente esperimento mentale ideato dalla filosofa Philippa Ruth Foot, noto come dilemma del carrello.

Immaginate di essere su un carrello ferroviario, i cui freni sono rotti, capace di cambiare rotaia solamente tramite un deviatoio. Sulla rotaia principale, quella che il carrello sta percorrendo a tutta velocità, poco più avanti cinque operai stanno effettuando dei lavori di manutenzione e, a causa del frastuono, non possono udire il mezzo che si avvicina; sulla rotaia secondaria, sulla quale il carrello si dirigerebbe se imboccasse il deviatoio, sta lavorando un solo operaio che, per lo stesso motivo, non potrebbe avvertire l’avvicinarsi del veicolo.

Accanto a voi c’è una leva in grado di azionare il deviatoio, e di far cambiare così direzione al carrello ferroviario: se non tirate la leva, il carrello prosegue per la rotaia principale ed investe i cinque operai al lavoro; se tirate la leva, il carrello imbocca la rotaia secondaria ed investe l’unico operaio presente su quel binario.

Abbassereste la leva per salvare i cinque operai, anche se questo significherebbe sacrificare la vita dell’unico presente sul binario secondario? Anche se la risposta può apparire istintivamente banale, prendetevi tutto il tempo che vi occorre per rifletterci, e poi proseguite la lettura.

Come si potrebbe facilmente intuire, la maggior parte delle persone tirerebbe la leva per salvare i cinque operai sul binario principale; eticamente, l’opinione generale infatti accetta il sacrificio di pochi per salvare la vita di molti. Un robot dovrebbe quindi agire di conseguenza (peraltro utilitaristicamente) per poter essere considerato capace di pensare secondo schemi morali specificatamente ispirati a quelli umani.

Adesso provate ad immaginare quella che è, a tutti gli effetti, una variante decisamente controversa del medesimo problema.

Siete su un ponte che sovrasta una ferrovia; un treno sta procedendo a tutta velocità lungo l’unico binario, sul quale lavorano i soliti cinque operai. L’unico modo che avete per fermare la corsa del treno, e salvar loro la vita, è quello di spingere un grosso peso sulle rotaie; proprio in quel momento un passante molto grasso sta attraversando il ponte, e vi cammina accanto.

Spingereste lo sconosciuto di sotto per salvare i cinque operai? In questo caso la risposta può non apparire così immediata; quando siete convinti della decisione presa, e solo allora, andate avanti con la lettura.

In questo caso la maggior parte delle persone non spingerebbe il passante giù per il ponte al fine di salvare gli operai; effettivamente le due formulazioni, per quanto simili nel contenuto (stiamo comunque parlando del sacrificio di una sola persona per salvarne cinque), differiscono significativamente nella forma.

Senza indugiare troppo in tecnicismi, si potrebbe anche solo sottolineare che in un caso il danno è impersonale (mediato dall’azione di una leva) mentre nell’altro è personale (in quanto si deve spingere attivamente il passante giù per il binario). Analizzando le risposte fornite delle persone intervistate non sarebbe lecito seguire la base del ragionamento illustrato nella versione originale del problema, anche se questo consentirebbe di salvare un numero maggiore di vite. Un robot dovrebbe quindi evitare di agire utilitaristicamente, capendo che potrebbe essere moralmente sbagliato, in questo caso, sacrificare la vita di un ignaro passante innocente (ma l’unico operaio sul binario secondario, di fatto, che colpa aveva?).

Impiantare questo tipo di pensiero in un automa risulterebbe incredibilmente difficoltoso: se infatti consideriamo che il numero di varianti in questo tipo di situazioni è virtualmente infinito, la programmazione di un comportamento adeguato potrebbe risultare impossibile (buttereste giù dal ponte Adolf Hitler per fermare la corsa del treno? Se fosse un signore anziano ad attraversare il ponte, oppure un malato terminale, sarebbe moralmente più corretto sacrificare la sua vita per salvare quella degli operai? E se al posto degli operai ci fossero cinque bambini?).

Come scriveva Luc de Clapiers de Vauvenargues, “la coscienza è la più mutevole delle regole”: pensare di riuscire a programmare un’intelligenza artificiale capace di tradurre algoritmicamente schemi di ragionamento morale non rimane, per ora, che un accattivante miraggio. E la nostra umanità, con tutti i pregi e le croci che ne conseguono, che ci piaccia o meno è destinta ad essere ancora solo nostra.

Nicola Domenici12625822_10207047916209040_1573446896_n-150x150

Info

 

 

Bibliografia

Asimov, I. (1941), Liar!, in Astounding Science Fiction.

Basile, B., Mancini, F., Macaluso, E., Caltagirone, C., Frackowiak, R.S.J. e Bozzali, M. (2011). Deontological and Altruistic Guilt: Evidence for Distinct Neurobiological Substrates. Human Brain Mapping. Inc. 32

Clark, R. (1993; 1994), Asimov’s Laws of Robotics, implications for Information Technology, in IEEE Computer 26

Foot, P. (1967), The Problem of Abortion and the Doctrine of the Double Effect in Virtues and Vices, Oxford Review, Number 5.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.