La recente lettura del romanzo di Ted Chiang, Il ciclo di vita degli oggetti software, mi ha sollecitato una serie di interrogativi su quanto sia preparato davvero l’uomo a confrontarsi in maniera profonda con la tecnologia più avanzata e, in particolare, con l’Intelligenza Artificiale.

Il progresso tecnologico non solo ha cambiato il percorso dell’evoluzione della specie umana, ma anche il nostro modo di relazionarci con quanto ci circonda, sia dal punto di vista pratico che in senso etico-filosofico, ed è stato talmente rapido che l’uomo si è trovato spesso costretto ad accettarlo e a prenderne parte come un dato di fatto.
L’avvento di macchine intelligenti (le cosiddette IA forti), tuttavia, costringerebbe a un esame ben più responsabile sul loro rapporto con l’essere umano, poiché sarebbe una rivoluzione che potrebbe minare il senso stesso del suo essere, della sua esistenza e dell’etica. Come dichiara il professore Giuseppe Longo in questa esaustiva disanima: “La crescente diffusione dei robot in tutti i settori della società ci obbliga a considerare il rapporto di convivenza uomo-macchina in termini inediti, che coinvolgono in primo luogo l’etica. Affrontare questi problemi è importante e urgente”.

La riflessione su queste problematiche non è soltanto materia per la fantascienza, ma ha coinvolto strettamente tanto la scienza che la filosofia, in particolare le neuroscienze, la neurofenomenologia e il cognitivismo, facendo riemergere, benché in una prospettiva inedita, i più classici dei quesiti filosofici, quali il rapporto mente-corpo e il senso ultimo dell’uomo stesso. Il predominio delle due correnti principali nella seconda metà del secolo scorso, funzionalismo e computazionalismo, oggi è oltrepassato a favore di tesi che si rifanno principalmente all’apporto del neuroscienziato Antonio Damasio e che rimarcano come il cervello non possa essere inteso quale struttura a sé né insieme di funzioni e algoritmi, bensì che esso “senza il corpo non può pensare”, intendendo per corpo non solo quello biologico individuale ma anche l’intero contesto spazio-temporale in cui è immerso.

Questa speculazione è fondamentale per cercare di rispondere alla domanda “Se i robot dovessero un giorno diventare intelligenti e sensibili (quasi) quanto gli umani, potremmo continuare a considerarli macchine?”, per citare di nuovo Longo. Interrogativo che potrebbe essere rovesciato menzionando il titolo di uno dei più celebri romanzi di Philip K. Dick, che Ridley Scott avrebbe sviluppato come base letteraria per il suo capolavoro, Blade RunnerMa gli androidi sognano pecore elettriche?

In primo luogo è necessario ricordare che l’uomo, per la sua intrinseca natura psico-emotiva, tende a investire quanto ha davanti di proiezioni emozionali e affettive, interpretando i segnali dell’interlocutore come sentimenti o risultati di una coscienza tipicamente umana, anche di fronte a una macchina che, per quanto evoluta, ripete una mera emulazione comportamentale elaborata in base agli input ricevuti e a uno schema inoculato inizialmente dall’uomo stesso – un termine utilizzato per definire tali robot, infatti, è anche replicanti, a sottolineare la loro natura di copia. Un simile tipo di intelligenza, artificiale appunto, non sarebbe in grado né di vera comprensione e consapevolezza, né di riproporre le peculiarità del pensiero umano, che spesso è tutt’altro che lineare ma segue percorsi contraddittori, irrazionali, creativi. Altro problema fondamentale sarebbe quello della moralità dell’automa, che anche in questo caso prende le mosse da uno spunto letterario, le Tre Leggi della Robotica declinate da Isaac Asimov, ma si connota di sottigliezze assai più complesse e delicate, come approfondito accuratamente da Colin Allen, filosofo e cognitivista americano, le cui linee guida teoriche sono riassunte in questo interessante articolo.
Il fatto che l’IA non sia identica all’essere umano, tuttavia, non elude il problema se ad essa, una volta diventata autonoma nel suo sviluppo evolutivo “bio-culturale”, debbano essere riconosciuti specifici diritti e doveri e una dignità paritaria a quella dell’uomo.

Una perplessità su queste ricerche è che prendono come punto di partenza il mondo odierno, così com’è, e supponendo l’IA forte un qualcosa di già concreto ed esistente; a mio avviso, invece, bisognerebbe analizzare il suo ruolo anche in rapporto a quello che sarà l’uomo del domani, quando appunto l’IA potrà essere davvero attuabile e realistica.
Speculando in ottica futura, la società umana convivrebbe non solo con l’IA, ma, ad esempio, con il postumano − essere umano altamente ibridato con la tecnologia, talora fino al punto da essere assai simile a una macchina −, con cloni dell’uomo stesso, avrebbe accesso al mind uploading e a tecniche di prolungamento indefinito della vita.
In uno scenario analogo l’umanità potrebbe ancora considerarsi tale?
Ecco forse che, oltre alla riflessione filosofica sul senso dell’uomo e alla ricerca di un’enunciazione della roboetica, è altrettanto importante la definizione di un nuovo vocabolario e di un nuovo pensiero, che sia non solo storico ma anche evolutivo, e soprattutto sappia andare oltre il dualismo tra ciò che è umano e ciò che non lo è, superando finalmente l’antropocentrismo.

Il confronto con la macchina è stato in grado sia di riavvicinare discipline eterogenee, quali scienza e filosofia, sia di ridare vigore al processo di autoanalisi dell’uomo.
Tutte le domande e gli argomenti che ne scaturiscono, che siano suggeriti dalla fantascienza o dai risultati del progresso, sono però ancora da analizzare con attenzione in tutti i loro possibili risvolti. Sostanzialmente, ad oggi, una risposta condivisa non è stata ancora raggiunta.

Un altro quesito basilare, tuttavia, che sta a monte di tutte queste riflessioni, finora non ha ricevuto che risposte laconiche o nulle: fino a che punto l’hybris dell’uomo può spingersi nello scavalcare e nel modificare le leggi della Natura? Egli ha il diritto di arrogarsi il ruolo di novello demiurgo e costruire macchine senzienti a lui simili o addirittura esseri viventi?

Un vagone fuori controllo sta percorrendo a tutta velocità il binario ferroviario verso di voi. Siete vicini alla leva di uno scambio, dopo di voi il binario si biforca: una direzione porta verso un canyon lungo il quale avanzano cinque persone; l’altra porta verso un secondo canyon, in cui un’unica persona sta seguendo il tracciato delle rotaie. Se lasciate la leva com’è, il vagone imboccherà la prima direzione e il gruppo di cinque persone, senza via di scampo, verrà travolto. Se invece azionate lo scambio ferroviario, il vagone verrà dirottato sul secondo binario, travolgendo il solitario. Cosa fate?

L’esperimento, che abbiamo volutamente riformulato come se fosse un quesito del test Voight-Kampff di Philip K. Dick, immortalato nella magistrale resa cinematografica di Ridley Scott, è un dilemma etico concepito dalla filosofa britannica Philippa Ruth Foot nel 1978 e oggetto di esame da parte di numerosi altri studiosi. Noto come trolley problem, ovvero “problema del carrello ferroviario”, rappresenta un classico nella filosofia etica, riproponendo l’antico dilemma se sia lecito sacrificare la vita di pochi per salvarne molti.

Di recente lo psicologo Carlos David Navarrete dell’Università del Michigan, ne ha ideato un’innovativa variante, che si appoggia agli strumenti offerti dalla realtà virtuale per sottoporre soggetti umani a una simulazione di quello che fino a ieri restava confinato nel campo degli esperimenti mentali. Potete visionarne una clip qui. I risultati, riportati sulla rivista Emotion e ripresi da Le Scienze, confermano le ricerche effettuate in precedenza. Di 147 partecipanti, infatti, ben 133 (pari al 90% dei casi) hanno risposto azionando lo scambio. Dei rimanenti 14, 11 non hanno toccato la leva, mentre altri 3 hanno azionato lo scambio prima di riportare la leva nella posizione originaria. Navarrete ha così commentato gli esiti del test:

Ritengo che gli esseri umani provino un’avversione istintiva a fare del male agli altri, avversione che deve essere superata da qualcosa. Usando il pensiero razionale a volte riusciamo a superarla, per esempio pensando alle persone che salveremo. Ma per qualcuno, l’aumento dell’ansia è così travolgente che non riescono a fare la scelta utilitaristica, quella del male minore.

Gli appassionati di fantascienza ricorderanno che sulla risposta empatica si fonda una parte cospicua della produzione di Dick. L’autore de I simulacri (The Simulacra, 1964), Cacciatore di androidi (Do Androids Dream of Electric Sheep?, 1968) e A. Lincoln, Androide (We Can Build You, 1972), attratto dalla linea di confine che distingue il reale dal simulato e continuamente alla ricerca di un metodo per discriminare la natura umana da quella artificiale, individua proprio nell’empatia l’elemento di distinzione. Ma nel romanzo all’origine del copione di Blade Runner l’autore mostra anche gli effetti collaterali di una società fortemente automatizzata, che è arrivata a produrre come esito supremo della catena industriale il sofisticato modello umanoide Nexus 6: un androide capace di simulare in tutto e per tutto l’uomo, al punto da essere da questo praticamente indistinguibile. Se non attraverso il test Voight-Kampff.

Dick arrivava alla fine del suo capolavoro a suggerire un dubbio dilaniante: se gli androidi diventano sempre più umani, non potrebbe essere che gli uomini che si appoggiano alle macchine per modulare il proprio umano, che preferiscono l’immobile realtà virtuale proposta dal predicatore Mercer alla possibilità di intervenire sulla realtà per modificare, ciascuno sulla base delle proprie capacità, un mondo sull’orlo del collasso, che danno la caccia gli androidi vincendo la resistenza empatica a uccidere dei loro simili… stiano essi stessi diventando sempre più artificiali?

L’esperimento di Navarrete potrebbe fornire un nuovo strumento di analisi e riconoscimento ai blade runner del futuro.