La recente lettura del romanzo di Ted Chiang, Il ciclo di vita degli oggetti software, mi ha sollecitato una serie di interrogativi su quanto sia preparato davvero l’uomo a confrontarsi in maniera profonda con la tecnologia più avanzata e, in particolare, con l’Intelligenza Artificiale.
Il progresso tecnologico non solo ha cambiato il percorso dell’evoluzione della specie umana, ma anche il nostro modo di relazionarci con quanto ci circonda, sia dal punto di vista pratico che in senso etico-filosofico, ed è stato talmente rapido che l’uomo si è trovato spesso costretto ad accettarlo e a prenderne parte come un dato di fatto.
L’avvento di macchine intelligenti (le cosiddette IA forti), tuttavia, costringerebbe a un esame ben più responsabile sul loro rapporto con l’essere umano, poiché sarebbe una rivoluzione che potrebbe minare il senso stesso del suo essere, della sua esistenza e dell’etica. Come dichiara il professore Giuseppe Longo in questa esaustiva disanima: “La crescente diffusione dei robot in tutti i settori della società ci obbliga a considerare il rapporto di convivenza uomo-macchina in termini inediti, che coinvolgono in primo luogo l’etica. Affrontare questi problemi è importante e urgente”.
La riflessione su queste problematiche non è soltanto materia per la fantascienza, ma ha coinvolto strettamente tanto la scienza che la filosofia, in particolare le neuroscienze, la neurofenomenologia e il cognitivismo, facendo riemergere, benché in una prospettiva inedita, i più classici dei quesiti filosofici, quali il rapporto mente-corpo e il senso ultimo dell’uomo stesso. Il predominio delle due correnti principali nella seconda metà del secolo scorso, funzionalismo e computazionalismo, oggi è oltrepassato a favore di tesi che si rifanno principalmente all’apporto del neuroscienziato Antonio Damasio e che rimarcano come il cervello non possa essere inteso quale struttura a sé né insieme di funzioni e algoritmi, bensì che esso “senza il corpo non può pensare”, intendendo per corpo non solo quello biologico individuale ma anche l’intero contesto spazio-temporale in cui è immerso.
Questa speculazione è fondamentale per cercare di rispondere alla domanda “Se i robot dovessero un giorno diventare intelligenti e sensibili (quasi) quanto gli umani, potremmo continuare a considerarli macchine?”, per citare di nuovo Longo. Interrogativo che potrebbe essere rovesciato menzionando il titolo di uno dei più celebri romanzi di Philip K. Dick, che Ridley Scott avrebbe sviluppato come base letteraria per il suo capolavoro, Blade Runner: Ma gli androidi sognano pecore elettriche?
In primo luogo è necessario ricordare che l’uomo, per la sua intrinseca natura psico-emotiva, tende a investire quanto ha davanti di proiezioni emozionali e affettive, interpretando i segnali dell’interlocutore come sentimenti o risultati di una coscienza tipicamente umana, anche di fronte a una macchina che, per quanto evoluta, ripete una mera emulazione comportamentale elaborata in base agli input ricevuti e a uno schema inoculato inizialmente dall’uomo stesso – un termine utilizzato per definire tali robot, infatti, è anche replicanti, a sottolineare la loro natura di copia. Un simile tipo di intelligenza, artificiale appunto, non sarebbe in grado né di vera comprensione e consapevolezza, né di riproporre le peculiarità del pensiero umano, che spesso è tutt’altro che lineare ma segue percorsi contraddittori, irrazionali, creativi. Altro problema fondamentale sarebbe quello della moralità dell’automa, che anche in questo caso prende le mosse da uno spunto letterario, le Tre Leggi della Robotica declinate da Isaac Asimov, ma si connota di sottigliezze assai più complesse e delicate, come approfondito accuratamente da Colin Allen, filosofo e cognitivista americano, le cui linee guida teoriche sono riassunte in questo interessante articolo.
Il fatto che l’IA non sia identica all’essere umano, tuttavia, non elude il problema se ad essa, una volta diventata autonoma nel suo sviluppo evolutivo “bio-culturale”, debbano essere riconosciuti specifici diritti e doveri e una dignità paritaria a quella dell’uomo.
Una perplessità su queste ricerche è che prendono come punto di partenza il mondo odierno, così com’è, e supponendo l’IA forte un qualcosa di già concreto ed esistente; a mio avviso, invece, bisognerebbe analizzare il suo ruolo anche in rapporto a quello che sarà l’uomo del domani, quando appunto l’IA potrà essere davvero attuabile e realistica.
Speculando in ottica futura, la società umana convivrebbe non solo con l’IA, ma, ad esempio, con il postumano − essere umano altamente ibridato con la tecnologia, talora fino al punto da essere assai simile a una macchina −, con cloni dell’uomo stesso, avrebbe accesso al mind uploading e a tecniche di prolungamento indefinito della vita.
In uno scenario analogo l’umanità potrebbe ancora considerarsi tale?
Ecco forse che, oltre alla riflessione filosofica sul senso dell’uomo e alla ricerca di un’enunciazione della roboetica, è altrettanto importante la definizione di un nuovo vocabolario e di un nuovo pensiero, che sia non solo storico ma anche evolutivo, e soprattutto sappia andare oltre il dualismo tra ciò che è umano e ciò che non lo è, superando finalmente l’antropocentrismo.
Il confronto con la macchina è stato in grado sia di riavvicinare discipline eterogenee, quali scienza e filosofia, sia di ridare vigore al processo di autoanalisi dell’uomo.
Tutte le domande e gli argomenti che ne scaturiscono, che siano suggeriti dalla fantascienza o dai risultati del progresso, sono però ancora da analizzare con attenzione in tutti i loro possibili risvolti. Sostanzialmente, ad oggi, una risposta condivisa non è stata ancora raggiunta.
Un altro quesito basilare, tuttavia, che sta a monte di tutte queste riflessioni, finora non ha ricevuto che risposte laconiche o nulle: fino a che punto l’hybris dell’uomo può spingersi nello scavalcare e nel modificare le leggi della Natura? Egli ha il diritto di arrogarsi il ruolo di novello demiurgo e costruire macchine senzienti a lui simili o addirittura esseri viventi?