Artificial Intelligence: è tempo di una nuova etica, l’algoretica

© iStock/peepo 

Qual è il futuro dell’uomo di fronte all’ascesa dell’intelligenza artificiale? Come le macchine possono aumentare le nostre conoscenze e come queste cambieranno l’immagine che abbiamo della realtà? E poi: cosa sarà dell’ homo faber in un’epoca dove parte della manodopera viene sostituita da robot intelligenti? Sono tutte domande su cui è intervenuto Paolo Benanti, frate francescano del Terzo Ordine Regolare e docente di Teologia morale e Bioetica all’Università Gregoriana, nonché autore di Homo Faber. The Techno-human Condition, durante l’incontro A cosa penserà l’uomo? Creatività umana e intelligenza artificiale organizzato in occasione del Meeting di Rimini 2019. Qui una sintesi del suo intervento:

Più che dare risposte, vorrei porre delle domande. Perché quando si parla di homo faber , ci riferiamo a un’autoconsapevolezza che abbiamo come specie. A differenza di tutti gli altri mammiferi, la nostra competenza e capacità non è stata tramandata con il dna, ma attraverso una relazione alla realtà mediata da quello che chiamiamo artefatto tecnologico, come i libri, ad esempio. Ecco perché guardare all’artefatto è come guardare alla competenza e alla comprensione che noi uomini abbiamo sul mondo. Ma se questa è la condizione umana, che condizione viviamo oggi rispetto all’artefatto? Una condizione di disagio, non nuova nella storia dell’uomo. C’è stato qualcosa di analogo nel XVI secolo, quando un altro artefatto tecnologico, la lente convessa, ha portato alla realizzazione di due strumenti: il telescopio, che ci ha permesso di guardare all’infinitamente grande e di stravolgere quanto capivamo del cosmo (la Terra non era più al centro dell’Universo e da lì è iniziata una ricerca che prosegue ancora oggi); e il microscopio, con cui abbiamo iniziato a studiare l’infinitamente piccolo e con il quale abbiamo scoperto che la vita, quello che noi siamo, è fatta di piccoli pezzettini viventi, che chiamiamo cellule.

Paolo-Benanti-Algoretica

Docente della facoltà di Teologia alla Pontificia Università Gregoriana, Paolo Benanti è un frate francescano del Terzo Ordine Regolare, esperto di etica, bioetica ed etica delle tecnologie

Oggi, nel XXI secolo, non è più tempo di microscopi o telescopi. È il computer a offrire una visione diversa della realtà, che non riguarda più la grandezza o la piccolezza, ma la complessità. Studiare il mondo come un’infinità complessa attraverso questo nuovo strumento non è diverso da quello che è avvenuto con telescopio e microscopio nel XVI secolo. Ed ecco che torniamo alla domanda di partenza: che cosa penserà l’uomo? Per comprenderlo, dobbiamo innanzitutto capire come questo strumento stia cambiando il modo di giustificare la realtà. Con il suo avvento siamo passati da un modello causale a un paradigma correlativo. Per fare un esempio, è un po’ quello che accade sugli smartphone quando si imposta un tragitto e si viene informati che su quella strada ci sarà traffico. Non è perché, come accadeva nei vecchi modelli scientifici, il navigatore conosce le cause del traffico, ma perché correla tutti i dati degli accelerometri dei singoli telefoni delle persone in viaggio e là dove gli smartphone rallentano mentre sono in macchina, lì c’è traffico. E allora, cosa penseremo? Cose diverse sul mondo, spinti anche da quella che è una spiegazione diversa del mondo. Questo nuovo artefatto ci darà grandi risultati tecnici, ma lo farà solo se siamo disposti ad abbandonare una domanda sulle cause a favore di una sulla correlazione.

Cosa vuol dire questo? Per fare un altro esempio, e data la correlazione “si aprono gli ombrelli dove piove”, non sapremo più se saranno gli ombrelli a causare la pioggia o sarà quest’ultima che causa l’apertura degli ombrelli. Non sapremo più se sarà lo svegliarsi entro le 6.30, bere succo d’arancia e fare cinque miglia di corsa ogni mattina a evitare il tumore o se il tumore non viene a chi fa questo. Sarà una grande capacità di previsione tecnologica, a patto di accettare di non voler più rispondere alle cause. Tuttavia, il non accettare le cause può dar luogo a fenomeni correlati veri, ma anche a una forma di correlazione “spuria”. Allora, se da una parte ci vengono proposti dei prodigi nel poter controllare la realtà, qual è il fondamento di questo controllo? Stiamo forse cercando nuove bacchette magiche o ambiamo a nuove forme di conoscenza? Più siamo in possesso di tecnologie con elevata capacità di predizione – per cui grazie al deep learning è possibile conoscere con una precisione di cinque minuti quando un albero di trasmissione di una nave transoceanica si romperà – meno sappiamo spiegare il perché di quella previsione. Sap­piamo fare, ma stiamo perdendo il perché. Tuttavia, se la gran­de precisione di predicibilità tecnica è un’ottima cosa per l’in­dustria, ci siamo improvvisamente accorti che questi algoritmi possono essere applicati anche alle persone. E quando gli al­goritmi di predizione diventano di profilazione, venendo ap­plicati ai comportamenti umani e a quelle che sono le nostre scelte, non solo predicono, ma producono anche un compor­tamento. Applicati alle cose, gli algoritmi ci dicono quando si romperanno; applicati alle persone, producono atteggiamenti: leggasi Cambridge Analytica, leggasi fake news. E allora, sorge un’altra domanda: cosa vuol dire applicare tutto questo in un contesto come il nostro? Cosa vuol dire che all’interno di una realtà sociale non esiste più la persona fisica o la persona giu­ridica, ma sembra esserci un nuovo attore sociale, la persona “algoritmica”, non regolata da alcun dispositivo di legge? Quel­lo che penseremo dipenderà anche da come vorremo normare l’interazione sociale di questi algoritmi.

Meeting-Rimini-2019

Una foto dell’incontro “A cosa penserà l'uomo? Creatività umana e intelligenza artificiale”, tenutosi in occasione dell’ultimo Meeting di Rimini, con protagonista Paolo Benanti

E allora sì, è un’epoca di disagio. Perché i cambiamenti che stia­mo producendo hanno la capacità radicale di modificare quel­la che è la concezione di noi stessi, della realtà e anche delle nostre correlazioni sociali. La realtà non è più fondata su dei criteri assoluti, ma un prodotto di alcune “credenze” condot­te dai dati. Ma questo è un modo molto poco filosofico di spie­gare quello che ci circonda. E quando crolla la filosofia, si torna al mito, all’approccio religioso. Per cui, se la realtà è data dri­ven believes , alcune delle domande più importanti sulla mia esistenza saranno guidate da questo nuovo approccio di natu­ra religiosa che ho nei confronti dei sistemi informativi. Un approccio di questo tipo fa della macchina un oracolo che dà del­le verità sulla mia vita, paragonabile ai sacerdoti che nell’antica Roma fornivano risposte dalle viscere di un pollo. Anche dal punto di vista filosofico risponderemo a questioni an­tiche in maniera nuova. Alla domanda “conosci te stesso?”, oggi dovremmo rispondere “conosci i tuoi dati”. Sarà la comprensio­ne dei nostri dati a fornire verità su noi stessi. Sì, è disagio. Sì, stiamo cambiando i perché. Ma questo nuovo modo di rende­re la macchina più umana, quasi divina, cambia anche il modo di comprendere l’essere umano.

Alcuni psicologi evoluzionisti affermano che l’uomo, come la macchina, potrebbe funzionare attraverso algoritmi. Cosa saremmo noi, allora? Il frutto di due membri della nostra specie che avevano l’algoritmo emotivo-af­fettivo maggiormente compatibile. Ed ecco che, come accadde per il telescopio, se l’artefatto cambia il modo di spiegare la real­tà, cambia anche il modo di spiegare l’umano. Per cui, se la mac­china si umanizza, la persona si “macchinizza”. Se l’uomo è sem­pre più l’equivalente di un codice – chiamiamolo anche genetico – qual è la specifica di un atto umano rispetto a quello di una macchina? Nella relazione homo + macchina sapiens  – che riten­go essere una relazione capace di aumentare le nostre capacità – dobbiamo chiederci qual è la specificità dell’uomo per poi ca­pire qual è il posto e la specificità della macchina. Abbiamo biso­gno, quindi, di una risposta etica. Ma se i principi etici sono quelli di sempre, la decisione oggi è macchinica. Ecco perché ho bat­tezzato un nuovo modo per dire alla macchina quelle che sono le norme etiche importanti per noi, che ho chiamato “algoretica”. Dove il bene, che è un valore, deve diventare un valore numeri­co che la macchina può computare. E allora, quello che vogliamo fare e pensare non andrà capito solo da un punto di vista filosofi­co. Abbiamo di fronte una sfida antropologica, una nuova e ine­dita sfida etica, perché quel bene che noi comprendiamo possa essere realizzato anche da questi nuovi attori sociali che sono gli algoritmi. Abbiamo di nuovo bisogno di un perché.

*Articolo pubblicato su Business People dicembre 2019 - Testo raccolto da Matteo T. Mombelli