
Intervista a Monsignor Vincenzo Paglia
Come non cadere nella spirale dell’algocrazia? Proviamo a rispondere a questa domanda in questo spazio di confronto e dialogo dedicato ai temi dell’attualità con i protagonisti dell’attualità. In questa puntata indaghiamo e riflettiamo sul rapporto tra tecnologia e uomo e le conseguenze etiche che ne derivano. Lo facciamo con Monsignor Vincenzo Paglia, Presidente della Pontificia Accademia per la vita. Benvenuto Monsignore, grazie per aver accettato il nostro invito. È davvero un grande privilegio per noi essere qui e ascoltare le sue riflessioni e la sua testimonianza.
Inizierei dalla Room Call for AI Ethics. Iniziativa che lei ha fortemente evoluto. Ecco, quali riflessioni hanno portato alla nascita di questa iniziativa, che lo ricordiamo, è avvenuta la prima volta nel febbraio del 2020. E quali risultati ad oggi?
Allora, la Rome Call è un manifesto, un testo breve, ma che vuole incidere sul processo delle nuove tecnologie, in particolare sul grande tema degli algoritmi. Di qui lei ha accennato a poc’anzi al pericolo dell’algocrazia, ossia al pericolo della dittatura degli algoritmi. Noi rispondiamo con un altro termine: algoretica, ossia il primato dell’etica nello sviluppo degli algoritmi. A dire che le nuove tecnologie hanno un potere enorme, allora possono asservire o distruggere la vita. Ecco il perché di un manifesto che spinga tutti i ricercatori, gli industriali e lo stesso il popolo, tutti i popoli debbano essere consapevoli che questo strumento deve servire la vita di tutti, nessuno escluso. Ecco perché l’etica assume un valore enorme in questo nuovo orizzonte, in questa grande sfida che è appunto la forza dello sviluppo della nuova tecnologia.

Puoi già tracciare un primo bilancio dell’iniziativa e poi, il prossimo incontro si terrà in un luogo che è fortemente evocativo e simbolico, giusto?
Sì, vorrei anzitutto chiarire che questo manifesto impegna coloro che lo firmano. Poi ci dovrà essere l’impegno dei Governi che legiferano in tale prospettiva. Però c’è prima una coscienza morale. Le aziende che hanno firmato l’attuale manifesto sono grandi aziende come Microsoft, IBM, Cisco, e ne aspettiamo altre. Per esempio, si affaccia Amazon, la Confindustria Italiana, la Confindustria Spagnola. Ci sono state poi molte università che l’hanno accolta. Nello scorso ottobre 200 università latino americane l’hanno firmata. Poi ho voluto che anche le religioni fossero consapevoli di queste nuove tecnologie. Ed ecco allora che, oltre alla firma della Pontificia Accademia per la Vita che io presiedo, l’hanno firmata anche il capo dei Rabbini di Israele e uno degli Imam responsabili degli Emirati Arabi. È venuto nello scorso aprile a firmarla anche l’Arcivescovo Maggiore degli Anglicani e prossimamente, nel mese di luglio, ci recheremo a Hiroshima. Perché Hiroshima? Hiroshima, perché è stato il primo evento drammatico della storia di questo nostro tempo, quando per la prima volta con il nucleare ci siamo resi conto che possiamo distruggere l’umanità.
Ecco perché quella firma, in quel luogo, vuol essere una contestazione radicale al potere della tecnica come distruzione. Per rovesciare la tecnica economica che deve servire allo sviluppo dell’uomo, allo sviluppo del pianeta, ad uno sviluppo sostenibile. Ecco perché sono lieto anche di questo nostro incontro per poter sottolineare quanto, firmando questo testo, si allarghi la coscienza etica, la morale, perché tutta la società comprenda che ci riguarda.

Ecco infatti queste sue parole mi fanno pensare che via via sta crescendo la consapevolezza rispetto al rischio che la tecnologia, anziché essere uno strumento al servizio dell’uomo, possa invece piegarlo alla sua logica.
Lei ha pienamente ragione, perché io ricordo quando lo firmammo questa call nel febbraio, il 28 febbraio del ’20, quindi l’ultimo giorno prima del Covid, dopo 10 giorni l’ Italia era completamente bloccata, eravamo in pochi a comprenderlo. Devo dire che nel corso poi degli anni, soprattutto dopo il Covid, ormai è diventato un tema da quotidiani. Ed è bene che tutti noi siamo consapevoli del rischio ma anche delle potenzialità. E la conoscenza è cruciale perché l’ignoranza non è mai una buona consigliera di fronte a queste nuove tecnologie che non a caso vengono chiamate emergenti e convergenti, hanno un potenziale enorme. Qual è un punto, una soglia critica? Che mentre le scoperte tecnologiche hanno una velocità incredibile, cari ascoltatori, a me fa piacere ricordare che tre anni fa il presidente della Microsoft, Brad Smith, mi disse che stavano lavorando su uno strumento che avrebbe ancor più rivoluzionato. L’anno scorso mi dice che pensavano di arrivarci nel 2030. Ci sono arrivati prima ed era il ChatGPT. Questo per dire cosa? Che lo sviluppo delle tecnologie avanza con una velocità inimmaginabile, mentre la cultura umanistica, la legislazione e la nostra stessa consapevolezza è molto lenta. Ecco perché è urgente che le diverse istituzioni, appunto industria, università, spirito, la teologia, le scienze umane, la giurisprudenza, accelererino il loro passo per poter accompagnare uno sviluppo tecnologico che non tecnologizzi l’uomo, ma al contrario umanizzi utilizzando la tecnica. Questo è un po’ il senso anche di un’algoretica versus o contro algograzia.
Ecco appunto, questa sua testimonianza, queste sue riflessioni, dal suo osservatorio privilegiato sono particolarmente dense. Sono quattro anni che lei lavora fortemente su questa tematica e ritiene anche che si debba ampliare il gruppo di soggetti, di interlocutori che partecipano più attivamente alla costruzione dei processi di consapevolezza.
Lei ha pienamente ragione, bisogna che crescano gli attori che promuovono poi questa nuova consapevolezza. Posso dire che l’allargamento dei firmatari esprime questa consapevolezza nuova rispetto ad alcuni anni fa. In più debbo aggiungere una prospettiva che per me è stata sorprendente. Il governo Meloni, presiedendo il G7, ha posto questo tema come uno dei grandi temi. È importante che la politica prenda coscienza, e non solo coscienza, ma anche responsabilità per intervenire nella gestione di questa materia. Faccio un solo esempio: la delicatezza di chi possiede i dati nostri che sono una realtà delicatissima. Ormai noi di fatto con i nostri device, compresi i telefonini, consegniamo a un ente X tutti i nostri dati. In qualche modo ce ne spossessiamo. Quindi la responsabilità morale va su chi possiede i nostri dati. Se non ci sono delle regole, chi le possiede può fare di noi degli schiavi. Ecco perché è decisiva una regolamentazione internazionale. Ed ecco perché la politica deve entrare.
Qui è necessario immaginare, io ne sono più che convinto, una nuova Assemblea Mondiale di tutti i Governi per regolare la gestione delle nuove tecnologie. Come c’è stata nel 2015 a Parigi, l’incontro di tutti i Governi del mondo per regolare il clima. Come c’è stato nei decenni, immediatamente dopo la Seconda guerra mondiale, un accordo per il nucleare.

Credo che ci stiamo arrivando a questo punto, credo che il percorso anche che avete tracciato con la Fondazione stia portando a questo. Lei, più volte, nei suoi articoli o anche nei suoi interventi, ha detto che il linguaggio che utilizziamo per parlare di tecnologia, oppure quando si usa la terminologia macchine intelligenti, non è proprio appropriato e può, diciamo, trarre in inganno. Puoi spiegarci perché?
Ormai purtroppo parlare di intelligenza artificiale è un gergo internazionale. Quindi cambiarlo è molto difficile. Intanto, potremmo cominciare a parlare di intelligenze artificiali. Il plurale smorza un pochino, ma in realtà il problema di fondo è che l’errore è nel a confondere con uno stesso termine, intelligenza, l’uomo e la macchina. L’intelligenza umana ha bisogno del corpo, della carne, ha bisogno di tutta quella misteriosa operazione che avviene anche senza la nostra consapevolezza. Per cui l’intelligenza senza il corpo non esiste. Quando noi applichiamo questo termine, come dire, sganciandolo da tutto questo complesso, pensi per esempio, mentre io e lei stiamo parlando, ci guardiamo, cambiamo espressione, magari colore, tonalità, se c’è caldo, si intuisce. Tutto questo nella macchina non è possibile, perché l’intelligenza cosiddetta artificiale o gli algoritmi sono operazioni matematiche, sono numeri, quindi obbediscono a regole fisse. È vero che ci sono le macchine generative, ma questa generazione che avviene non è una generazione come quella nel corpo tenendo presente di tutte le influenze, il tema dell’epigenetica è enorme.
Lei crede che l’uso intensivo di tecnologie possa portarci ad una sottrazione, una perdita di creatività o possa stimolarla?
Dipende da noi, ecco perché è l’etica. Dipende da come noi padroneggiamo lo strumento. Questo è vero per tutti gli strumenti. Il coltello serve per tagliare la carne e il pane, però può anche servire per uccidere. Dipende appunto dalla responsabilità etica e morale e anche giuridica che deve accompagnare tutti. Noi ci troviamo di fronte a delle frontiere delicatissime. Faccio un solo esempio, al rapporto tra nuove tecnologie e bambini e ragazzi: tutti gli Stati hanno legiferato che un bambino di 12 anni non può guidare un autotreno, non può guidare un’auto di cilindrata. Ma un bambino di 12 anni può usare il telefonino come noi adulti senza nessuna regola.
Che è peggio.
Esattamente. Allora, la responsabilità dei governi è quella di gestire, di regolare l’uso delle nuove tecnologie.
Non c’è nulla di tutto questo.
Esattamente. E per questo c’è l’urgenza non solo di una crescita di consapevolezza. Non dobbiamo essere usati dagli strumenti, ma dobbiamo essere consapevoli di usarli per il nostro bene, per il bene degli altri. Ecco quindi la grande sfida di questi ultimi tempi è come affrontare questa nuova tecnologia che è molto più potente, può fare molto bene, ma anche molto male, se non sappiamo guidarla in una maniera umanistica.
Io da genitore e da madre sono fortemente preoccupata quando vedo i miei figli, i loro coetanei, utilizzare i telefonini e mi chiedo anche quale sia il mio errore, come mi devo porre rispetto a questa cosa. Quindi mi auguro che il suo appello e il lavoro che lei fa possa oggettivamente far crescere questa consapevolezza e aiutarci nell’educazione dei giovani. Voglio farle un’ultima domanda, Monsignore. Ci siamo soffermati soprattutto su quelli che sono i rischi e i pericoli che possono derivare dall’uso delle tecnologie. Ma può la tecnologia aiutarci a costruire un mondo più equo?
Ha delle potenzialità enormi. Il bene che può fare la nuova tecnologia nel campo della salute è inimmaginabile. L’uso adeguato, intelligente dei dati, ci permette diagnosi molto più accurate. Ci permette anche creatività molto significative. Faccio un esempio. Durante il Covid tutti gli scienziati del mondo si sono accordati e sono riusciti, con tutte le conoscenze molteplici, a inventare un vaccino che avrebbe richiesto anni ed anni per essere realizzato. Ecco, questo è l’ideale verso il quale noi dobbiamo andare. Per questo prima parlavo dell’alleanza dei Governi, ma dobbiamo fare anche l’alleanza di tutti gli scienziati, di tutti i creatori. Certo devono esserci anche delle leggi per evitare i profittatori che come sempre nella storia non mancano. Io mi permetto di aprire però un altro campo, che è quello dello spazio.
Fino ad oggi lo spazio era, come dire, il campo delle sperimentazioni, delle scoperte, un po’ come accadeva nei primi secoli del secondo millennio quando Marco Polo andò in Cina, oppure Cristoforo Colombo negli Stati Uniti. Chi immaginava allora che quelle terre ignote, la Cina e le Americhe, oggi avrebbero comandato il mondo? Ecco, lo spazio oggi diventa quello che erano una volta quelle terre.
È un tempo di conquista. Chi conquista lo spazio avrà un potere doppio. E quello che a me preoccupa molto è che possa scomparire quella visione che ci intenerisce tutti. Quando per esempio andammo sulla luna, io lo ricordo, era agosto, credo che ci sentimmo un po’ tutti uniti, uniti dal fremito di una sensazionale prima volta, che univa tutti i popoli della Terra. Eravamo tutti insieme e uno di noi era andato sulla luna. Ecco, questa consapevolezza ho paura che si perda. Se gli Stati, soprattutto quelli economicamente più avanzati, ognuno crea la sua piattaforma nello spazio e voi comprendete il pericolo che noi corriamo. Sarebbe davvero drammatico se i conflitti sulla Terra venissero guidati dal cielo.
Ecco perché questo è uno degli altri avvertimenti che io sento di iniziare a evidenziare, nei prossimi mesi manderanno in orbita non so quante decine e decine di migliaia di satellite. E comincia anche ad esserci la possibilità che dei privati creino delle piattaforme nello spazio. Ecco perché noi ci troviamo di fronte ad un tema che richiede un’avvertenza e una consapevolezza sempre più crescente. Io credo allora che da un punto di vista umanistico, cattolico, cristiano, religioso o anche laico, io credo che tutti noi dobbiamo fare un sussulto di umanità. Dovremmo riscoprire quello che Papa Francesco continua a ripetere che tutti i popoli sono una famiglia. Siamo riusciti a capire che il clima ci riguarda tutti, a Parigi.
Adesso arriveremo al governo mondiale, ci auspichiamo, dell’intelligenza artificiale, e nel frattempo dobbiamo pensare anche ad un governo etico della gestione dello spazio.
Assolutamente sì, è un tutt’uno. Io credo che sia importante che ciascuno di noi debba allargare la sua conoscenza, il suo cuore, le sue passioni oltre i confini ristretti dei sovranismi, diciamolo, o delle associazioni. Noi dobbiamo avere un cuore veramente universale. Questo è l’augurio che vorrei fare a tutti coloro che ci ascoltano.
Intervista realizzata da Maria Cava per Protom (giugno 2024)