Intervista a Monsignor Vincenzo Paglia, presidente dell’Accademia Pontificia per la Vita

In Rilievo

“Se c’è ‘algocrazia’ ci deve essere anche ‘algoretica’”. Monsignor Vincenzo Paglia, presidente dell’Accademia Pontificia per la Vita, non ha dubbi: “La dimensione tecnologia è al servizio dell’umanità, altrimenti raddoppia la discriminazione”. Anche il Vaticano, dunque, si interroga sulle prospettive dell’intelligenza artificiale. Mentre la Commissione Europea ha annunciato per il prossimo 19 febbraio la presentazione del “Libro bianco” sull’intelligenza artificiale, la Chiesa cattolica insiste nel richiamare al senso di responsabilità sulla imprescindibile “questione etica” del progresso tecnologico. Insieme ai colossi del digitale, Microsoft e Ibm, ha accolto la sfida di affiancare tutti gli attori della comunità scientifica, politica e sociale a vario titolo coinvolti, nell’impresa di costruire un nuovo ed equo “umanesimo digitale” sulla base di valori umani.

Durante un colloquio con Ofcs.report, Monsignor Paglia ha discusso del ruolo della Chiesa cattolica in un passaggio epocale della nostra realtà contemporanea. “Il progresso diventa sviluppo quando è governato da scelte etiche – ha spiegato – per questo è molto importante chiarire l’accezione semantica di etica, perché se sei preciso nella declinazione del significato, diventi coerente con le espressioni linguistiche ‘dimensione etica’ e ‘approccio antropocentrico’. E così, in piena trasparenza, le tecnologie emergenti, dovranno essere anche convergenti verso una rivoluzione digitale che rappresenti una RenAissance, ovvero un nuovo umanesimo. Stiamo elaborando una Call for Ethics – ha aggiunto – che conduca a una valutazione critica degli effetti di queste tecnologie, dei rischi che comportano, di possibili vie di regolamentazione, anche sul piano educativo”. Il paper in progetto affronterà le sfide nel campo etico, regolatorio e della salute e sarà condiviso con Microsoft ed IBM nel corso dell’evento “RenAIssance: per un’Intelligenza Artificiale umanistica” che si terrà il prossimo 28 febbraio, presso l’Auditorium della Pontificia Accademia per la Vita.

E dunque, fino a che punto potrà spingersi la tecnologia e qual è la linea di confine oltre la quale l’evoluzione non è più progresso? Su questo Monsignor Paglia segue un orientamento: “Diciamo che ci troviamo oggi in una situazione senza precedenti. Stiamo vivendo l’ultima fase di quello che possiamo definire come un ‘cambiamento d’epoca’ – sottolinea – Negli ultimi 70 anni abbiamo prodotto una tecnica che ci permette di distruggere tutto con il nucleare. E questa è una tecnica militare. Infatti ce ne siamo resi conto e abbiamo subito prodotto degli accordi per porvi rimedio. La seconda considerazione riguarda l’aspetto economico, in particolare lo sfruttamento dissennato delle risorse energetiche. È stato creato un altro pericolo mondiale che è quello della distruzione del clima e quindi del genere umano. Eravamo già stati avvertiti e non ci siamo riusciti. Poi quattro anni fa tutti i capi di governo si sono incontrati a Parigi per porre un argine. Fino ad ora le tecniche militari e quelle di sfruttamento capitalistico si potevano governare in maniera molto diretta: bastava non produrle più o non attuarle. Dopo Parigi siamo tutti più attenti anche se ancora c’è una coscienza debolissima”. Il presidente dell’Accademia Pontificia per la Vita evidenzia, poi, una “terza ondata”. “Ci troviamo di fronte a nuove tecnologie ‘emergenti e convergenti’ – evidenzia – e abbiamo la possibilità di intervenire in maniera ‘tecale’ sul genere umano. Quindi non vi è solo il rischio di distruzione, ma anche di una auto-disumanizzazione, tanto che qualcuno parla di post-umanesimo o di uomo aumentato. Oppure ancora, della possibilità di creare una sorta di nuova schiavitù in base ad un capitalismo che questa volta non detiene più il petrolio ma i big data. Di fronte a questo noi siamo chiamati ad un ‘sussulto’ morale, politico, io direi semplicemente umano. In questo senso, di fronte a questo progressivo sviluppo della tecnologia, se non si interviene in maniera decisa e adeguata, rischiamo una nuova implosione di cui non sappiamo quali saranno le conseguenze. Certamente, come prima conseguenza, vi è il rischio che le disuguaglianze prodotte dall’economia e dallo sviluppo dell’industria, siano molto più gravi se prodotte dagli algoritmi”.

L’alto prelato ha parlato più volte di una cura che può essere peggiore della malattia. Quanto preoccupa sotto il profilo etico lo sviluppo tecnologico in ambito medico e scientifico?

Qui ci sono da fare una serie di considerazioni. Partiamo da quella più rude, più rozza. Partiamo dalla proposta dello scienziato giapponese (Hiroshi Ishiguro ndr) di creazione di un clone dell’essere umano. Qui ci troviamo di fronte ad una prospettiva agghiacciante – avverte il presidente dell’Accademia Pontificia per la Vita – Quando questo scienziato è intervenuto lo scorso anno all’assemblea sulla roboetica, parlava dell’attuale sviluppo umano come l’ultima generazione biologica, organica. Questo però è un futuribile agghiacciante. È vero che lo sviluppo tecnologico può offrire delle possibilità curative enormi e straordinarie e tutto questo è la porta di ingresso più logica, ed io sono anche favorevole. Però voglio fare comunque una premessa. Lo sviluppo tecnologico proviene dall’uomo e l’uomo lo fa, per me che sono credente, perché ha ricevuto una forza, una capacità ed una intelligenza da parte di Dio stesso. Quindi, il progresso tecnologico è frutto delle nostre mani. Ora, qual è il punto cruciale in questo contesto? È la consapevolezza del limite – riprende Monsignor Paglia – Del resto, nella creazione, quando il racconto della Genesi dice ‘potete mangiare di tutto, eccetto che (…)’, affermava proprio il concetto della consapevolezza del limite. Se noi bruciamo la consapevolezza arriviamo alla tentazione prometeica, ovvero di crederci davvero padreterni. Quindi, un conto è conoscere e curare, un altro conto è conoscere e creare. Nel senso che non tutto quello che si può fare, si deve fare. È per questo che dobbiamo porci di fronte al progressivo sviluppo tecnologico in una maniera saggia, intelligente, sapendo che la tecnica è per l’uomo e non viceversa. E qui l’avvertimento che ci hanno dato diversi pensatori a partire dagli anni ’50. Del resto, lo stesso Heidegger quando diceva solo Dio ci può salvare, non lo diceva per il Dio cristiano, ma per il Dio ragione. Solo la ragione ci può salvare. Questo significa, attenzione: la tecnica deve essere al servizio dell’uomo e non viceversa. Quindi, finché la scoperta aiuta a conoscere a guarire e ad essere sempre “umana”, siamo in un percorso direi dignitoso dello sviluppo. È quando viene ad incidere e a manipolare l’umano che dobbiamo essere attenti. Ora qui, secondo me, viene il punto più cruciale. La tecnologia avanza talmente veloce rispetto alla consapevolezza etica ed antropologica che rischiamo di essere “in ritardo”, di non poter più frenare la macchina che già è in una discesa vertiginosa. Il problema è che noi dobbiamo stare nella macchina sin dall’inizio e non arrivare ad un certo punto quando, magari, sarà difficile. In questo senso si spiega il perché dell’interesse della Pontificia Accademia per la Vita a queste tematiche, per inserirle in un orizzonte più complesso, più sapiente”. E poi Monsignor Paglia sottolinea: “Innanzitutto, quando si parla di persona, io aggiungerei un altro elemento per comprenderlo. Perché non esiste soltanto la persona umana, esiste la famiglia umana. Quindi, in un momento in cui la tecnologia è globale, le connessioni ed il commercio sono globali, noi dobbiamo tenere a mente che la dimensione della tecnologia non può non essere anche al servizio dell’intera umanità. Lo sviluppo integrale riguarda sia i singoli individui sia l’intera famiglia umana. E questo è un punto importante nel giudicare tutto il processo, perché altrimenti si raddoppia la gravità della discriminazione che può sfociare in una schiavitù totale a vantaggio di pochi”.

Il Vaticano, infatti, vuole porre l’accento proprio sul tema delle possibili discriminazioni correlate allo sviluppo della tecnologia. “Le disuguaglianze prodotte dallo sviluppo economico, sono più gravi di quello che si pensava con una ideologia un po’ più semplificata, quella dell’alta marea: se si alza il benessere, si alza sia al transatlantico sia alla barchetta. In realtà non è avvenuto così. Ci sono alcuni transatlantici che si sono alzati di più, altre barchette che invece sono quasi affondate. In questo senso, questa divaricazione che è uno dei problemi della crisi di questa nostra società contemporanea, può rendere la divergenza una schiavitù totale. Invece, la gestione dei big data rischia di far sollevare sempre di più i transatlantici a discapito delle barchette. Faccio un esempio – prosegue – con il riconoscimento facciale non ci sono più ricchi e poveri, ma ci sono tiranni assoluti e sudditi assoluti. Chi possiede l’oro, i big data, può distruggerti. Quindi, per questo io credo che ci sia bisogno di un doppio rafforzamento etico. Non basta dire, come in passato, che bisogna solo redistribuire la ricchezza. C’è bisogno di una crescita di conoscenza, di diritto, di partecipazione. Quindi, per quello che riguarda la Chiesa cattolica, non possiamo dare oggi delle prospettive in maniera estrinseca. Dobbiamo stare all’interno per poter cogliere, dall’interno, le potenzialità ed anche i pericoli delle nuove tecnologie. Qui il problema non è soltanto dell’utilizzazione finale delle tecnologie, ma si tratta di fare attenzione a quelle che sono le responsabilità di ciascuno in tutto il percorso di ricerca, sperimentazione, costruzione, distribuzione, uso personale ed uso speciale di questi dei dispositivi tecnologici e di riconoscimento”.

Quanto è avvertita questa responsabilità e quanto preoccupa il rischio di un sacrificio della libertà di autodeterminazione umana? “Credo – ammette l’arcivescovo – che ‘l’invasione’ degli algoritmi sia per certi versi inarrestabile. Al punto tale che c’è chi parla di algocrazia. Detto questo, è chiaro che se si vuol salvare la dignità umana, la democrazia, la polis in senso più lato, è indispensabile, per usare una terminologia della rivoluzione francese, mantenere saldo il primato di libertà, uguaglianza e fraternità. La dignità dell’uomo e della famiglia umana, devono poter essere arricchite e non soggiogate. Quindi, se c’è l’algocrazia deve esserci anche un’algoretica per intessere insieme le due prospettive. Se dovessi immaginarlo come un tessuto, questo dovrebbe essere costituito allo stesso tempo dai fili degli algoritmi e da fili dell’etica. In questo senso libertà, uguaglianza e fraternità, sono tre dimensioni laiche ed ugualmente evangeliche che possono essere comprese da tutti: da chi crede e da chi non crede.

In questo senso, noi come Chiesa cattolica dobbiamo essere le ‘sentinelle’ di coloro che forgiano queste grandi masse di dati tenendo presente che la libertà deve essere garantita e l’uguaglianza deve essere garantita e la fraternità deve essere anche promossa. Quindi, la tecnica deve proporre tutto questo e non negarlo. Questo significa che è indispensabile, di fronte a queste nuove tecnologie, che siano circondate e compenetrate da tutte le realtà decisive della società, politica, economia, etica, religione, classi operaie, da tutte le istituzioni, da tutte le scienze. È indispensabile promuovere una collegiale contaminazione. Le diverse scienze e le diverse realtà sociali devono essere anche loro convergenti. In questo senso parlerei di un indispensabile cammino comune. In effetti, personalmente mi ha fatto impressione perché come accademici ci siamo trovati a promuovere questo processo non per nostra iniziativa, ma per richiesta di una delle più grandi multinazionali”. Monsignor Paglia racconta, dunque, come i colossi dell’informatica abbiano voluto coinvolgere il Vaticano all’interno di un argomento etico scottante per la chiesa come può essere lo sviluppo dell’intelligenza artificiale. “Il presidente di Microsoft venne a dirci – ricorda – ‘noi siamo tutti ingegneri, e quindi siamo condannati a creare nuovi trovati ogni settimana per restare sul mercato. Noi sappiamo di poter fare cose eccellenti, per esempio in medicina, ma anche cose drammatiche. A questo punto avremmo bisogno, non di fare qualche un convegno con voi, ma noi vorremmo chiedervi se voi poteste accompagnarci lungo il processo’. Questa la richiesta, che può essere segnata anche da ambiguità (vogliamo il bollino). Però qui c’è un “algoritmo spirituale” che si chiama fiducia. Perché non dimentichiamo che l’intelligenza artificiale è solo matematica. La fiducia non è matematica. La fiducia mi ha convinto che, avendo noi la totale libertà di accompagnare senza nessun condizionamento, potevamo cogliere la sfida, perché le conseguenze dello sviluppo tecnologico sono così importanti che, abbiamo pensato, la Chiesa cattolica non può restare a latere. In questo senso, l’esempio della questione sociale è calzante. La Chiesa cattolica alla fine dell’Ottocento, con lo sviluppo industriale che ovviamente ha posto termine alla cultura economica contadina, ha sentito la responsabilità di entrare dentro il mondo del lavoro con una nuova dottrina, un nuovo pensiero. Analogamente in questo frangente storico, non possiamo più stare all’esterno a guardare, anche perché se si sta all’esterno non si capisce dall’alto, si può arrivare troppo tardi e poi è cambiato anche il paradigma. Cioè, se non si è coinvolti in maniera diretta io credo che la realtà è molto difficile che venga compresa. Staremo in un altro mondo che può parlare, dettare regole, parlare un linguaggio e stare in una posizione che è totalmente esterna, inascoltata, inefficace e quindi inutile e secondo me peccaminosa.

Quali possono essere state le ragioni per cui Microsoft ha richiesto il coinvolgimento dell’Accademia? Un dilemma etico, qualcosa che li ha scossi? 

Io credo – commenta il prelato – che la nuova dirigenza di Microsoft (e in realtà ho notato poi anche quella di Ibm) è diversa da quella della loro fondazione. E questa dirigenza si è posta dei problemi morali e questa dimensione umanistica li ha coinvolti in maniera più diretta. Questo è stato il motivo di fondo, perché loro sono ben consapevoli che senza regole è un problema anche per la stessa azienda. E vi riporto un esempio fattomi dal presidente Brad Smith. Rispetto al riconoscimento facciale, che ovviamente può essere sviluppato anche da altri competitors, se non troviamo una regolamentazione giuridica tra tutti noi cadremo tutti nell’abisso. I conflitti con queste strumentazioni sono molto più pericolosi e più facili di quelli con il nucleare. Quindi, il bisogno di una regolamentazione giuridica ed etica si pone in maniera sempre più forte man mano che crescono le potenzialità della tecnica al punto che entrambi i colossi sono concordi a sottoporsi ad alcune regole etiche, giuridiche ed educative. Che è una situazione analoga a quella del clima. Qui per certi versi è anche più forte, perché qui si interviene direttamente sull’uomo, non sull’ambiente. Ed ecco perché lo scatto etico e anche giuridico si impone in misura maggiore e stare soli al comando di una rivoluzione così sconvolgente non è agevole. Si sente il bisogno di essere anche in compagnia o comunque di potere anche controllare l’altro. È chiaro che bisognerà intervenire per una regolamentazione sul piano etico e giuridico sull’uso dell’algoritmo a livello internazionale, altrimenti l’anarchia nella gestione dei big data può diventare pericolosissima, anche per la sopravvivenza anche dell’azienda, alla fine. Io direi mettiamo insieme le due cose: un po’ di umanesimo ed un po’ di rischio prevedibile e la paura del nucleare. La paura della distruzione può aver determinato la questione morale un po’ come per il clima”.

C’è consapevolezza in concreto a livello globale?

In Microsoft sì – risponde senza esitazioni il presidente dell’Accademia Pontificia per la vita – A livello globale penso ancora di no. Io sono convinto che analogamente alle due altre sfide tra nucleare e clima, se non ci sbatteremo con la testa non si avrà piena consapevolezza. È vero che man mano sta crescendo l’attenzione. Questo deve provocare un sussulto di partecipazione e di regole da dare, sia etiche sia giuridiche ed anche educative. Siccome, però, la tecnologia corre velocissima e corre invece meno veloce la responsabilità, noi dobbiamo accelerare su questo versante per aiutare la consapevolezza dei governi non semplicemente a garantirsi la tecnologia ma con una visione davvero della polis. In questo spendo una parola in più sulla responsabilità dell’Europa perché ha un patrimonio umanistico che non ha né l’estremo oriente né l’estremo occidente. Non a caso, nel nostro evento abbiamo utilizzato l’espressione umanesimo”.

L’Europa ha annunciato che l’uso delle tecnologie di riconoscimento facciale da parte del settore pubblico o da quello privato verrà vietata per un periodo di tempo (da tre a cinque anni), durante il quale una metodologia per valutare l’impatto di queste tecnologie e possibili misure per mitigare i rischi possano essere identificate e sviluppate. In particolare è annunciata per il prossimo 19 febbraio la presentazione del Libro bianco sull’Intelligenza artificiale. Ma questo documento è stato in qualche modo già condiviso tra tutti gli attori della Call for Ethics?

La presenza di David Sassoli per il Parlamento Europeo dimostra il chiaro interesse dell’Europa, come del resto l’interesse della Fao e posso dire che ci sono altri governi che tramite le loro ambasciate ci chiedono di poter divulgare questa call a livello internazionale e, certamente lo faremo – rivela Monsignor Paglia – Grazie a Dio c’è un’eco importante, segno che c’è una consapevolezza importante che più si allarga più coinvolge anche il livello politico”.

Quanto contano in questo i corpi intermedi?

I corpi intermedi sono la via da intraprendere per evitare che la individualizzazione della società si spinga a cercare il ‘Salvatore’. Grazie a Dio di ‘Salvatore’ ce n’è uno solo e già ci ha salvato. In questo senso quindi l’aiuto, la spinta a dare responsabilità ai corpi intermedi, che ci sono, non è che non ci sono, è solo che si stanno liquefacendo in maniera irresponsabile, è fondamentale. Tutti devono fare la loro parte ed in questo i corpi intermedi possono certamente aiutare nella responsabilizzazione – rileva Monsignor Paglia – Questo è il punto della convergenza e della contaminazione tra tutti, perché questo aiuta la crescita della consapevolezza di tutti e di un intervento positivo non individuale ma plurale”.

Intanto, in vista dell’assemblea della Pontificia Accademia per la Vita, dei prossimi 26-28 febbraio, si è appresa la notizia dell’allargamento della composizione del gruppo degli accademici, suddivisi in ordinari, onorari, corrispondenti, giovani.

E’ anche questo un segno del rinnovato approccio della Chiesa cattolica alle sfide etiche che pone il progresso tecnologico?   

Queste nomine, conclude Monsignor Paglia, sono in linea con le indicazioni del Papa, vale a dire, “un rinnovamento nella duplice logica dell’allargamento e dell’approfondimento. La novità non sta certamente in un cambiamento dell’oggetto: la dottrina cattolica, la sapienza evangelica sull’immenso dono della vita umana, deve continuare ad ispirare in profondità il nostro impegno, ad illuminare tutti gli aspetti dell’umana esperienza e della cultura della vita. Ma la buona notizia del Vangelo sulla vita umana chiede di essere offerta come una fonte di ispirazione e come un tema di dialogo culturale, politico e sociale, anche e soprattutto con chi non la pensa esattamente come noi ma, come noi, ha a cuore la vita e la società umana”.

L’appuntamento è dunque rinviato al 26 febbraio, giorno inaugurale dell’Assemblea della Pontificia Accademia per la Vita, dedicata all’intelligenza artificiale, che si terrà presso l’Auditorium della PAV in via della Conciliazione n. 1.

Per conoscere e scaricare il programma completo delle tre giornate ed iscriversi ai workshop tematici o all’evento plenario, di seguito i link al sito istituzionale dell’Accademia:

(link al programma)

http://www.academyforlife.va/content/pav/it/notizie/2020/intelligenza-artificiale-2020.html

(link al modulo di iscrizione)

https://www.academivita.org/2020_ai_registration_form1a.php

 

di Davide Maniscalco, avvocato e Responsabile AIDR Regione Sicilia

Fonte: OFCS.REPORT del 03 Febbraio 2020

Condividi!

Tagged