Intelligenza artificiale, servono “una critica fondata e un’adesione sorvegliata”

Vatican News

Alessandro Di Bussolo – Città del Vaticano

Un documento sull’Intelligenza artificiale che rifiuta visioni apocalittiche, di chi “ritiene questa esperienza una degenerazione”, così come quelle da integrati, “cioè sposare questa nuova visione senza porci degli interrogativi di tipo etico”. Così il cardinale Gianfranco Ravasi, presidente emerito del Pontifico Consiglio della Cultura, ha presentato il documento “Intelligenza artificiale: distingue frequenter” realizzato dalla consulta scientifica del Cortile dei Gentili, in un incontro promosso con l’Ambasciata d’Italia presso la Santa Sede a Palazzo Borromeo. Ravasi, che ha fondato il Cortile nel 2010, fortemente voluto da Papa Benedetto XVI, nella tappa “conclusiva”, ha detto, del suo servizio, ha sottolineato che nell’affrontare l’Intelligenza artificiale bisogna avere “una critica fondata e un’adesione sorvegliata”.

Amato: c’è un limite da non varcare, non siamo Dio

Accanto a lui il successore, il cardinale José Tolentino de Mendonça, prefetto del nuovo Dicastero della Cultura e l’Educazione, che ha definito “l’Intelligenza artificiale non una questione del futuro, ma di oggi”. Dopo il saluto iniziale dell’ambasciatore Francesco Di Nitto, il cardinale Ravasi ha sottolineato che sul tema è fondamentale un giudizio etico, di un controllo anche di tipo morale e antropologico. A moderare gli interventi di alcuni membri della consulta scientifica del Cortile dei Gentili, il presidente Giuliano Amato, giurista e politico, che ha ricordato l’immagine che apre il film “Odissea nello spazio”, e il suo arco imprevedibile “dall’osso sbattuto in terra dell’antenato scimpanzè, prima forma di tecnologia, fino all’impazzimento del computer di bordo Charlie, che rifiuta agli astronauti una rotta sicura. Così l’uomo è nelle mani di quell’osso, che decide il destino dell’umanità”. Se non vogliamo fare quella fine, ha spiegato Amato, “serve tensione morale e il coraggio di dire: c’è un limite che non si può varcare, non possiamo giocare a fare Dio, siamo creatura e non possiamo pensare di creare ciò che noi siamo, magari meglio di chi ci ha creato perché senza difetti”. Si è passati dall’uso dell’IA a farne un sostituto di noi in certe decisioni.

Palazzani: un documento “umanocentrico”

Tra gli intervenuti, Laura Palazzani, bioeticista e docente di Filosofia del diritto alla Lumsa, membro della Pontificia Accademia per la Vita, ha sottolineato che la sfida è la risposta da dare “alla nuova ondata tecnologica”, che si deve basare sull’analisi del rapporto tra uomo e macchina. “La tecnologia – ha spiegato – tenta di simulare l’intelligenza umana o anche si sostituirla. Il tecnocentrismo vuole che sostituisca o potenzi il corpo umano”. Gli estensori del documento del Cortile dei Gentili si definiscono invece “umanocentristi”. “Diciamo no – ha chiarito Palazzani  – ad una tecnologia contro l’uomo, dev’essere per l’uomo e con l’uomo, col quale deve collaborare”. Per questo l’Intelligenza artificiale deve avere alcuni requisiti etici definiti nel documento. Si va dal controllo umano significativo “per non delegare eccessivamente alla tecnologia. Anche gli algoritmi possono sbagliare”. I sistemi di IA, poi, devono essere “affidabili e spiegabili, tracciabili, e inclusivi”. Perché c’è Il rischio di sistemi che abbiano pregiudizi sull’età, genere, etnia. Ed essere comprensibili per la società. Ecco come il cardinal Gianfranco Ravasi ci ha presentato i temi del documento:

Ascolta l’intervista al cardinale Gianfranco Ravasi

Come arrivare ad una comunanza etica nella società del pluralismo, sul tema dell’intelligenza artificiale e sui suoi rischi e vantaggi? Cosa risponde il documento del Cortile dei Gentili che presentate oggi?

Bisogna innanzitutto ricordare che non si deve essere tentati dal polo totalmente negativo, gli apocalittici, che ritengono questa esperienza dell’intelligenza artificiale una degenerazione, ma neppure essere integrati, per usare la famosa espressione di Umberto Eco. Cioè non sposare questa nuova visione senza porci degli interrogativi di tipo etico. La necessità è proprio quella di distinguere chiaramente: l’intelligenza artificiale è fondamentale per il mondo del lavoro, della medicina, della ricerca, anche delle relazioni. Però dall’altra parte comporta, soprattutto quando si tratta della cosiddetta intelligenza artificiale “forte”, dotata di autocoscienza, di autonomia, l’importanza di un giudizio etico, di un controllo anche di tipo morale e antropologico.

Il Papa ha già sottolineato il rischio che le applicazioni dell’intelligenza artificiale incrementino le disuguaglianze tra le periferie e il centro, tra chi ha accesso a queste tecnologie che non lo ha, e anche il rischio di perdita di posti di lavoro…

Indubbiamente si pongono tutta una serie di questioni da punto di vista etico. Se è vero che tutti i lavori usuranti vengono compiuti da macchine, tendenzialmente si allarga l’orizzonte in cui interviene la macchina e diminuisce l’occupazione, creando così delle grandi sacche di disoccupazione. Dall’altra parte, non dobbiamo neppure dimenticare che esiste anche il problema della diffusione di questi strumenti che sono di alta qualità nel Nord del mondo e non nelle periferie. Bisogna tener conto anche dell’uso militare, che alla fine diventa l’ambito nel quale intelligenza artificiale viene più sviluppata, per ragioni belliche. E quindi ci sono tanti interrogativi che esigono un giudizio che non sia soltanto tecnico, ma anche morale.

Possiamo dire che in questo documento c’è la sintesi del lavoro sull’Intelligenza artificiale del dicastero che lei ha presieduto, anche attraverso il Cortile dei Gentili?

Il lavoro fatto noi l’abbiamo condotto attraverso una consulta scientifica, ed è squisitamente teorico e morale. Da un lato si cercano, cioè, tutte le dimensioni fondamentali dell’intelligenza artificiale conoscendone la grammatica, perché è un nuovo modo di porre anche figura umana in rapporto con la macchina. Dall’altra parte, però, abbiamo voluto continuamente anche cercare di giudicare, per evitare le derive, per evitare da una parte una sorta quasi di adorazione idolatrica di questa nuova struttura, ma anche dall’altra parte di riconoscerne la straordinaria grandezza, potenza che pure può avere per il benessere dell’umanità.

Il problema resta monitorare lo sviluppo e gli usi dell’Ia. A chi spetta?

Il monitoraggio spetterebbe prima di tutto alla politica nella sua forma più nobile del termine, alla politica internazionale. In secondo luogo, certamente, alla scienza che è di più, e più ampia, della pura tecnologia. La tecnologia procede meccanicamente, mentre la scienza può anche porre interrogativi. Il compito è anche, io direi più genericamente, delle Chiese, dei fenomeni religiosi, dei fenomeni spirituali in genere che cercano di difendere la persona umana e di conseguenza anche di tutto il mondo della cultura.

Polvani: il principio del “distingue frequenter”

A concludere i lavori, il segretario della consulta scientifica, monsignor Carlo Maria Polvani, sottosegretario del Dicastero della Cultura e l’Educazione, che ha sottolineato come nel documento “dichiariamo di credere nell’amicizia che è basata sull’etica, in una comunanza etica nella società del pluralismo, definita “Koinotes aristotelica”. Ecco come ci ha presentato il lavoro della consulta scientifica al termine dell’incontro.

Ascolta l’intervista a monsignor Carlo Maria Polvani

Quali punti del documento che presentate oggi sull’Intelligenza Artificiale vuole sottolineare?

Io sottolineerei la metodologia con la quale il problema dell’Intelligenza artificiale è stato affrontato. Una metodologia ancorata nella tradizione della Chiesa e nella tradizione del pensiero occidentale. Si è parlato di tre principi: un principio distintivo di negare quasi mai, perché quando si nega qualcosa, ci si chiude delle strade. Poi un principio di affermare con estrema cautela, per non ritrovarsi intrappolati, e poi un principio molto caro al Papa, che rispetta la poliedricità della verità, che è un continuo sviluppo di categorie nuove, di distinzioni continue. Quello di distinguere più che si può.

E poi c’è il rischio di fondo che attraverso l’Intelligenza artificiale l’uomo voglia prendere il posto di Dio…

Sì, c’è questo rischio profondo, e la cosa più grave è che questa cosa, come avviene molte volte nella storia, avviene quasi imponendosi da sè stessa. La possibilità di fare qualche cosa, rimpiazza la legittimità di fare qualche cosa, e questo è il grosso pericolo.

Come guardare a questo regolamento di cui si è parlato che dovrebbe arrivare a breve da parte della Commissione europea, proprio sull’Intelligenza artificiale?

Penso che in questo senso l’Europa, e con lei l’Italia che ne fa parte, abbia voluto attaccare il problema in maniera intelligente e fare quello che era successo anche sulla questione della privacy, non lasciarsi sorpassare. Oggi si può discutere, si può essere d’accordo su alcuni elementi, magari criticare perché ne mancano alcuni altri, ma il punto principale è c’è stato uno sforzo anche da un punto di vista etico-legislativo, per non restare indietro.

E poi l’importanza di puntate sull’uomocentrismo, penso che sia fondamentale per il personalismo cristiano…

Assolutamente, la parola che hai usato è la migliore: il personalismo cristiano. Perché quando si parla di uomo si parla sempre di persona.