Carta di Trieste sull’Intelligenza Artificiale, tra rischi e opportunità

Vatican News

Il Comitato etico e tecnico-scientifico sull’Intelligenza artificiale dell’Associazione Culturale Studium Fidei, composto dai massimi esponenti della Chiesa, ha promosso la realizzazione della Carta di Trieste con l’obiettivo di contribuire a fissare i principi generali su un tema complesso e contraddittorio che anima il dibattito contemporaneo. Tra i promotori del progetto ci sono monsignor Ettore Malnati, teologo e vicario episcopale della diocesi di Trieste e il giornalista Andrea Bulgarelli

Giulia Mutti – Città del Vaticano

La tutela dell’uomo, del suo agire e della sua originalità sono al centro della Carta di Trieste sull’Intelligenza artificiale, realizzata dal Comitato etico e tecnico-scientifico dell’Associazione Culturale Studium Fidei, attiva nel capoluogo friulano. L’obiettivo della Carta è, infatti, quello di contribuire a fissare alcuni principi che possano indirizzare le politiche future in materia di IA, ponendo al centro l’uomo e il suo agire quale presupposto essenziale nello sviluppo e nell’applicazione nelle nuove frontiere dell’IA. I 10 articoli di cui è composto il testo sono stati redatti in forma libera e con l’apporto di competenze trasversali dei maggiori esponenti della Chiesa.

Il grande compromesso: Uomo e IA 

L’uomo non può essere sostituito completamente dall’Intelligenza Artificiale. Quest’ultima “eccelle nell’automatizzare compiti ripetitivi e nell’analizzare grandi volumi di dati – si legge nella Carta – ma è priva di empatia, giudizio morale e creatività” che sono qualità unicamente umane. Di conseguenza, l’IA può essere vista come un sostegno alle capacità umane, ma non come un sostituito. Di fatto, la Carta di Trieste si muove in tal senso e promuove una “una legislazione internazionale che tuteli il rapporto subordinato dell’intelligenza artificiale alla razionalità dei soggetti umani nel rispetto e nella promozione della dignità della persona nell’etica e nella libertà individuale e di pensiero”. Per il Comitato, la tutela della dignità umana, della libertà, dell’uguaglianza e della solidarietà devono infatti rappresentare “la misura e il fine dell’IA”.

L’IA e la guerra

L’Intelligenza Artificiale è diventata la protagonista anche nei più grandi scenari di guerra contemporanei: dall’Ucraina al Medio Oriente gli eserciti si affidano all’algoritmo per l’individuazione degli obiettivi da colpire, con esiti spesso devastanti sulla popolazione civile. Si assiste di fatto alla “spersonalizzazione” delle azioni militari offensive e, dunque, al venir meno del fattore umano. “È necessaria una riflessione comune – ammonisce la Carta di Trieste – che porti a trattati internazionali condivisi per il controllo di questi strumenti”.

I timori per il mondo del lavoro

Uno dei maggiori timori legati all’avanzamento dell’IA è l’incidenza negativa sul mantenimento dei posti di lavoro. Certamente, l’automazione dell’IA può sostituire alcune funzioni lavorative, ma può creare anche nuove opportunità. Di conseguenza, si rende necessario raggiungere un punto di equilibrio tra un uso consapevole dei sistemi di IA per compiti più meccanici e l’originalità umana per lavori più gratificanti e creativi che possano arricchire la natura del lavoro stesso.

Il giornalismo, un settore a rischio

Sul fronte della comunicazione, l’IA deve servire a “coadiuvare e non sostituire il lavoro giornalistico”, quale presidio di democrazia e libertà di espressione. Di conseguenza, per tutelare il diritto d’autore, tutti i contenuti prodotti dai sistemi di Intelligenza Artificiale devono essere chiaramente identificati. “È fondamentale che l’uso dell’IA – avverte la Carta – non porti a una deresponsabilizzazione editoriale collettiva, offuscando la verità delle cose e manipolando così l’opinione pubblica”.

La salute e le banche dati

L’IA può fornire un contributo utile anche nella tutela della salute umana permettendo l’acquisizione di dati e consentendo la loro elaborazione al fine di gestire e interpretare l’immensa quantità di informazioni sanitarie nel complesso sistema dell’Heath Big Data. Anche in questo ambito l’IA deve essere “strumento di supporto – suggerisce – non sostitutivo del clinico che rimane l’unico centro di imputazione della “responsabilità della scelta” che ricade sui professionisti sanitari”.