Elena Beccalli*
La crescente diffusione dell’intelligenza artificiale impone di considerare la questione centrale della responsabilità uomo-macchina. Un tema caro a Papa Francesco che, in occasione del convegno della Pontificia Accademia per la Vita del febbraio 2020, ha detto: «Il rapporto tra l’apporto umano e il calcolo automatico va studiato bene perché non sempre è facile prevederne gli effetti e definirne le responsabilità».
Intuitivamente sembra inevitabile assegnare la responsabilità agli esseri umani, anche quando gli algoritmi sviluppano capacità di apprendimento. Ma quando parliamo di esseri umani intendiamo gli utenti finali o gli sviluppatori di algoritmi (data scientists)? In alcuni contesti, come ad esempio nei sistemi di guida automatica assistita da un copilota umano, l’attribuzione di responsabilità può avvenire coinvolgendo l’utente finale con una sua partecipazione attiva e consapevole alle decisioni e azioni dell’algoritmo. A volte però, come nel caso delle strategie di investimento basate sull’intelligenza artificiale, gli algoritmi sono imperscrutabili al punto da rendere impossibile o inefficiente una ricostruzione analitica del processo decisionale e una partecipazione dell’utente finale. In tali casi la responsabilità non può che essere fatta risalire fino agli sviluppatori degli algoritmi, anche per scelte non direttamente effettuate da loro.
Lo snodo centrale della questione riguarda la modalità di attribuzione della responsabilità. In contesti complessi con elevata innovazione, l’archetipo dell’attribuzione gerarchica basata su pratiche di controllo mostra i suoi limiti a vantaggio di un processo di attribuzione della responsabilità di natura sociale e relazionale. Per essere efficaci le attività lavorative sono organizzate su gruppi di lavoro che incoraggiano l’interazione e la collaborazione al fine di realizzare un allineamento continuo tra gli sviluppatori e i loro responsabili. Allineamento che è garantito da fiducia, collaborazione e autonomia, con gli sviluppatori che emergono come agenti responsabili.
Perfino in contesti basati sulle più sofisticate tecnologie dell’informazione come l’intelligenza artificiale, contesti dove gli aspetti economici e tecnologici potrebbero far passare in secondo piano gli aspetti etici, vi sono esperienze in cui emerge la “fondamentale indole relazionale dell’uomo”, perno del documento “Oeconomicae et pecuniariae quaestiones” della Congregazione per la Dottrina della Fede e del Dicastero per il Servizio dello Sviluppo Umano Integrale.
* Preside della Facoltà di Scienze Bancarie, Finanziarie e Assicurative dell’Università Cattolica del Sacro Cuore di Milano
Potete ascoltare qui la serie di podcast sulla Dottrina sociale della Chiesa. La puntata è di Elena Beccalli, curatrice della voce “Intelligenza artificiale in finanza: responsabilità e relazione” del Dizionario di Dottrina sociale.