Parliamo di inquietudini, etica e governance dell’intelligenza artificiale con Padre Paolo Benanti, teologo moralista, francescano del Terzo Ordine Regolare, docente della Pontificia Università Gregoriana
19 Giugno 2019
Daniele Rizzo
Content Manager FPA
“Esisto senza che io lo sappia e morirò senza che io lo voglia”.
Basterebbero queste parole di Fernando Pessoa a riassumere le inquietudini di una qualsiasi intelligenza artificiale, intesa come software. Che poi è forse l’inquietudine di Pessoa stesso, dal momento che scrive queste parole firmandosi come Bernardo Soares, suo effimero eteronimo, nato senza saperlo e abbandonato alla fine de Il libro dell’inquietudine.
Delle inquietudini – sia delle persone che delle macchine -, delle implicazioni etiche dell’IA e della sua governance ha parlato Padre Paolo Benanti, Teologo moralista, francescano del Terzo Ordine Regolare Pontificia Università Gregoriana, durante FORUM PA 2019, intervistato da Nicoletta Boldrini, Direttore responsabile AI4Business presso gli Studios FPA – realizzati in collaborazione con Olivetti.
Intelligenza artificiale, etica e inquetudini
Dicevamo le inquietudini. È oramai quasi impossibile parlare di intelligenza artificiale senza sollevare quelle paure da sempre insite nell’uomo, paure relative alle ripercussioni tecnologiche, etiche e normative che questa tecnologia (se così vogliamo definirla) ha su noi tutti.
“Il tema intelligenza artificiale ci appassiona molto, ma preoccupa dal punto di vista dell’etica e della sicurezza” ha raccontato Padre Benanti. “Abbiamo paura che l’IA sostituisca l’intelligenza umana. Come superiamo allora questa paura? E soprattutto, ha senso mettere in competizione l’una e l’altra?”
Le inquietudini dell’uomo
Innanzitutto rispondiamo alla seconda domanda: le due intelligenze non vanno messe in competizione. “Siamo riusciti a sviluppare software capaci di agire in maniera non completamente programmata” ha spiegato Padre Benanti, chiarendo però che queste intelligenze “sono simili ad animali addestrati: non sappiamo fino in fondo se lo faranno e come lo faranno.
Parliamo quindi di due intelligenze profondamente diverse, con differenti sensibilità e approcci. Certo è che non basta questa consapevolezza per superare le paure.
“Questi sistemi possono essere utilizzati per ogni tipo di processo? Quando dovranno decidere rispetto alla vita delle persone, rispetto al profilo di rischio all’interno di un costrutto sociale, rispetto all’accesso al credito, potremo fidarci della macchina e della razionalità delle sue scelte?”
Domande, queste poste da Padre Benanti, che sollevano legittime inquietudini e che spaccano l’opinione comune tra chi pensa che l’IA darà luogo a scenari apocalittici e chi, invece, ritiene che diventerà “una quotidianità normale di un futuro desiderabile”.
Le inquietudini della macchina
In psicologia la paura è riconosciuta come un’emozione primaria, propria sia del genere umano che di quello animale. Al contrario l’autocoscienza sembrerebbe appartenere solo al genere umano. In ogni caso, né per l’una né per l’altra si parla di macchine e software. È comunque plausibile ritenere che un software adeguatamente sviluppato o un sistema cognitivo più che avanzato possano in futuro essere consapevoli di loro stessi? E potranno quindi ritenersi responsabili e colpevoli delle loro azioni, provando a quel punto paure, inquietudini e tutta la gamma completa di emozioni corrispondenti?
“No, la consapevolezza è questione umana” ha puntualizzato Padre Benanti. “La persona dà una qualità a quello che vive, la macchina no. La macchina può sbagliare, ma non avrà sensi di colpa”. La domanda piuttosto potrebbe diventare: di chi è la colpa di eventuali errori o problemi? Di chi ha progettato o addestrato la macchina? Di chi l’ha messa in opera? La colpa, in questi casi “è sempre in relazione a una persona”.
La governance dell’IA
Stabilito, quindi, che ogni responsabilità è comunque sempre imputabile agli uomini, resta da chiarire chi debba assumersi queste responsabilità in fase di sviluppo. Sicuramente non basta indicare nei tecnici gli unici responsabili; piuttosto già in fase di sviluppo servono competenze “filosofiche, sociologiche, psicologiche, economiche e politiche”, sostiene Benanti.
L’etica dell’intelligenza artificiale
Ecco che torna quindi il tema dell’etica. È evidente che, stabilita una governance, va chiarito lo spazio etico in cui essa debba muoversi. Fino ad oggi si è pensato all’etica “come una questione normativa, e sappiamo che queste norme cambiano con la cultura” ha specificato Benanti. Ma l’etica “nella sua funzione originaria, è legata alla virtù. Chiaro che all’interno dei sistemi di intelligenza artificiale si devono implementare sistemi virtuosi: la macchina non solo non deve uccidere, ma deve massimizzare il bene che può fare”. Questa etica delle virtù deve quindi essere trasferita alle macchine, perché in fondo, diceva Pessoa, “Virtù o peccato sono manifestazioni inevitabili di organismi condannati all’uno o all’altro, soltanto a essere buoni o a essere cattivi”. E sta a noi ‘condannare’ le intelligenze artificiali all’una o all’altra propensione.
Per ascoltare il podcast dell’intervista
Rivivi il convegno di FORUM PA 2019 sull’intelligenza artificiale
FORUM PA 2019
La PA alla sfida dell’Intelligenza artificiale
La possibilità che la PA possa ricorrere ad algoritmi e a decisioni automatizzate nei procedimenti amministrativi e nella fornitura di servizi è un tema ormai centrale nel dibattito pubblico, sempre molto attento alle implicazioni etiche e all’impatto sui diritti fondamentali dell’individuo.
15 Maggio 2019