Governare l’intelligenza artificiale nella PA: 5 principi per garantire fiducia e trasparenza
Due sono le basi su cui fondare una solida strategia AI nella pubblica amministrazione: l’infrastruttura digitale (architetture cloud e open data) e la governance. Un approccio responsabile allo sviluppo e all’adozione delle tecnologie AI in base al principio privacy by design può innescare quella “rivoluzione della fiducia” necessaria per l’adozione dei servizi da parte degli utenti finali
20 Novembre 2023
Patrizia Licata
Giornalista
Tra le tecnologie digitali su cui la pubblica amministrazione può far leva per migliorare la propria efficienza e i servizi erogati c’è sicuramente l’intelligenza artificiale (AI), inclusa la sua più recente declinazione, l’intelligenza artificiale generativa. Le applicazioni dell’AI possono semplificare l’accesso e lo sviluppo di nuovi servizi per i cittadini e le imprese, aiutano a ridurre il peso della burocrazia, a rendere più fluidi i processi amministrativi e a migliorare il lavoro in team. Ma per adottare i modelli AI e disegnare servizi affidabili è fondamentale un approccio responsabile allo sviluppo, basato su cinque principi per governare l’AI e garantire la fiducia dei cittadini.
Questa è una delle missioni di Salesforce: trasformare le innovazioni nei campi dei dati, delle applicazioni, dei servizi cloud e dell’AI in prodotti e servizi orientati al cittadino, anche affiancandola con le competenze.
“Non tutte le organizzazioni sono esperte, ma tutte sono consapevoli del ruolo essenziale che l’AI riveste. Consentire loro di avvalersi di questa potenza attraverso le stesse API e interfacce che usano per tutto il resto fa davvero la differenza” afferma Paolo Bonanni, Country Leader Public Sector di Salesforce Italia. “Salesforce è ormai da anni – prosegue Bonanni – al fianco della pubblica amministrazione italiana nel processo di transizione digitale a tutti i livelli. L’intelligenza artificiale e le nuove tecnologie sono un elemento di accelerazione, ma bisogna preparare il terreno, formare le competenze, dar vita a ecosistemi che poi consentano un utilizzo pieno, efficace ed evolutivo delle nuove potenzialità”.
I progetti AI delle PA italiane e le risorse del PNRR
I governi stanno già investendo in questo settore: l’AI abilita un netto aumento della competitività. Dal 2010 al 2021 i progetti di intelligenza artificiale nelle PA europee sono passati da 26 a 148 all’anno, per un totale di 637 progetti mappati, tra implementati (41%), in corso (27%) e iniziative pilota (32%); quasi un terzo (30%) ha l’obiettivo di migliorare i servizi rivolti a cittadini e imprese, secondo i dati del report “Le opzioni tecnologiche per la digitalizzazione avanzata della Pubblica Amministrazione” realizzato dal European House – Ambrosetti e Salesforce. L’Italia, con 63 progetti, è tra i Paesi più impegnati nello sviluppo delle soluzioni di intelligenza artificiale nella pubblica amministrazione, seconda solo ai Paesi Bassi (116); conquista, inoltre, il primato per numero di progetti implementati: 38 iniziative, circa il 10% del portafoglio europeo.
A livello di investimenti per portare l’AI nella PA, invece, possiamo fare di più. Negli ultimi cinque anni, gli Usa hanno speso oltre 60 miliardi di dollari; i principali Paesi Ue ne hanno investiti un decimo (6 miliardi di euro), con Francia (2,5 miliardi), Spagna e Germania (2 miliardi ciascuno) a dedicare maggiori risorse e a mostrare una più chiara strategia di adozione, mentre l’Italia ha per ora 1 miliardo di euro investito. Di conseguenza, sarà importante per il nostro Paese sfruttare i circa 6,1 miliardi di euro messi a disposizione dal PNRR per la digitalizzazione della PA. Si tratta di una cifra che consente di modernizzare le nostre amministrazioni in tutti quegli ambiti – come l’adozione delle architetture cloud e delle tecnologie per l’analisi dei dati – che risultano fondamentali per erogare ai cittadini e alle imprese servizi utili e facili da fruire. Oggi l’Italia si pone solo al 20° posto in Ue per incidenza dei servizi pubblici digitali erogati ai cittadini.
La governance dell’AI: una “rivoluzione della fiducia” in 5 punti
L’utilizzo effettivo dei servizi digitali si lega non solo alle soluzioni adottate e all’interfaccia utente proposta, ma alla “fiducia” nella tecnologia e questo vale soprattutto per le implementazioni AI. Il report diThe European House – Ambrosetti e Salesforce sottolinea proprio gli aspetti di governance nelle azioni di policy proposte per la diffusione del digitale nella PA italiana.
“Le implicazioni dell’AI sono svariate e l’impatto significativo. Per questo ormai sempre di più si parla anche di una rivoluzione della fiducia: quel trust che le organizzazioni devono conquistare nei confronti dei cittadini e dei consumatori e la fiducia degli individui verso la tecnologia e chi la produce” afferma Paolo Bonanni (Salesforce Italia). Il primo principio guida cui dovrebbe uniformarsi l’adozione dell’intelligenza artificiale nella pubblica amministrazione è la trasparenza degli algoritmi e la facilità di interpretazione dei risultati prodotti, fornendo quindi informazioni chiare e comprensibili ai cittadini su come vengono utilizzati i sistemi di AI.
Il secondo riguarda la responsabilità nell’ambito del processo decisionale: è opportuno bilanciare le responsabilità prevedendo che le decisioni finali siano di competenza di un essere umano.
Il terzo principio si riferisce ai dati utilizzati dall’AI, che dovrebbero essere di elevata qualità per garantire decisioni accurate, cruciali ed etiche.
Il quarto è relativo all’interoperabilità e condivisione dei dati tra le amministrazioni: adoperare standard comuni e far leva sull’ecosistema dell’Open Innovation facilita la comunicazione e la collaborazione tra differenti PA. In particolare, sono importanti le piattaforme pubbliche di Open Dataper condividere l’enorme patrimonio informativo disponibile a beneficio di altre PA, dei cittadini e delle imprese.
Ma soprattutto, ed è questo il quinto principio, è essenziale che i cittadini abbiano fiducia nelle soluzioni AI. Il report evidenzia che, tra le motivazioni principali delle controversie nella PA dovute all’utilizzo dell’intelligenza artificiale, ci sono l’accuratezza (36,2%), la privacy (21,9%), la sicurezza (14,3%) e i bias (9,8%) e suggerisce di adottare l’approccio “privacy by design” per incorporare la protezione della privacy e della sicurezza dei dati in tutte le fasi del processo.
“È importante affidarsi a un fornitore che abbia investito nei suoi modelli addestrandoli nel modo più sicuro possibile” dichiara Bonanni a commento dei dati. “Salesforce – conclude Bonanni – ha investito molto in strumenti per rilevare e contrastare le violazioni di proprietà dei contenuti, i pregiudizi e altri aspetti tossici. Inoltre, Salesforce è forte di decenni di esperienza pratica che i suoi clienti hanno condiviso e questo ci ha permesso di compiere progressi tangibili non solo nella teoria della sicurezza dell’AI, ma anche nella realizzazione delle soluzioni”.