EDITORIALE
L’Elogio all’ignoranza dell’Intelligenza Artificiale
L’adozione dell’IA nelle pubbliche amministrazioni segna una svolta epocale, simile all’arrivo di Internet, pronta a rivoluzionare la gestione dei servizi pubblici e la relazione con i cittadini. Ci si interroga sulla pervasività di queste soluzioni, sui possibili impatti positivi e sulle minacce che possono emergere. Mai più di ora, rispetto ad un tema così articolato e complesso, è necessario abbandonare la logica dicotomica e cercare, con approccio laico e senza pregiudizi, di interpretare da prospettive diverse questa novità, indossando metaforicamente cappelli di diversi colori per esplorare ottimismo, false partenze, regolamentazioni e nuovi confini
15 Marzo 2024
Gianni Dominici
Amministratore Delegato FPA
Il ricorso agli algoritmi di intelligenza artificiale nei diversi ambiti della nostra vita è ormai un dato di fatto. Ci si interroga ancora su quanto queste soluzioni saranno pervasive e quali potranno essere gli impatti di natura positiva e le minacce di diversa natura che potranno scaturire dalla loro diffusione. Ma il processo in atto è inarrestabile e la sfida tecnologica dell’intelligenza artificiale è ipotizzabile abbia una forza d’urto superiore a quella che ha avuto la diffusione di internet sulle organizzazioni pubbliche e private, sulle famiglie e sui cittadini[1].
Per le pubbliche amministrazioni italiane, il ricorso a soluzioni basate sugli algoritmi intelligenti è sicuramente una delle principali discontinuità, in grado di accelerare i cambiamenti in corso, da governare già nello svolgimento di questo 2024 appena iniziato[2] [3].
Il cappello giallo, ovvero una visione ottimistica[4]
Il contesto di riferimento è quello ben tracciato da un recente documento del Consiglio dell’Unione Europea che descrive i principali servizi che possono essere interessati dal ricorso all’intelligenza artificiale: [5]
- Utilizzo di assistenti virtuali e di chat bot nell’erogazione dei servizi. È sicuramente l’utilizzo attualmente più diffuso. Permette di liberare personale dalle attività di interazione con il pubblico magari per destinarlo ad incarichi più complessi.
- Analisi dei documenti e dei testi. Le potenti e veloci capacità di calcolo possono essere utili per elaborare e sintetizzare documenti complessi e voluminosi così come per facilitare lo studio e l’analisi di nuovi topic.
- Supporto alle decisioni (ad esempio analisi dei dati per valutare se concedere un finanziamento o l’eleggibilità per i servizi sociali). È uno degli ambiti più promettenti ma anche più delicati e in cui si sono registrati già da ora i maggiori incidenti.
- Analisi e reportistica in campo economico e finanziario.
- Supporto ai processi di selezione del personale (analisi CV e prove di esame).
- Nel settore legale, assistenza all’analisi e alla sintesi delle normative.
È in questi ambiti che si collocano le diverse esperienze avviate sia a livello nazionale sia internazionale in una logica, per ora, prevalentemente sperimentale. Sicuramente, in Italia, ha fatto scuola il caso INPS, un ente di “servizio” per milioni di italiani, che negli ultimi anni ha sperimentato l’utilizzo degli algoritmi per migliorare i propri servizi in un’ottica, peraltro, coerente con gli obiettivi di sviluppo sostenibile ONU. Nascono così la classificazione e smistamento automatico delle PEC, la Gestione ottimizzata delle richieste web al Customer Service e il potenziamento dell’assistente virtuale.[6] [7]Interessanti, per il metodo utilizzato, la sperimentazione, del Government Digital Service (GDS) britannico, di ChatGPT per migliorare l’user experience dei cittadini nel consultare il portale GOV.UK di accesso ai servizi pubblici[8]. Interessante perché la sperimentazione è stata portata avanti con approccio rigoroso volto a salvaguardare la reputazione del servizio stesso. “Crediamo che questa tecnologia abbia il potenziale per avere un impatto importante e positivo sul modo in cui le persone utilizzano GOV.UK… [e] che il governo abbia il dovere di assicurarsi che venga utilizzata in modo responsabile, e questo è un dovere che non prendiamo alla leggera”[9]. Tornando in Italia, interessante anche il lavoro che sta facendo la Camera dei deputati declinato in tre ambiti principali: supporto al lavoro di documentazione della Camera, supporto al lavoro dei deputati, accountability quindi miglioramento del rapporto con i cittadini[10].
Dall’analisi delle diverse esperienze emerge chiaramente la consapevolezza di trovarsi davanti a un’occasione importante, probabilmente unica nel breve periodo, di rafforzare la capacità operativa delle nostre pubbliche amministrazioni ma anche la preoccupazione sulla complessità e imprevedibilità che la diffusione degli algoritmi solleva che si sintetizza in una sola domanda: siamo pronti a gestire questo importante cambiamento?
Abbiamo delle organizzazioni che per decenni hanno subito disinvestimenti in termini economici e di personale in nome di un’austerità combattuta con la cultura dei tagli lineari. Complessivamente, in 10 anni, nelle PA italiane si sono ‘perse’ 168mila persone e l’Italia continua ad avere un numero totale di impiegati pubblici nettamente inferiore a quello dei principali Paesi europei in proporzione alla popolazione (5,5 impiegati pubblici ogni 100 abitanti, mentre sono 6,1 in Germania; 7,3 in Spagna; 8,1 in UK; 8,3 in Francia); e in proporzione agli occupati (14 impiegati pubblici ogni 100 occupati contro il 16,9 in UK, il 17,2 in Spagna, il 19,2 in Francia). L’età media degli impiegati pubblici stabili è di 50,7 anni invariata rispetto all’anno precedente quando nel 2001 l’età media era di 44,2 anni. Indietro anche la formazione: nel 2021 nemmeno un giorno per dipendente[11].
A questo fenomeno si è aggiunto, o ne è stata la conseguenza, quello delle esternalizzazioni per cui spesso si sono trascurate le competenze interne preferendo chiamare in causa qualcuna delle grandi società di consulenza. “Queste tendenze hanno svuotato le organizzazioni di conoscenze, di competenze e capacità di visione”[12] .
Il rischio, ora, che il diffondersi degli algoritmi vada ancora a discapito delle competenze e delle capacità interne alle istituzioni è alto. È quello che in letteratura viene chiamato l’Automation Bias per cui a diffondersi delle tecnologie invasive si genera un principio di delega verso la macchina “Più in generale, ciò corrisponde anche alle preoccupazioni sollevate dalla letteratura della pubblica amministrazione sul potenziale degli strumenti algoritmici di intelligenza artificiale (e degli strumenti digitali più in generale) di sostituire la discrezionalità burocratica e il giudizio professionale”[13].
Ma il rischio ancora più grosso, se questo lungo percorso alla de-professionalizzazione non viene interrotto, è che col ricorrere all’intelligenza artificiale si compia, al contrario, un elogio all’ignoranza, al disimpegno nel lavoro pubblico, alla mera automatizzazione delle decisioni e dei processi a discapito delle persone[14].
I valori da tenere presente
La pubblica amministrazione supportata dagli algoritmi non deve sovvertire quelli che sono i principi e i valori condivisi delle diverse istituzioni pubbliche europee che sono riassumibili in:[15]
- Apertura e trasparenza. L’apertura e la trasparenza consentono, da un lato, a chiunque sia interessato da un’azione amministrativa di conoscerne i fondamenti e, dall’altro, facilitano il controllo esterno dell’azione amministrativa da parte dei diversi attori coinvolti dall’agire pubblico. Il tema si propone con forza nell’ambito dell’IA dove non sempre è garantito l’accesso a soluzioni magari realizzate e gestite da soggetti esterni alle PA stesse e proposte come tecnologia proprietaria. Rispetto a questo tema vengono salutate con interesse iniziative di apertura come l’annuncio di Meta che rende disponibile il codice sorgente di LLaMA2[16] (un potente soluzione di IA generativa) perché introdurrebbero una logica di open innovation nella produzione di soluzioni condivise[17]. Ma, al di là della politica alla base dello sviluppo di un sistema di genAI (di maggiore o minore condivisione) la trasparenza è comunque minacciata dalla crescente complessità dei sistemi utilizzati come le reti neurali, il ricorso al metodo GAN (Generative Adversarial Networks), solo per fare degli esempi, che, basandosi sull’esperienza, comunque determinano un contesto inaccessibile alla comprensione umana.
- Accountability. Direttamente legato al tema della trasparenza è uno dei principi alla base della “Buona Amministrazione”[18] descritto come “[….] rendere conto della propria condotta nei confronti di un altro soggetto. Questo implica essere messi sotto scrutinio, essere disposti a rispondere a domande scomode e, ultimamente, affrontare concretamente le conseguenze del giudizio altrui”. Per cui l’attore (cioè la PA), tra le altre cose, ha l’obbligo di spiegare e giustificare la sua condotta[19]. Il ricorso a soluzioni di IAgen mette in forte discussione l’applicabilità di questo principio poiché è di fatto impossibile capire come un programma di IA sia arrivato a prendere una decisione. È quello che studiosi come Yavar Bathaee chiamano “the black box problem”[20]. La Black Box AI può funzionare in modalità completamente autonoma e diversa da quello che il programmatore può prevedere considerando che le linee di codice evolvono mano a mano che vengono alimentate con altri dati[21]. Bathaee fa questo esempio: se a un programma di genAI viene chiesto di massimizzare i profitti con strumenti finanziari poi non potremmo mai sapere come ha raggiunto gli obiettivi, se manipolando il mercato o agendo in altro modo eticamente scorretto. E questo neanche con un processo di reverse engineering magari davanti a una corte o a un ente regolatorio. Questa mancanza di trasparenza o, comunque, di comprensibilità del processo decisionale fa sì che sia impossibile risalire agli elementi di intenzionalità e di causalità alla base della decisione.
- Efficacia ed efficienza. È il tema di sempre, alla base degli interventi, delle riforme, dei progetti che hanno coinvolto le pubbliche amministrazioni almeno negli ultimi 30 anni. Il PNRR ripone grande importanza (e risorse) nel rafforzamento della capacità amministrativa delle organizzazioni pubbliche[22] partendo dalla consapevolezza che la nostra macchina pubblica è ancora molto carente proprio in termini di efficacia e di efficienza della sua azione. Come scrive Sabino Cassese: “la pubblica amministrazione è il più grande erogatore di servizi e il maggiore datore di lavoro italiano: da essa dipendono circa tre milioni e trecentomila addetti. È un organismo che si è andato costruendo lentamente, essendo il frutto della storia e dei principi che lo hanno plasmato. Per dimensioni e poteri svolge inoltre un ruolo fondamentale nel sistema politico, condizionando la democrazia. Si comprende, quindi, come dalla sua buona organizzazione e dal suo funzionamento dipendano il benessere dei cittadini e il successo dello Stato”[23]. Il ricorso a soluzioni di IA, come abbiamo ipotizzato nei diversi ambiti dell’agire amministrativo, può sicuramente determinare un miglioramento delle attività in essere. Basti, fra tanti, l’esempio delle difficoltà con le quali vengono ancora gestiti i fondi comunitari che portano inevitabilmente a dei ritardi che peggiorano la qualità della spesa ed il raggiungimento degli outcome. Già solo in questo campo, migliorare l’efficacia e l’efficienza della macchina amministrativa significherebbe dotare il Paese di nuova linfa. Mentre si discute ancora su come il digitale “può trasformare le pubbliche amministrazioni aiutandole ad erogare servizi in modo più efficiente, affidabile e sicuro”[24], le sperimentazioni in atto che usano gli algoritmi costringono a guardare avanti e valutarne la reale efficacia[25].
Del cappello rosso, le false partenze
Sulla base di queste considerazioni appare evidente che, al di là delle sperimentazioni, il progressivo ricorso di soluzioni di IAgen debba essere contestualizzato all’interno di un quadro di principi, norme e valori condivisi. Altrimenti si rischiano false partenze e non coerenti con le finalità della Buona Amministrazione.
La breve storia dell’IA è, infatti, già ricca di casi in Italia, in Olanda, negli Stati Uniti, in Austria che mostrano “perfettamente tutto quello che può andare storto quando si automatizza un processo delicato senza governarlo adeguatamente” [26]. A questi esempi “storici” si è aggiunto recentemente il clamoroso caso di un algoritmo usato dal governo dello stato indiano di Haryana per semplificare le richieste dei cittadini riguardanti il welfare, che ha erroneamente indicato diverse migliaia di persone, soprattutto anziani, come morte. Questi cittadini non ricevono più le loro pensioni e non possono accedere ai servizi, finché non dimostrano di essere vivi. Secondo Diletta Huyskes: “Le responsabilità umane dietro questi progetti devono essere esplicitate, soprattutto perché hanno a che fare con dei processi decisionali. Non sono le procedure automatizzate a fare scelte arbitrarie al nostro posto, ma siamo noi a indicarle e a conferire loro questo potere. Ma le scelte a monte sono nostre: dai politici ai designer, passando per amministratori pubblici e programmatori, il problema è che con l’automazione è più facile sentirsi sollevati da una responsabilità”[27].
Un caso che ha fatto scuola (in tutti i sensi) è quello dell’affidamento ad un algoritmo dei trasferimenti e delle assegnazioni di posti di ruolo incrociando una graduatoria con le preferenze espresse dagli stessi docenti[28] che aveva dato seguito ad attribuzioni di sedi tramite l’ordinanza ministeriale n.241/2016. Ordinanza impugnata da alcuni docenti adducendo tra gli altri motivi, l’assenza di attività amministrativa e l’affidamento dei trasferimenti e delle assegnazioni ad un algoritmo del tutto sconosciuto[29]. “Nel risolvere la controversia, il Consiglio di Stato ha adottato una soluzione mediana tra quella contraria al ricorso agli algoritmi e quella favorevole al loro più ampio utilizzo nell’espletamento dell’attività amministrativa”[30]. Riconoscendo la legittimità del ricorso agli algoritmi nell’ambito di procedimenti amministrativi a condizione che siano rispettati i seguenti requisiti essenziali: a) la piena conoscibilità della modalità di funzionamento del sistema decisorio automatizzato; b) l’imputabilità della decisione da questo prodotta all’organo titolare del potere, cui competono tutte le responsabilità correlate; c) il carattere non discriminatorio dell’algoritmo utilizzato[31].
Un’altra falsa partenza, questa più recente, riguarda uno dei settori più critici e delicato per l’introduzione di automatismi: quello della sanità. Nei primi giorni di gennaio (il 9 per la precisione) AGENAS ha sospeso, in via cautelativa e temporanea, la gara per la realizzazione della piattaforma di intelligenza artificiale a supporto dell’assistenza sanitaria primaria che aveva precedentemente avviato per un impegno a base d’asta pari a 37 milioni. Ciò è avvenuto a seguito di una nota con la quale il Garante della Privacy ha invitato a far pervenire “con ogni consentita urgenza (…) ogni elemento di informazione utile alla valutazione del caso, avendo cura in particolare di indicare”:
- la base giuridica in forza della quale si intenderebbero realizzare i trattamenti di dati personali attraverso la suddetta piattaforma;
- le valutazioni svolte e le misure che si intenderebbero implementare per assicurare effettiva applicazione ai principi di protezione dei dati personali nelle diverse fasi di realizzazione della piattaforma e, in particolare, di quella attualmente in corso;
- le modalità attraverso le quali si intenderebbe dare piena attuazione al decalogo del Garante[32].
Il riferimento al decalogo[33] del Garante è importante perché nel documento oltre a ribadire, evidentemente, la centralità del diritto alla protezione di dati personali, vengono definiti principi di governance del processo decisionale che deve necessariamente prevedere una supervisione umana che consenta al personale sanitario di controllare, validare o smentire l’elaborazione effettuata dagli strumenti di IA[34].
La considerazione che scaturisce da queste prime esperienze è che il ricorso agli algoritmi di intelligenza artificiale nelle nostre pubbliche amministrazioni debba essere contestualizzato all’interno dell’importante processo di rafforzamento della capacità amministrativa portato avanti (con fatica) da anni. Altrimenti si rischia, e questa volta con probabili conseguenze più gravi, di ripetere l’errore della prima fase di informatizzazione delle organizzazioni quando si è digitalizzato l’analogico, cioè vecchi processi oramai obsoleti.
Il cappello blu per il governo delle regole
Risulta evidente da quanto descritto che il ricorso a soluzioni di IAgen nelle pubbliche amministrazioni possa rappresentare un’importante occasione per migliorare l’azione amministrativa. Come sempre è accaduto con l’avvento di una nuova tecnologia, le nostre conoscenze per valutarne in anticipo gli impatti di natura sociale ed economico, sono comunque limitate[35]. Oltretutto, le scadenze e gli impegni che le PA hanno davanti impongono scelte immediate per cui ci troviamo nella situazione in cui, contemporaneamente, si deve governare con l’IA (sperimentando applicazioni nei diversi settori) e governare la IA (definendo regole e linee guida di applicazione). In questo momento di transizione le preoccupazioni non mancano e i diversi documenti, vademecum e linee guida che tutti i Paesi si stanno affrettando a redigere invitano si all’agire ma anche alla prudenza.
Per ultimo, in ordine cronologico, i Principi generali per l’utilizzo dell’intelligenza artificiale nella Pubblica Amministrazione a cui l’AGID ha dedicato un’importante parte del nuovo Piano Triennale per la Digitalizzazione della Pubblica Amministrazione, che riporto integralmente[36]:
- “Miglioramento dei servizi e riduzione dei costi. Le pubbliche amministrazioni concentrano l’investimento in tecnologie di intelligenza artificiale nell’automazione dei compiti ripetitivi connessi ai servizi istituzionali obbligatori e al funzionamento dell’apparato amministrativo. Il conseguente recupero di risorse è destinato al miglioramento della qualità dei servizi anche mediante meccanismi di proattività.
- Analisi del rischio. Le amministrazioni pubbliche analizzano i rischi associati all’impiego di sistemi di intelligenza artificiale per assicurare che tali sistemi non provochino violazioni dei diritti fondamentali della persona o altri danni rilevanti. Le pubbliche amministrazioni adottano la classificazione dei sistemi di IA secondo le categorie di rischio definite dall’AI Act.
- Trasparenza, responsabilità e informazione. Le pubbliche amministrazioni pongono particolare attenzione alla trasparenza e alla interpretabilità dei modelli di intelligenza artificiale al fine di garantire la responsabilità e rendere conto delle decisioni adottate con il supporto di tecnologie di intelligenza artificiale. Le amministrazioni pubbliche forniscono informazioni adeguate agli utenti al fine di consentire loro di prendere decisioni informate riguardo all’utilizzo dei servizi che sfruttano l’intelligenza artificiale.
- Inclusività e accessibilità. Le pubbliche amministrazioni sono consapevoli delle responsabilità e delle implicazioni etiche associate all’uso delle tecnologie di intelligenza artificiale. Le pubbliche amministrazioni assicurano che le tecnologie utilizzate rispettino i principi di equità, trasparenza e non discriminazione.
- Privacy e sicurezza. Le pubbliche amministrazioni adottano elevati standard di sicurezza e protezione della privacy per garantire che i dati dei cittadini siano gestiti in modo sicuro e responsabile. In particolare, le amministrazioni garantiscono la conformità dei propri sistemi di IA con la normativa vigente in materia di protezione dei dati personali e di sicurezza cibernetica.
- Formazione e sviluppo delle competenze. Le pubbliche amministrazioni investono nella formazione e nello sviluppo delle competenze necessarie per gestire e applicare l’intelligenza artificiale in modo efficace nell’ambito dei servizi pubblici. A tale proposito si faccia riferimento agli obiettivi individuati nel Capitolo 1.
- Standardizzazione. Le pubbliche amministrazioni tengono in considerazione, durante le fasi di sviluppo o acquisizione di soluzioni basate sull’intelligenza artificiale, le attività di normazione tecnica in corso a livello internazionale e a livello europeo da CEN e CENELEC con particolare riferimento ai requisiti definiti dall’AI Act.
- Sostenibilità. Le pubbliche amministrazioni valutano attentamente gli impatti ambientali ed energetici legati all’adozione di tecnologie di intelligenza artificiale e adottando soluzioni sostenibili dal punto di vista ambientale.
- Foundation Models (Sistemi IA “ad alto impatto”). Le pubbliche amministrazioni, prima di adottare foundation models “ad alto impatto”, si assicurano che essi adottino adeguate misure di trasparenza che chiariscono l’attribuzione delle responsabilità e dei ruoli, in particolare dei fornitori e degli utenti del sistema di IA.
- Dati. Le pubbliche amministrazioni, che acquistano servizi di intelligenza artificiale tramite API, valutano con attenzione le modalità e le condizioni con le quali il fornitore del servizio gestisce di dati forniti dall’amministrazione con particolare riferimento alla proprietà dei dati e alla conformità con la normativa vigente in materia di protezione dei dati e privacy”.
Principi generali che, a mio avviso, presuppongo per essere applicati un importante investimento sulle tre dimensioni chiave di questo processo: le persone, le organizzazioni, la governance.
Le persone, è emerso dai diversi ambiti affrontati, non possono essere lasciate fuori dai processi che si stanno determinando. Riprendo l’espressione sintetica di Domenico Dalfino (citato nelle note): “Da quanto innanzi sinteticamente osservato sembra potersi trarre la seguente – banale e allo stesso fondamentale – conclusione: se l’uomo non può fare a meno dell’algoritmo, questo non può fare a meno dell’uomo”[37]. Il lavoro pubblico sarà investito da una sorta di riferimento circolare non risolto per cui:
- con il diffondersi di soluzioni di IA si libereranno le mansioni gestite dalle macchine con la possibilità di riallocare persone in attività qualificate;
- la diffusione e l’implementazione di soluzioni di IA presuppone il ricorso persone qualificate in grado di gestire i cambiamenti in atto.
È indispensabile anticipare i bisogni che nasceranno per non subirli dopo e avviare un importante processo di empowerment del lavoro pubblico valorizzando i dipendenti in servizio e attirando nuovi talenti[38].
Il primo tema è legato alla formazione[39]. Non dobbiamo trasformare i dipendenti pubblici in specialisti della materia, soprattutto quando può essere così complessa, ma dobbiamo dotarli degli strumenti, delle competenze e delle attitudini per gestire questi processi. Riporto all’infinito la frase di Eggers sulla necessità di trasformare i dipendenti pubblici “da rematori a timonieri “. Dobbiamo formare generalisti piuttosto che iperspecialisti [40] e per far questo sono indispensabili le soft skills e il pensiero laterale[41]. Una PA allineata con le sperimentazioni in corso nei diversi settori può anche ridiventare attraente per coloro che non sono semplicemente alla ricerca del posto fisso, ma di un’esperienza professionale qualificante. E questo può accadere anche avvicinando i giovanissimi alle istituzioni con i nuovi strumenti contrattuali come l’apprendistato[42].
Le organizzazioni. Una PA gerarchica e burocratica impostata sulle procedure è una PA che rischia di perdere senso a favore dell’efficacia degli algoritmi. Per affrontare le nuove sfide dobbiamo ripartire dalle persone, ma anche adottare nuovi modelli organizzativi basati sull’ascolto interno ed esterno alle organizzazioni. Anche nelle PA è necessario riflettere sul modello “Sense & Respond”[43]. Al cuore di questo approccio c’è un ciclo continuo di percezione, ascolto e risposta attraverso piccole e rapide sperimentazioni, e conseguenti correzioni che generano cambiamenti altrettanto piccoli e continuativi: si valutano i risultati per definire il prossimo passo. Ogni sperimentazione, soprattutto in un campo ancora prevalentemente ignoto come quello del ricorso a soluzioni IA in ambito pubblico, raccoglie feedback ed evidenze che suggeriscono se seguire la pianificazione precedente, cambiare priorità, modificare qualcosa o cambiare strada. È più importante testare le ipotesi piuttosto che definire i requisiti. Si lavora e si impara. In un processo di de-risking continuo.” Per far questo, però, le persone devono essere libere di provare, di sbagliare senza aver paura di fallire in una logica di apprendimento continuo. Dobbiamo essere sicuri che nella PA smetta di prevalere l’effetto HiPPO (Highest Paid Person’s Opinion, l’opinione della persona più pagata; ippopotamo in inglese, N.d.T.). Con ciò si intende, come ci dicono Joost Minnaar e Pim De Morree, «l’abitudine di schierarsi con il funzionario di grado più elevato (e quindi spesso quello che ottiene lo stipendio più alto), così sottostimando la persona che ha più competenza, esperienza o idee più brillanti. Il sistema di lavoro tradizionale tende a trascurare il merito di un problema semplicemente per compiacere il collega con la più alta seniority. L’inefficacia di tutto ciò è stata scientificamente dimostrata» [44]. La vera ed efficace sperimentazione può avvenire solo in quelle che Amy Edmondson nel suo libro “Organizzazioni senza paura” descrive come la paura di assumersi un rischio relazionale[45]. “Scritto per i leader e per i team, organizzazioni senza paura è una guida pratica alla creazione di una cultura organizzativa in cui le persone si sentano libere di proporre le proprie idee, favorendo l’innovazione e la condivisione delle competenze”. Aggiunge la Edmondson, assumere individui di talento non basta più: devono essere anche individui in grado di lavorare con gli altri in un ambiente organizzativo che permette di condividere un’idea potenzialmente sensibile, problematica o sbagliata. Un ambiente psicologicamente sicuro[46].
La governance. Qualche anno fa, un ministro del governo allora in carica, descrisse la governance dell’innovazione in Italia un “manicomio”. Ecco è esattamente quello di cui non abbiamo bisogno. Attualmente è indispensabile creare le condizioni per creare il giusto equilibrio, un effetto Goldilocks[47], tra i diversi interessi e valori in campo: quello della ricerca dell’efficacia e dell’efficienza dell’azione pubblica grazie al ricorso di soluzioni e processi innovativi, quello della salvaguardia della proprietà intellettuale o, comunque, degli investimenti industriali, quello del rispetto dei principi e dei valori, che abbiamo introdotto all’inizio, che devono sempre e comunque orientare l’azione pubblica a favore delle persone, delle aziende e delle famiglie.
In questo momento di avvio e di definizione del “problema” molteplici sono le iniziative di natura istituzionale che si susseguono. Per quanto riguarda le Commissioni la situazione attuale è[48]:
- Commissione di coordinamento per l’intelligenza artificiale, istituito dal sottosegretario Alessio Butti, con lo scopo di mettere a punto «il piano strategico italiano, con l’obiettivo di guidare lo sviluppo di questa tecnologia in modo responsabile e inclusivo». Composto da 13 esperti di tecnologia e intelligenza artificiale, tra cui Paolo Benanti, è guidato da Gianluigi Greco, professore di informatica all’Università della Calabria e presidente di AIxIA, l’associazione italiana per l’intelligenza artificiale.
- Commissione per studiare l’impatto dell’intelligenza artificiale nell’editoria, chiamato anche “comitato” o “commissione Algoritmi”, istituito dal sottosegretario Alberto Barachini e attualmente presieduto dallo stesso Benanti.
- Commissione di vigilanza sull’attività di documentazione della Camera, presieduta da Anna Ascani, che non è nata appositamente ma è un organismo permanente e che nei mesi scorsi ha effettuato un’indagine conoscitiva sull’IA e sull’apporto che l’IA generativa potrebbe dare ai lavori parlamentari e che ha presentato a metà febbraio uno specifico rapporto[49].
Accanto al lavoro delle Commissioni i documenti programmatori proposti dalle diverse agenzie governative. Abbiamo già citato il Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale del Garante per protezione dei dati personali e il recente Piano Triennale per la digitalizzazione del paese, solo per fare esempi recenti. A questo si aggiungono le iniziative territoriali con la Puglia, ad esempio che è tra le prime regioni ad avere un Centro di competenza regionale sull’intelligenza artificiale nella pubblica amministrazione, istituito con Deliberazione della Giunta Regionale del 30 ottobre scorso. L’obiettivo è studiare, comprendere, indagare, analizzare e monitorare quelle che sono le varie soluzioni e le varie opportunità di utilizzo dell’intelligenza artificiale all’interno della pubblica amministrazione. Inoltre, Regione Puglia coordinerà il Tavolo dati e intelligenza artificiale della community ICT in ambito conferenza Stato-Regioni[50].
Ma una tecnologia che nasce dalle interconnessioni globali di dati, di saperi e di soluzioni non può essere governata solo a livello locale. Se, nel dicembre 2023, l’High-level Advisory Body on AI [51] denunciava ancora un deficit di governance a livello globale, gli occhi e l’attenzione dei diversi attori coinvolti sono puntati soprattutto verso l’Europa in particolare a seguire la lunga procedura di adozione dell’AI Act, appena approvato dal Parlamento europeo, che ha l’ambizione di fare in modo che ogni singolo stato sia pronto a giocare un ruolo che non sempre è riuscito a giocare nella storia di internet, dato che spesso si è lasciato che i mercati imponessero le loro regole nella dimensione commerciale o tecnologica[52]. Un testo impostato su una struttura articolata per rischi: maggiore è il rischio, maggiori le responsabilità e i paletti per chi sviluppa o adopera sistemi di intelligenza artificiale[53]. Nel frattempo, anche l’Europa si è dotata della sua “commissione” con la costituzione dell’Ufficio europeo per l’IA che ha l’ambizione di costituire la base per un unico sistema europeo di Governance dell’IA[54].
Del cappello verde alla ricerca di nuovi confini
Siamo consapevoli che ci troviamo di fronte ad un fenomeno complesso dalle potenzialità enormi e dagli esiti incerti. Come detto all’inizio, per chi li ha vissuti in precedenza, sembra di rivivere i primi momenti dell’avvento del world wide web[55]. Nel mio caso erano i primi anni ’90 e avevamo appena ottenuto i finanziamenti, con un consorzio di enti ed università europee, per il progetto MUNICIPIA, incredibile acronimo di Multilingual Urban Network for the Integration of CIty Planners and Involved local Actors, finanziato dalla XIII Direzione Generale, nell’ambito del Telematics Application Programme della commissione europea e finalizzato alla creazione di un servizio telematico destinato alle città europee. In fase progettuale avevamo previsto di connettere le città europee tramite Agora telematica e il suo applicativo Pilot a cui collegarsi, ovviamente, su linea commutata tramite modem telefonico. Passato il progetto e nell’imminenza di cominciare i lavori mi chiamò Daniela Vacirca, in rappresentanza dei “ragazzi di corso vittorio” che mi invitò da loro a vedere una cosa nuova: un sito www. Il dilemma se continuare il progetto con la tecnologia consolidata o avventurarsi su quella nuova e sconosciuta durò un attimo. Ovviamente, e per fortuna, scegliemmo di avventurarci a costruire uno dei primi siti europei. Come quella tecnologia avrebbe cambiato il nostro modo di lavorare, di vivere e di rapportarci alle pubbliche amministrazioni non lo sapevamo, ma l’attrattività verso quello che stava accadendo era irresistibile[56].
Lo stesso sta accadendo ora. Pur senza sottovalutare e sottostimare i diversi punti controversi, dobbiamo metterci il cappello verde per andare oltre ciò che è noto e prefigurarci scenari innovativi. Da questa prospettiva le tecnologie di IAgen possono essere l’occasione, la marcia in più per portare a compimento quei processi di rinnovamento delle pubbliche amministrazioni soprattutto in un’ottica di nuovo rapporto con i cittadini, le famiglie e le imprese[57] che era stato introdotto dalle politiche di Open Government ma solo parzialmente realizzato.
È quello che alcuni chiamano lo smart government[58] secondo i quali l’IAgen può contribuire ad interpretare al meglio i dati prodotti dalle diverse fonti, primi fa tutti quelli provenienti dal cosiddetto Internet delle cose, per migliorare i servizi rivolti al territorio e creare un nuovo rapporto con i cittadini basato sulla trasparenza e la partecipazione.
Una PA che si rafforza, una PA aumentata come scrive Deiana in cui “le capacità del personale umano vengono amplificate dall’apporto dell’AI così come avviene con la realtà aumentata. In questa visione, l’automazione non sostituisce ma piuttosto potenzia il fattore umano”[59].
Una PA, quindi, che grazie all’IAgen e ai dati che ne sono alla base personalizza servizi e soluzioni. È la PA che Michele Petrocelli definisce Empatica: “Praticare l’empatia significa orientarsi ai cittadini. È quindi importante che l’analisi delle esigenze fondamentalmente connesse con l’ascolto attivo si coniughi con l’effettiva capacità dell’ente pubblico di creare valore tangibile nella vita delle persone, producendo servizi, aumentando produttività ed efficienza, riducendo potenziali rischi, promovendo innovazione, sostenibilità, equità, inclusione nel sistema in cui opera”[60].
Le potenzialità sono quindi enormi ma il tempo dell’innovazione scorre veloce. Nel frattempo che la tecnologia corre senza soste apparenti come possiamo stare al passo? Soprattutto nel nostro paese c’è una lunga tradizione di “innovazione per decreto” con produzione di leggi e decreti tendenti a normare ad ogni costo l’innovazione. È quella che Charles Landry chiama la “cultura dell’avvocato” prevalente ancor in molti concorsi poco proiettati alla PA del futuro (che poi sarebbe già dell’oggi)[61]. Come scrive Quattrucci nel nostro sito “I governi dovrebbero concentrarsi sull’adozione dell’IA, non solo sulla regolamentazione”[62], specificando che dovrebbero creare ambienti favorevoli alla sperimentazione più che fornire indicazioni prescrittive con il rischio di fermare o, almeno, rallentare il cambiamento.
[1] I. Bufacchi, «Intelligenza artificiale è la prossima rivoluzione. Intervista a Robert Shiller», Il sole 24 ore, 2 febbraio 2024.
[2] G. Dominici, «Una PA che naviga veloce, controvento», in FPA Annual Report, Edizioni FPA, 2023.
[3] C. Bertozzi, «Intelligenza artificiale nella pubblica amministrazione: opportunità», forumpa.it, 12 febbraio 2024.
[4] Alcuni titoli di paragrafo di questo articolo fanno riferimento ai sei cappelli di De Bono. Sono convinto, infatti, che mai più di ora, rispetto ad un tema così articolato e complesso, sia necessario abbandonare la logica dicotomica e cercare, con approccio laico e senza pregiudizi, di interpretare da prospettive diverse la novità. E. De Bono, Sei cappelli per pensare. Manuale pratico per ragionare con creatività ed efficacia, BUR saggi, 2013.
[5] «Chatgpt in the public sector overhyped or overlooked?» Council of European Union, 24 aprile 2023. Da noi integrato con C. Cutuli, C. Rossi, e A. Deiana, Intelligenza Artificiale e Pubblica Amministrazione: Guida alle applicazioni dell’AI per il settore pubblico. Independently published, 2024.
[6] V. Di Nicola, «INPS: “Ecco come usiamo l’IA a vantaggio dei cittadini”», agendadigitale.eu, 7 settembre 2023. Vedi anche L. Colantoni «INPS: assistente virtuale con intelligenza artificiale», Puntoinformatico.it, 17 luglio 2023.
[7] M. Stempeck, «How Italy’s Government is Using AI». 30 gennaio 2024.
[8] G. Matthew e altri. «The findings of our first generative AI experiment: GOV.UK Chat», Inside GOV.UK, 18 gennaio 2024.
[9] C. Bellamy «Experimenting with How Generative AI Could Help GOV.UK Users», Inside GOV.UK, 18 gennaio 2024.
[10] M. Stentella, «Anna Ascani: “Sperimenteremo l’IA generativa nel lavoro di documentazione della Camera dei deputati”», forumpa.it, 2 febbraio 2024.
[11] G. Stagno, «Lavoro pubblico e cambiamento organizzativo», in FPA Annual Report, Edizioni FPA, 2023.
[12] M. Mazzucato e R. Collington, Il grande imbroglio: come le società di consulenza indeboliscono le imprese, infantilizzano i governi e distorcono l’economia. Roma: Laterza, 2023, pag.17.
[13] S. Alon-Barkat e M. Busuioc, «Human–AI Interactions in Public Sector Decision Making: “Automation Bias” and “Selective Adherence” to Algorithmic Advice», Journal of Public Administration Research and Theory, vol. 33, fasc. 1, pp. 153–169, gen. 2023.
[14] In verità l’espressione “Elogio all’ignoranza” è un tributo a “Il viaggio di un ignorante” (1857) di Giovanni Rajberti, in G. Rajberti, L’elogio dell’ignoranza, SuiGeneris, 2021.
[15] «European Principles for Public Administration», OECD, Paris, gen. 1999.
[16] F. Lalli, «LLAMA 2: Rivoluzione Open Source nell’Intelligenza Artificiale Generativa», 3 febbraio 2024.
[17] In realtà sull’effettiva apertura di LLaMA2 sono stati sollevati molti dubbi. Vedi C. Hull, «Is Llama 2 open source? No – and perhaps we need a new definition of open…», 19 luglio 2023.
[18] «Article 41 – Right to good administration», European Union Agency for Fundamental Rights, 25 aprile 2015.
[19] L. Reggi, «Cosa è l’accountability», FORMEZ PA, ottobre 2017.
[20] Y. Bathaee, «The Artificial Intelligence Black Box and the Failure of Intent and Causation», Harvard Journal of Law & Technology, vol. 31, fasc. 2, 2028.
[21] J. Duberry, «AI to optimize the effectiveness and efficiency of public services», in Artificial Intelligence and Democracy, Edward Elgar Publishing, 2022, pp. 14–39.
[22] M. Stentella, «PNRR e Capacità amministrativa: cosa è previsto e a che punto siamo», forumpa.it, 2 settembre 2021.
[23] S. Cassese, Amministrare la nazione: La crisi della burocrazia e i suoi rimedi, Mondadori, 2023.
[24] «Digitalizzazione della gestione dei fondi dell’UE», Corte dei Conti Europa, 2023.
[25] J. Duberry, «AI to optimize the effectiveness and efficiency of public services», in Artificial Intelligence and Democracy, Edward Elgar Publishing, 2022, pp. 14–39.
[26] D. Huyskes, «Chi governa gli algoritmi governativi? L’automazione dei servizi pubblici tra Italia e Paesi Bassi», in FPA Annual Report, Edizioni FPA, 2023. Vedi anche D. Huyskes, «Perché non siamo ancora pronti per affidare agli algoritmi la pubblica amministrazione», Wired Italia.
[27] D. Huyskes, «Chi governa gli algoritmi governativi? L’automazione dei servizi pubblici tra Italia e Paesi Bassi», op. cit.
[28] D. Huyskes, «Chi governa gli algoritmi governativi? L’automazione dei servizi pubblici tra Italia e Paesi Bassi», op. cit.
[29] D. Dalfino, «Decisione amministrativa robotica ed effetto performativo. Un beffardo algoritmo per una “buona scuola”», Questione Giustizia, 13 gennaio 2020.
[30] Idem
[31] D. Bauduin e E. Falletti, «Sicurezza, automazione e dignità del lavoro». Futura editrice, 2023.
[32] «Piattaforma intelligenza artificiale per l’assistenza sanitaria al via la fase finale della procedura per la realizzazione. Aggiornamento: gara sospesa », healthtech360.it, 22 gennaio 2024.
[33] «Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale», Garante per la protezione dei dati personali, settembre 2023.
[34] P. Cardillo, «Intelligenza Artificiale e dati sanitari: il Decalogo del Garante privacy», forumpa.it, 13 ottobre 2023.
[35] D. Collingridge, Il controllo sociale della tecnologia, Editori Riuniti, 1983.
[36] AGID – Agenzia per l’Italia digitale, «Piano triennale per l’informatica nella pubblica amministrazione», dicembre 2023.
[37] D. Dalfino, op. cit.
[38] Sui temi dell’impatto sulle forze lavoro dell’IA vedi [1] M. Petrocelli, «Riflessioni dall’Employment Outlook 2023 dell’OCSE», forumpa.it. 14 dicembre 2023.
[39] “Con queste premesse, la tentazione facile è quella classica in Italia quando si parla di Informatica: delegare i servizi di Intelligenza Artificiale a compagnie esterne (quasi sempre straniere) che hanno grande esperienza nel settore. Difficilissimo però, come evidenziato, da conciliare con la salvaguardia dei dati privati del cittadino. È la linea digitale del Piave che non possiamo permetterci come Paese che venga oltrepassata. Per tutti questi motivi, la pubblica amministrazione deve attrezzarsi, e con la massima urgenza, per generare competenze interne nella creazione e gestione di servizi basati sull’Intelligenza Artificiale. Formazione e continuo aggiornamento tecnologico pratico sono fondamentali per rispondere a questo bisogno”. V. Di Nicola, «INPS: “Ecco come usiamo l’IA a vantaggio dei cittadini”». Op. cit.
[40] D. Epstein, Generalisti: Perché una conoscenza allargata, flessibile e trasversale è la chiave per il futuro, LUISS University Press, 2020.
[41] “La rivoluzione in atto sta anche trasformando il mondo del lavoro, aumentando l’obsolescenza delle competenze e delle professioni. Le macchine tendono a sostituire via via l’uomo non solo in attività ripetitive ma anche in processi di analisi e talvolta decisionali, mentre vengono valorizzate le competenze connesse con la creatività, il pensiero laterale, la capacità empatica, relazionale e comunicativa. Ma le organizzazioni ed i sistemi scolastici non favoriscono l’emergere di queste competenze anzi, piuttosto, finiscono per distruggere valore, ostinandosi a replicare modelli che conoscono, ma che nel nuovo contesto sono, semplicemente, sbagliati”. M. Petrocelli, Incoscienza digitale. La risposta alla rivoluzione digitale tra innovazione, sorveglianza e postdemocrazia. Lastaria Edizioni, 2022.
[42] A. Naddeo, «L’apprendistato nel pubblico impiego, un contratto per aprire ai giovani», antonionaddeo.blog.
[43] J. Gothelf e J.Seiden, Sense & respond. Adattate continuamente il ritmo del vostro business a quello del mondo. Guerini Next, 2018.
[44] P. De Moree e J. Minnaar, Corporate rebels. 8 modi per trasformare radicalmente il lavoro, Rubettino, 2020.
[45] A. Edmondson, Organizzazioni senza paura, Franco Angeli. 2020.
[46] Complessivamente il tema l’ho affrontato in Dominici, Gianni, «I giovani in una PA senza paura. Realtà o mistificazione?», 1 settembre 2023.
[47] Da query su ChatOn AI: “Il Goldilocks effect, o effetto Goldilocks, si riferisce a una situazione in cui una certa quantità o condizione è ottimale o ideale, né troppo grande né troppo piccola. Prende il nome dal famoso racconto di Goldilocks e i tre orsi, in cui la protagonista cerca il cibo e l’arredamento che siano “giusti” per lei. Nel contesto scientifico, il Goldilocks effect viene spesso utilizzato per descrivere un equilibrio o una condizione ottimale necessaria per il funzionamento di un sistema o per ottenere un risultato desiderato. Ad esempio, nell’astrobiologia, si fa riferimento all’effetto Goldilocks per descrivere la fascia di abitabilità di un pianeta, cioè la regione in cui le condizioni sono giuste per sostenere la vita come la conosciamo. L’effetto Goldilocks può essere applicato a molti altri ambiti, come l’economia, la fisica, la chimica e persino la psicologia. In ogni caso, l’idea principale è che ci sia un punto ottimale o una gamma di valori che garantiscono il miglior risultato o l’equilibrio desiderato.”
[48] D. Leo, «Come non fare confusione tra le tre commissioni sull’intelligenza artificiale», Pagella Politica. 8 gennaio 2024.
[49] Camera dei Deputati, «Intelligenza artificiale a supporto del lavoro parlamentare – Rapporto del Comitato sulla documentazione», webtv.camera.it. 14 febbraio 2024.
[50] M. Stentella, «Puglia: “Al via il Centro di competenza regionale sull’IA nella PA”», forumpa.it. 15 dicembre 2023.
[51] UN AI Advisory Body, «Governing AI for Humanity», Dicembre 2023.
[52] M. Stentella, «Scorza: “AI Act, abbiamo fatto un passo importante ma la meta è lontana”», forumpa.it. 15 dicembre 2023.
[53] L. Zorloni, «Abbiamo letto l’ultima versione dell’AI Act, la legge europea sull’intelligenza artificiale», Wired Italia. 23 gennaio 2024. Nel momento di pubblicazione di questo articolo (metà marzo 2024) la procedura di approvazione sembra essere arrivata a conclusione. Per un dettaglio vedi L. Sambucci, «L’AI Act godrà di una procedura parlamentare accelerata», Notizie sull’Intelligenza Artificiale, 5 marzo 2024.
[54] «Ufficio europeo per l’IA», Commissione Europea, 22 febbraio 2024.
[55] Uno dei contributori più attivi su linkedin in merito alla diffusione della IA scrive: “Going back to the internet analogy, I believe that AI of 10 or 20 years from now will be as unrecognizable to us today as the early internet of the dial-up modem and Netscape Navigator would be to a kid born in the 2000s and raised on smartphones and TikTok” in R. Muhammad Usama , Riaz «Understanding AI In 2024: Its Definition, Role, And Impact», linkedin. 25 febbraio 2024.
[56] C’è chi, come Romano Prodi in questo articolo, paragona l’avvento dell’IA a rivoluzione ancora più ampie come la produzione dell’energia elettrica. R. Prodi, «La vita italiana per l’IA e il divario da colmare», Il Messaggero, p. 23, 2 marzo 2024.
[57] “[w]ith rapid digital technological change, it is inevitable for the government to innovate its traditional methods in order to achieve better citizen engagement, accountability, and interoperability (…)”. in G. D. Sharma, A. Yadav, e R. Chopra, «Artificial intelligence and effective governance: A review, critique and research agenda», Sustainable Futures, vol. 2, p. 100004, gen. 2020.
[58] A. Kankanhalli, Y. Charalabidis, e S. Mellouli, «IoT and AI for Smart Government: A Research Agenda», Government Information Quarterly, vol. 36, fasc. 2, pp. 304–309, apr. 2019.
[59] In C. Cutuli, C. Rossi, e A. Deiana, Op. cit.
[60] M. Petrocelli, «La PA empatica nell’era Post-digitale», forumpa.it, 22 febbraio 2024.
[61] C. Landry e M. Caust, The Creative Bureaucracy & its Radical Common Sense: 9. Comedia, 2017.
[62] L. Quattrucci, «I governi dovrebbero concentrarsi sull’adozione dell’IA», forumpa.it, 29 febbraio 2024.
CAMPUS IA PER LA PA | MARTEDÌ 23 APRILE – ORE 9:00
Normativa e impieghi attuali, prospettive future e metodologie
Nel settore pubblico, come confermato dal nuovo Piano Triennale AgID, occorre fare in fretta per acquisire quelle competenze e quella consapevolezza necessarie per essere in grado di stabilire un approccio basato sul rischio che mitighi ogni eventuale criticità legata all’uso dell’Intelligenza artificiale. Ma da dove partire, per non rimanere indietro? Il mini-campus di FPA Digital School prepara dirigenti, funzionari e in generali tutti i civil servant che aspirano a diventare protagonisti e non solo spettatori del cambiamento con 4 ore di formazione in sincrono con docenti esperti. Appuntamento martedì 23 aprile dalle 9:00 alle 13:00. Per iscriverti contatta fpadigitalschool@forumpa.it o chiama il numero 0668425266
20 Novembre 2024