IA generativa: quale approccio da parte dei governi? Intervista ad Aaron Maniam, Università di Oxford
I governi non devono solo regolamentare l’IA, ma anche diventare utenti e facilitatori efficaci della tecnologia. È uno degli spunti emersi dall’intervista ad Aaron Maniam, Fellow of Practice e Director, Digital Transformation Education, Blavatnik School of Government, University of Oxford, la cui versione originale è stata pubblicata su Apolitical e di cui l’autore ci ha concesso la pubblicazione, con introduzione e traduzione a cura di Andrea Tironi
19 Luglio 2024
Leonardo Quattrucci
Business to Government Strategist
Andrea Tironi
Project manager Digital Transformation, Consorzio.IT
Leonardo Quattrucci di Apolitical ha recentemente parlato con il dottor Aaron Maniam, Fellow of Practice e Director, Digital Transformation Education, Blavatnik School of Government, University of Oxford, di come i governi di tutto il mondo potrebbero affrontare le nuove tecnologie come l’IA generativa. L’articolo è stato pubblicato in inglese su Apolitical e viene riportato qui con una piccola introduzione del traduttore.
Nell’intervista, Aaron ha discusso il ruolo dei governi nell’affrontare le nuove tecnologie, in particolare l’intelligenza artificiale generativa. Maniam ha sottolineato che i governi non devono solo regolamentare l’IA, ma anche diventare utenti e facilitatori efficaci della tecnologia. Ha evidenziato la necessità per i governi di dotarsi di personale con competenze tecniche e di leader capaci di comprendere il funzionamento delle tecnologie per connetterle agli obiettivi governativi. Maniam ha anche affrontato le sfide legate alla transizione tecnologica, tra cui la burocrazia, la mancanza di talenti e le guerre culturali, sottolineando l’importanza di adottare nuove metafore per il governo, come quella dell’ecologia, per affrontare i rapidi cambiamenti portati dalla tecnologia. Cercare uno stato di equilibrio probabilmente non ha senso: il governo è un viaggio continuo in ambienti mai normali. Ha concluso consigliando ai dipendenti pubblici di bilanciare ottimismo e cautela nella loro gestione delle innovazioni tecnologiche.
Ecco l’intervista completa.
Aaron Maniam si occupa di questioni legate alla tecnologia, alle politiche pubbliche e alla pubblica amministrazione. Co-presiede il Global Future Council del World Economic Forum sul futuro della politica tecnologica ed è membro del gruppo di esperti dell’OCSE sui futuri dell’intelligenza artificiale (AI). In precedenza, è stato responsabile delle politiche del governo di Singapore e, più recentemente, è stato vicesegretario (Industria e Internazionale) presso il Ministero delle Comunicazioni e dell’Informazione di Singapore, supervisionando le attività del ministero in materia di economia digitale, alfabetizzazione e inclusione digitale e diplomazia digitale. Il dottorato di Aaron presso la Blavatnik School of Government ha messo a confronto il lavoro di Stati digitali leader come Estonia, Nuova Zelanda e Singapore.
Aaron, puoi pensare all’IA da più prospettive: come funzionario pubblico e accademico.
Parlaci un po’ del tuo percorso professionale e di come si interseca con l’IA nel governo
Ho iniziato a esplorare il tema dell’IA nel 2010, durante il mio incarico di responsabile del Centre for Strategic Futures del governo di Singapore. All’epoca, l’IA – e la tecnologia in generale – svolgevano un ruolo cruciale nel delineare i potenziali scenari futuri che il Centro studiava. Con l’evolversi della mia carriera, la mia attenzione si è spostata sulle competenze di cui i leader governativi avranno bisogno in futuro. Ad esempio, come sarà l’economia del futuro? Come possono i governi utilizzare, abilitare e regolare meglio la tecnologia? Ora, presso la Blavatnik School of Government di Oxford, cerco di collegare queste intuizioni per il governo e di impegnarmi con la più ampia comunità accademica che ricerca gli impatti tecnici e socio-tecnici dell’IA a livello globale.
L’IA generativa ha reso l’IA molto più accessibile. Si discute molto su come governare l’IA, soprattutto in un anno di elezioni. Ciò di cui si discute meno è come l’IA generativa possa essere utilizzata per migliorare la competitività e le prestazioni dei governi. Come possono – e devono – i governi riequipaggiarsi in questa nuova era dell’IA?
È una domanda molto importante. Per lo più, i governi sono bravi ad assumere un ruolo di regolamentazione. Questo non significa che progettino sempre delle ottime normative, ma che capiscano il loro ruolo in questo ambito.
Credo che i governi possano svolgere altri due ruoli, molto meno compresi: quello di utenti e quello di facilitatori della tecnologia. I Paesi economicamente più competitivi comprendono il ruolo di abilitazione, perché sanno che il governo è fondamentale per creare un ambiente favorevole. Ma quando si parla di governo come utente dell’IA, trovo che sia ancora un’area in cui i governi sono relativamente deboli. Credo che la vera domanda che dovremmo porci non sia “Gli esseri umani saranno sostituiti dall’IA?”, ma “Quali aspetti del nostro lavoro può assumere l’IA in modo responsabile e con un alto livello di qualità?”.
L’IA generativa è molto brava nei compiti divergenti: compiti che richiedono la sintesi di contenuti esistenti di ampio respiro. Così, ad esempio, quando il governo cerca di fare ricerca su un problema per capire cosa c’è là fuori in termini di possibilità e idee, l’IA generativa può essere usata molto di più.
L’Intelligenza Artificiale Generativa è anche adatta ad alcuni compiti convergenti, cioè a questioni che coinvolgono aree di lavoro molto specifiche. Si tratta di attività come l’editing e la garanzia di correttezza grammaticale. L’intelligenza artificiale generativa è brava ad accorciare o allungare un lavoro e a inserire esempi aggiuntivi.
Ma dobbiamo anche riconoscere i tipi di compiti per i quali l’IA non è adatta. Questi compiti comportano una sorta di giudizio, di valutazione o di decisione su cosa dare priorità.
Non credo che l’IA generativa sia in grado di generare decisioni o di valutare le cose secondo standard elevati. È qui che l’uomo deve intervenire. Dobbiamo sapere cosa è in grado di fare e cosa no; poi farle fare il più possibile le cose che sa fare bene, in modo da liberare l’onere cognitivo, emotivo e di larghezza di banda degli esseri umani, che possono così concentrarsi molto di più su ciò che le nostre menti sono state create per fare: pensare, giudicare, valutare e formulare giudizi di livello superiore.
Quali sono le competenze e le tecnologie che i governi devono acquisire per diventare migliori utilizzatori e promotori dell’IA?
Una delle mie frasi preferite è che i governi non devono solo essere bravi a trovare i fornitori, ma devono anche essere bravi acquirenti. Si tratta di un’abilità fondamentale. Si può suddividere in tre aspetti. In primo luogo, i governi hanno bisogno che parte del loro personale abbia un’alfabetizzazione tecnica in materia di ingegneria, programmazione e codifica. Queste persone tecnicamente preparate sono quelle che faranno le domande giuste su cosa fare, cosa esternalizzare e come valutare le proposte dei possibili fornitori. In secondo luogo, è necessaria una leadership che sia anche tecnicamente informata. I leader non devono essere esperti, ma devono capire cos’è una tecnologia e come funziona in generale, in modo da poter collegare la tecnologia e il suo funzionamento alla missione e allo scopo principale dell’organizzazione. Ciò significa in parte sapere come adottare e assorbire la tecnologia, ma anche gestire il processo di cambiamento che avviene dopo l’adozione di tale tecnologia.
Il terzo aspetto è che i governi hanno bisogno di team che si occupano di appalti e contratti ben informati sulle tendenze tecnologiche. Devono capire che l’uso della tecnologia e il suo approvvigionamento comporteranno tecniche diverse rispetto all’acquisto di prodotti più standardizzati. Ciò significa, ad esempio, capire che la tecnologia è destinata a cambiare continuamente e, quindi, che i contratti non devono vincolare i governi a impegni a lungo termine. Significa consentire una contrattazione relazionale all’interno della quale i governi possano continuare a fare aggiustamenti dinamici ed evolvere la tecnologia in tempo reale.
Quello appena descritto sembra un progetto coerente. Ma il lavoro della pubblica amministrazione è spesso un po’ complicato, soprattutto nei momenti di transizione tecnologica. Quali sono i principali ostacoli o punti dolenti che i governi incontrano nell’adattarsi al cambiamento tecnologico?
Ce ne sono alcuni, e molti di questi blocchi esistono perché il governo digitale è ancora un governo. Ha tutte le possibilità e le potenzialità del governo, ma anche le stesse patologie, insidie, manie e difetti. Uno dei principali ostacoli è l’eccessiva enfasi sulla burocrazia: i governi finiscono per impedirsi di adattarsi bene alla transizione tecnologica perché le vecchie regole non si evolvono abbastanza rapidamente. Inoltre, a volte il governo si concentra più su ciò che può fornire che su ciò di cui gli utenti hanno bisogno. E credo che quando non ci si concentra sulla progettazione centrata sull’utente, a volte si finisce per fornire i prodotti sbagliati e per non adattarsi bene alle transizioni tecnologiche.
Le strutture preesistenti sono un secondo ostacolo. La maggior parte dei sistemi ha strutture già esistenti. I governi devono capire quali parti di questi sistemi devono adattarsi. Questo è il tipo di infrastruttura nazionale intelligente che Singapore sta cercando di costruire. Le strutture preesistenti possono essere molto pericolose, se ci bloccano in pratiche e mentalità esistenti.
Un altro problema è la mancanza di talenti. Non avere i talenti e le competenze giuste può ostacolare l’adozione della tecnologia. Una manifestazione di questa mancanza di talenti è che i governi inavvertitamente intraprendono progetti molto, molto grandi, con tempi e costi significativi. Tali progetti sono quasi sempre destinati a fallire; quando si finisce anche solo una parte di quel grande progetto, la tecnologia lo avrà già superato.
I progetti modulari funzionano meglio, perché possono essere modificati e adattati con velocità e prontezza. Con questi progetti, la transizione procede spesso in modo molto più fluido, perché ci si adatta in tempo reale a ciò che è in circolazione.
A proposito di velocità ed evoluzione…Quello che i governi sono abituati a fare è cercare le migliori pratiche. Ma in un momento in cui le sfide che devono affrontare diventano sempre più complesse, dovranno adottare nuovi modi di pensare e di operare, come lei descrive. Per questo motivo il suo recente lavoro è incentrato sulle metafore. Le dispiacerebbe parlarci un po’ di questo argomento e di quali nuove metafore hanno bisogno i governi per l’IA generativa?
Hai ragione sull’influenza delle metafore sul nostro pensiero e sul loro impatto su ciò che diamo priorità ed enfasi all’interno di un sistema. L’introduzione di nuove metafore ci permette di evidenziare aspetti diversi. Potremmo iniziare considerando le metafore tradizionali del governo, come il “Leviatano”, un’entità mostruosa e di grandi dimensioni descritta nella Bibbia ebraica, che simboleggia le vaste dimensioni e la scala del governo. Un’altra è la “gabbia di ferro” della burocrazia di Weber, che si riferisce alle regole rigide e vincolanti che governano il funzionamento dei burocrati. Donald Kettl ha introdotto una metafora più moderna e populista, paragonando il governo a un “distributore automatico” che fornisce ai cittadini ciò che desiderano purché paghino le tasse, indipendentemente dal fatto che sia vantaggioso per loro.
Tuttavia, abbiamo bisogno di modi più sfumati di vedere il governo. Ad esempio, Anne-Marie Slaughter suggerisce di pensare al governo come a una “rete” e Tim O’Reilly ha ampiamente discusso il concetto di governo come “piattaforma”. Queste metafore sottolineano l’interconnessione e gli effetti abilitanti del governo come ospite di nuove idee e istituzioni.
Apprezzo particolarmente la visione del governo come un viaggio, un percorso che gli individui intraprendono dalla nascita alla morte, con il settore pubblico che svolge un ruolo di supporto in varie fasi. Ciò include la risposta a eventi significativi della vita come la scolarizzazione, il matrimonio, l’acquisto di una casa, la malattia e l’assistenza alla fine della vita. Questa metafora sottolinea le varie interazioni che gli individui hanno con il settore pubblico e privato nel corso della loro vita.
La mia metafora preferita, tuttavia, è quella dell’ecologia. Siamo tutti parte di un sistema complesso che si auto-rinnova, in cui diverse componenti possono morire e altre rinascere. La governance, in questo senso, implica che ognuno svolga ruoli unici all’interno di un sistema ecologico, contribuendo in modo dinamico. A differenza di un’ecologia naturale in cui il leone mangia la gazzella senza conseguenze, la nostra è un’ecologia morale in cui siamo interconnessi e responsabili gli uni degli altri. La tecnologia migliora questa visione, mettendoci in contatto con un numero di persone molto maggiore rispetto al passato, che può approfondire la comprensione delle nostre interconnessioni ecologiche e rafforzarle.
Nei momenti di transizione, è facile concentrarsi sugli alberi piuttosto che considerare l’intera foresta, il che porta a trascurare i problemi o i malintesi. Quali sono, secondo lei, le sfide più trascurate dal governo in questo momento di transizione dell’IA? E dove e come dovrebbero iniziare ad affrontarle?
Come ho detto, il governo digitale è ancora un governo, con silos, burocrazia, enfasi sulle regole, ecc. Penso che queste siano patologie contro cui i governi devono davvero spingere, soprattutto quando la tecnologia sta democratizzando l’accesso alle informazioni.
Penso che le guerre culturali siano una seconda sfida trascurata. La politica dell’identità è oggi molto più diffusa e pervasiva che mai e sta plasmando il modo in cui i governi comunicano con i cittadini. Ad esempio, i governi possono spiegare alle persone perché le loro convinzioni identitarie e ideologiche sono sbagliate, ma questo non farà cambiare loro idea. Anzi, è molto più probabile che si rafforzino le loro convinzioni prevalenti. In definitiva, i cittadini hanno bisogno che i governi rispondano alle loro esigenze di esseri umani e credo che i governi che cercano di affrontare le guerre culturali in modo più empatico abbiano maggiori probabilità di successo.
Una terza sfida deriva dal fatto che oggi i governi non hanno quasi mai a che fare con un equilibrio stabile. Spesso siamo addestrati a cercare di raggiungere quello che viene definito uno stato stazionario. Ma, in realtà, non esiste uno stato stabile. Ci sono equilibri instabili, problemi e possibilità sempre nuovi che emergono da un cambiamento discontinuo. Mi piace descrivere questa situazione come l’emergere non di “nuovi normali”, ma di ambienti “mai normali”, perché si è sempre in evoluzione e si passa sempre a un nuovo livello di prestazioni, o almeno a una nuova serie di tecnologie. Il modo in cui affrontiamo questa situazione è molto diverso da quello in cui affrontiamo progetti chiari o piani quinquennali. Non si tratta nemmeno di avere dei manifesti chiari, che possono cambiare con l’evolversi della politica e degli ambienti operativi. Penso che dobbiamo prepararci al fatto che la vita non sarà mai stabilmente normale. Ci saranno sempre nuove evoluzioni, nuovi percorsi e traiettorie su cui la tecnologia ci porterà. E il ruolo del governo è in parte quello di tenere il passo, se possibile. Se non è possibile, almeno essere in grado di rispondere rapidamente quando le circostanze cambiano.
In qualità di ex funzionario pubblico, quali consigli darebbe ai dipendenti pubblici di oggi su come imparare e stare al passo con la tecnologia dell’intelligenza artificiale in modo efficace?
Nella vita bisogna bilanciare ottimismo e cautela. Immaginare il meglio, ma anche pianificare il peggio. Questo vale per tutto ciò che riguarda la pubblica amministrazione. Quanto più si riesce a immaginare e a sfruttare il meglio, tanto più si può approfittare del potenziale di crescita di qualsiasi tendenza. Potrebbe essere la tecnologia. Potrebbe essere il coinvolgimento dei cittadini. Potrebbe essere qualsiasi tipo di nuovo problema emergente, ma dobbiamo sempre pianificare il peggio. I governi che non lo fanno sono irresponsabili.
Ma in realtà devono essere entrambe le cose. Se si guarda solo ai rischi o al lato negativo, si perde la speranza o l’immaginazione. Se si guarda al lato positivo, si diventa sconsiderati e irrealistici. Il buon governo consiste nel trovare la giusta via di mezzo.