GenAI nella PA: come garantire un approccio etico e inclusivo

Home PA Digitale Gestione Documentale GenAI nella PA: come garantire un approccio etico e inclusivo

La GenAI offre molteplici vantaggi alle PA, tuttavia è essenziale non trascurare le sfide etiche associate alla tecnologia ed è indispensabile affrontarle in modo proattivo. Solo così sarà possibile cogliere appieno il potenziale delle soluzioni in commercio, garantendo al contempo il rispetto dei diritti e dei valori fondamentali dei cittadini. Eva Adina Maria Mengoli, Managing Director di Adobe Italia: “Solo con un approccio consapevole e completo all’etica dell’AI, questa tecnologia può essere sviluppata nel rispetto di tutti i cittadini”

28 Giugno 2024

O

Paola Orecchia

Giornalista

B

Eleonora Bove

Digital Content Strategist, FPA

Foto di jesse orrico su Unsplash - https://unsplash.com/it/foto/fotografia-in-scala-di-grigi-di-ragazzi-che-alzano-la-mano-mse1vdzZXjA

L’intelligenza artificiale sta rivoluzionando le nostre interazioni digitali e il modo in cui creiamo contenuti. Occorre andare oltre l’idea della AI come rapida risoluzione di un impegno contingente, per scoprire come sfruttare il potenziale del GenAI per creare valore duraturo e concretamente rivoluzionario, a beneficio della collettività.  “L’intelligenza artificiale sta trasformando il nostro modo di creare, lavorare e comunicare – dichiara a FPA Eva Adina Maria Mengoli, Managing Director di Adobe Italia -. Solo attraverso un approccio consapevole e completo all’etica dell’AI, questa tecnologia può essere sviluppata in modo responsabile a beneficio di tutti i cittadini. Le aziende come Adobe hanno un ruolo che va oltre la creazione della tecnologia”.

Quanto è diffusa l’AI e quanto vale il suo mercato

La pubblica amministrazione può beneficiare in maniera significativa dall’implementazione di soluzioni integrate con l’AI. I benefici vanno dall’aumento della produttività, alla semplificazione dei processi, dalla maggiore valorizzazione del lavoro delle persone fino ad arrivare ai cittadini, offrendo loro servizi più agili.

Una recente ricerca di FPA rivela che l’85% dei dipendenti pubblici italiani ha già utilizzato strumenti di intelligenza artificiale: chatbot e assistenti virtuali (nel 68% dei casi), app per scrivere testi o fare traduzioni (51%) app per creare immagini (30%), soluzioni di AI generativa per la produttività personale, tool per l’automazione delle pratiche amministrative (28%) e programmi per la scrittura di e-mail o post social (28%). “Con Document Cloud, ad esempio, le funzionalità abilitate dall’IA aiutano a comprendere la struttura dei PDF per assistere gli utenti nella visualizzazione, ricerca e modifica dei documenti su qualsiasi piattaforma. Ne beneficia la produttività, ma soprattutto si valorizza il lavoro delle persone che possono dedicarsi ad attività di maggiore valore” ci dice Paolo Conti, Head of Government di Adobe Italia.

Non è un caso che siano previsti incrementi di strumenti di AI in ogni contesto produttivo e dunque anche nella PA. Statista ne quantifica il trend: il mercato europeo dell’AI vale oltre 42 miliardi di euro nel 2024 e crescerà fino al valore di 191,48 miliardi entro la fine del 2030.  In Italia, nello specifico, è previsto un aumento dai 3,52 ai 15,85 miliardi di euro nello stesso lasso di tempo.

GenAI nella PA: attenzione ai bias

L’uomo pensa, sviluppa gli algoritmi, addestra le macchine e “le guida” verso la creazione veloce di prodotti intellettuali. Va tenuto conto chel’AI non discrimina e non inventa nulla, bensì si basa sui dati che gli vengono forniti in fase di addestramento, informazioni che anche involontariamente potrebbero essere errate (i bias) o valide in alcuni contesti e non in altri. Oppure, il tool potrebbe rivelare per errore dati sensibili. “Fin dalla fase di progettazione vanno valutati gli impatti e le conseguenze dell’implementazione dell’AI – dichiara Paolo Conti -. Questo include la progettazione per l’inclusività, la valutazione degli effetti di risultati potenzialmente ingiusti, discriminatori o inaccurati che potrebbero perpetuare pregiudizi dannosi e stereotipi”. Un tema centrale nel valutare l’adozione dei GenAI tool all’interno della PA.

Quali rischi nell’utilizzo poco attento o improprio della GenAI

Il documento “Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence” pubblicato dalla agenzia governativa statunitense NIST definisce i rischi dall’uso dell’AI generativa. Al vertice, troviamo quelli che non sono nemmeno noti e quindi difficili da valutare oppure conosciuti, ma difficile valutarne l’impatto. A ciò si aggiunge che i sistemi di AI generativa presentano rischi anche per la privacy, poiché possono involontariamente rivelare informazioni sensibili sulle persone. L’utilizzo di modelli per l’addestramento dei tool basati su dati provenienti da diverse fonti non note, comporta rischi di non conformità alle normative sulla privacy.

In questo ambito, la scelta del giusto partner tecnologico si rivela determinante: “Adobe adotta processi di responsabilità che includono la trasparenza sulle pratiche di raccolta dati, lo sviluppo dei modelli, i processi di accountability e la divulgazione generale sull’uso dei dati e dell’IA nei loro strumenti e servizi. La responsabilità, che sappiamo di avere, è uno dei principi che guidano il lavoro che stiamo facendo” dichiara Eva Adina Maria Mengoli, Managing Director di Adobe Italia.

Difatti alcuni modelli creati senza attenzione alla responsabilità e all’etica riescono a dedurre informazioni personali non presenti nei dati di addestramento.

“Vorrei fare un altro esempio: Acrobat AI Assistant lavora solo su documenti forniti dagli utenti, così da proteggere i dati utilizzati per scopi non intenzionali. Non viene utilizzato alcun contenuto dei documenti dei clienti Adobe per addestrare l’AI Assistant di Acrobat” precisa Paolo Conti, Head of Government di Adobe Italia.

GenAI, responsabilità e trasparenza

L’AI rappresenta una svolta significativa, ma l’adozione di tali tecnologie deve avvenire nel rispetto di principi etici fondamentali, quali responsabilità, accountability e trasparenza ad esempio anche nella verifica sulla provenienza ed autenticità dei contenuti digitali, obiettivo della Content Authenticity Initiative che vede Adobe tra i suoi membri. Solo attraverso un approccio etico e inclusivo possiamo garantire che l’IA non solo migliori le nostre esperienze digitali, ma promuova anche un uso equo e sicuro dei dati. “L’impegno verso questi valori è essenziale per costruire un futuro in cui l’innovazione tecnologica e l’etica coesistano, beneficiandone sia le organizzazioni che la società nel suo complesso” conclude Eva Adina Maria Mengoli, Managing Director di Adobe Italia.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Su questo argomento

Servizi pubblici, i limiti dei sistemi legacy: l'impatto dell'intelligenza artificiale e del low code sulla citizen experience