Contrastare la disinformazione nell’era dell’IA: il ruolo (cruciale) delle istituzioni pubbliche passa per la consapevolezza

Home Open Government Comunicazione Pubblica Contrastare la disinformazione nell’era dell’IA: il ruolo (cruciale) delle istituzioni pubbliche passa per la consapevolezza

Non avendo alcuna certezza degli sviluppi futuri e dell’impatto che l’intelligenza artificiale avrà sul contesto occupazionale e più in generale sul modello occidentale democratico di sfera pubblica digitalizzata, non ci rimane che ripartire da una parola: consapevolezza

26 Febbraio 2025

B

Roberto Bortone

Sociologo, esperto di tecnologia e diritti umani, funzionario UNAR

Foto di Gabriel Sollmann su Unsplash - https://unsplash.com/it/foto/persone-che-camminano-allinterno-della-biblioteca-Y7d265_7i08

Questo articolo è tratto dal capitolo “Comunicazione pubblica” dell’Annual Report 2024 di FPA (la pubblicazione è disponibile online gratuitamente, previa registrazione


Negli Stati Uniti, negli ultimi venti anni, la produzione e il consumo della conoscenza hanno subito una riorganizzazione simile a quella che mezzo secolo fa ha sconvolto il mondo del cibo con l’avvento della grande distribuzione. Non a caso oggi parliamo di “diete mediatiche” per indicare modalità di fruizione e preferenze dei consumatori in materia di intrattenimento e informazione. Restando ancora negli USA, siamo appena usciti da una travolgente tornata elettorale in cui l’appoggio dell’oligarca digitale Elon Musk potrebbe aver contribuito in modo decisivo all’elezione di Donald Trump: il 70 per cento degli americani accede alle notizie esclusivamente mediante i social network, per lo più attraverso Facebook, Instagram e TikTok, e i due terzi di tutto il traffico verso i siti di informazione passa per Google mentre la spesa per le inserzioni sui quotidiani cartacei è crollata di quasi il 75%[1]. Inoltre, il numero di giornalisti impiegati nei quotidiani (cartacei e online) è sceso da 71.000 nel 2008 a circa 31.000 nel 2020, evidenziando un crollo di oltre 50 punti percentuali in poco più di un decennio. Il nostro Paese è attraversato da una tendenza assolutamente analoga.

Secondo il Censis gli italiani con “diete mediatiche” aperte a internet, ma prive dei mezzi a stampa (libri e giornali), sono passati dal 6 per cento del 2006 a quasi il 40% del 2024. In poco più di dieci anni questo numero di persone “info-intrattenute” (più che informate) è più che quintuplicato, rappresentando così uno dei fenomeni culturali più clamorosi e più sottaciuti dell’ultimo decennio[2]. Anche la fruizione dei telegiornali è sprofondata in pochissimo tempo: dall’80% del 2011 al 48% del 2024.

“L’arte della stampa diffonderà la conoscenza a tal punto che la gente comune, conoscendo i propri diritti e le proprie libertà, non potrà più essere governata per mezzo dell’oppressione.”

— Un pamphlet utopista, Macaria, pubblicato nel 1641

Del resto, la trasformazione digitale dell’informazione è stata così veloce da stravolgere sia i produttori (i mass media cosiddetti “tradizionali”) che i fruitori delle notizie (noi, membri della sfera pubblica). Nel 1991 c’era un solo sito web al mondo, quello di Berners-Lee, il ricercatore del CERN inventore del World Wide Web. L’anno seguente, ne vennero aperti altri 9. Nel 1993 erano 130. Nel 1994, 2.738. L’anno seguente, 23.500. Nel 1996, 25.7601. Oggi quel numero è di 1,7 miliardi e in aumento, sebbene solo circa 200 milioni siano attivi. Oggi in un solo minuto su Internet accade questo: 5 milioni di ricerche inoltrate su Google (per un totale di 8 miliardi di ricerche giornaliere), 150 milioni di e-mail inviate, 2 milione di tweet, 70.000 ore di video guardati su Netflix, 40.000 ore di musica ascoltata su Spotify, 5 milioni di video visualizzati su YouTube. E non possiamo nemmeno lontanamente immaginare il volume degli scambi informativi che hanno luogo su una piattaforma come WhatsApp, che solo in Italia conta più di 34 milioni di utenti attivi.

Oggi il normale disorientamento provato di fronte a milioni di stimoli informativi (information overload) è rafforzato in molte persone da altri fenomeni. Il primo è noto come analfabetismo funzionale: saper leggere e scrivere senza capire cosa si legge o scrive. Condizione che caratterizza drammaticamente il 28% della popolazione italiana (dopo di noi solo la Turchia) e che si salda con un nuovo subdolo digital divide, vero paradosso di una digitalizzazione che avevamo previsto come democratica e progressista, magistralmente descritto da Ghidini, Massolo e Manca nel loro volume sulla nuova civiltà digitale: «quello scarto tra le infinite possibilità di approfondimento delle conoscenze che la rete apre in tutti i campi del sapere e la effettiva crescente (auto?) esclusione da tali possibilità di una grande fetta della popolazione anche delle giovani generazioni […]; il rischio imminente più grave è quello della perdita di capacità di “pensare complesso”, di criticare e criticarsi, di dubitare, di confrontare, di scavare e di non accontentarsi di quel che si è appreso. Il rischio che si profila in una prospettiva di medio-lungo termine è quello di un nuovo e “inverso” digital divide, in cui un vasto “sottoproletariato digitale” si fronteggerà con una élite in possesso sia delle tecnologie digitali sia delle conoscenze superiori […]. Non cerchiamo rimedi significativi a questa deriva contando sulla buona coscienza delle grandi piattaforme digitali.»[3]

È in questo contesto di sovrabbondanza di informazione di scarsa qualità, nel quale mancano a molti gli strumenti cognitivi per discernere ciò che è vero o falso, in cui scarseggiano le soft skill digitali per risalire la china del divario digitale, che si forma l’humus, il brodo di coltura dei cospirazionisti, dei complottisti, dei terrapiattisti, dei no-vax e dei cosiddetti “odiatori” (haters), pronti a sfogare il proprio risentimento o desiderio di intrattenimento cadendo, senza nemmeno accorgersene (in stile Matrix), nelle intricate maglie della disinformazione, della propaganda digitale, in un mondo senza più fatti univoci, senza verità oggettive. Internet, come lo hanno conosciuto coloro che sono nati prima del 1985, con le sue aspettative di democratizzazione dell’informazione, della cultura, dei diritti umani, con le spinte acentriche di partecipazione attiva dei cittadini, non esiste più da molti anni ormai.

La vasta privatizzazione del Web, realizzata da un ristretto gruppo di società inizialmente avviate come start-up e divenute poi veri e propri oligarchi della Rete, a partire dai primi anni del nuovo millennio, è un fenomeno che resta ancora da comprendere e assimilare pienamente. Questo modello di business – ancora intriso di una parvenza di libertà e democraticità che caratterizzava il web delle origini – si è affermato come lo schema dominante, capace di orientare gli utenti verso un accesso “immediato e totale”, laddove il caos della troppa informazione pareva rendere tale obiettivo irraggiungibile. Tale sistema, peraltro, spesso ha algoritmicamente tollerato – se non valorizzato proprio quei contenuti tossici e falsi che, non a caso, sembravano soddisfare le preferenze dell’audience in modo tanto mirato quanto inquietante.

E proprio la nuova elezione di Trump alla Casa Bianca ci ricorda che gli anni d’oro della postverità, del fake rivendicato come elemento identitario, potrebbero non essere terminati. Se il mal di testa non ha ancora oscurato la possibilità di proseguire nella lettura di questo breve articolo, è bene anticipare che la situazione sta per peggiorare. Tutto ciò che è stato appena detto era valido, nel bene e nel male, fino a ieri.

Oggi viviamo in un’era oltremodo diversa, quella dell’intelligenza artificiale (IA), quell’insieme di tecniche e approcci scientifici in grado di trasformare ancora più radicalmente anche il modo in cui produciamo, consumiamo e diffondiamo informazioni. Abitiamo un mondo in cui termini come Large Language Model (LLM), IA generativa e NLP (Natural Language Processing) ci circondano, anche se spesso non ne comprendiamo il significato. Perché l’IA è ovunque: dall’Artificial Intelligence of Things (AIoT) alle chatbots, tra poco anche nel fact-checking, passando per l’analisi dei Big Data e il data mining, le nostre vite sono sempre più data driven. Assistiamo all’evoluzione dei forecasting algorithm e dell’Intelligent Data Processing(IDP), mentre ci scontriamo con fenomeni dal sapore antico come i deepfake e il deep learning, senza dimenticare il Test di Turing che ci interroga su cosa sia davvero umano.

Privacy, sicurezza e controllo sembrano solo un’illusione in un mondo fatto di cloud computing, dove l’informazione è processata a una velocità che lascia molti con un profondo senso di smarrimento.

Lo stesso giramento di testa che proviamo nel pensare di conoscere le tecnologie digitali di comunicazione mentre si fa strada la consapevolezza (più inconscia) che non le conosciamo affatto, come è ben descritto da Luca Bolognini nel suo saggio sull’intelligenza artificiale: «Stiamo lasciando succedere qualcosa di epocale e potenzialmente devastante per l’essere umano. […] Sento il bisogno di una chiave di lettura […] resistente tanto alla ruggine del pessimismo analogico quanto all’ossidazione dell’ottimismo digitale […]; mi manca quasi il respiro e l’orientamento in questa immersione rimescolante tra elementi digitali che contaminano il mio essere umano, fisico e psichico post-analogico. È davvero un caos. “Fermate il mondo, voglio scendere”, diceva quel tale. Voi riuscite a orientarvi? A staccare la spina elettronica?..”[4]

Prima dell’avvento delle big company dei social network, a lavorare sull’IA, per moltissimi anni, erano stati solo pochi scienziati, che avevano costituito una piccola e interessante sottocultura. La sociologa Sherry Turkle studiò la loro attività in un libro divenuto un classico: The second Self[5]. Grazie al suo osservatorio diretto all’interno del MIT, la Turkle ebbe modo di analizzare gli studiosi di intelligenza artificiale da vicino. «L’intelligenza artificiale» – fu la sua conclusione – «non era solo una nobile sfida tra ingegneri ma un’ideologia: un nuovo modo per comprendere quasi tutto»[6], paragonabile ad una vera e propria ideologia. Secondo la Turkle, in ogni ideologia è possibile rintracciare un concetto centrale che riorganizza la comprensione: per i freudiani è stato l’inconscio, per i marxisti i rapporti con i mezzi di produzione. Per i ricercatori di IA l’idea di programmare software ha un valore trascendente: è considerata la chiave, il termine finora mancante per sbloccare i misteri dell’intelletto. Anche in questa nuova corsa all’oro dell’IA, i principali attori e architetti – diremmo meglio, gli ideologi – sono i leader imprenditoriali alla guida di imperi quali Google, Apple, Facebook/Meta, Amazon (GAFA o GAMA) affiancati da Microsoft (in questo caso parliamo di MAGAF), dai loro omologhi asiatici BATX (Baidu, Alibaba, Tencent, and Xiaomi) e a cui non possiamo non aggiungere OpenAI (in sostanza una “partecipata” che ha preso il sopravvento).

La necessità di una regolamentazione dello sviluppo delle intelligenze artificiali e, in modo particolare, del loro utilizzo da parte degli utenti finali è sotto gli occhi di tutti. Le preoccupazioni a cui i legislatori devono rispondere sono molteplici. Dallo stravolgimento di interi settori e filiere produttive, all’impiego massivo di strumenti di riconoscimento facciale negli spazi pubblici (come quelli adottati in Cina), fino alla profilazione dei cittadini. Emerge così la questione di definizione di un modello etico e “occidentale” per l’utilizzo dell’IA. In questo quadro va registrato positivamente come Unione Europea e Consiglio d’Europa si stiano muovendo all’unisono per raggiungere una regolamentazione in grado di realizzare una tecnologia umano-centrica, affidabile e rispettosa dei diritti umani[7]. “Gli Stati Uniti innovano, i cinesi copiano e l’Europa regolamenta”, è un detto ricorrente negli ambienti della diplomazia del digitale che non si discosta molto dal vero. Lo dimostra l’importante successo rappresentato dal General Data Protection Regulation (GDPR), entrato in vigore il 25 maggio 2018, che ha stabilito regole rigorose per la raccolta, il trattamento e la protezione dei dati personali all’interno dell’UE e per tutte le organizzazioni che trattano dati di cittadini europei, anche al di fuori dell’Unione e che ci ha fatto scoprire il valore imprescindibile della nostra privacy (mentre la svendevamo silenziosamente e gratuitamente sul web) modificando al contempo le policy delle big company tecnologiche. Seppur estremamente tardivi (i buoi erano già scappati, il potere delle big tech è da oltre 10 anni uno strapotere superiore a quello di molti Stati), importanti passi avanti sono stati il Digital Services Act (DSA)[8] – entrato in vigore nel 2024 – e il Piano d’Azione Europeo per la Democrazia (EDAP)[9], strumenti rispettivamente normativi e di soft policy, nei quali l’Europa dimostra di aver ormai ben chiaro il ruolo decisivo delle piattaforme digitali all’interno della sfera pubblica democratica. Le definizioni e gli impegni contenuti in questi documenti perseguono il chiaro obiettivo di definire strategie e un nuovo assetto normativo anche sull’estremismo, la disinformazione, la manipolazione dei sentimenti, l’amplificazione di messaggi di odio con un cambio radicale di policy sui doveri delle grandi piattaforme che gestiscono la comunicazione digitale e la corsa all’intelligenza artificiale, orientato a richiamarle alle loro responsabilità attraverso un percorso di co-regolamentazione.

Se da un lato l’IA, in particolare quella fornita dai large language model, offre strumenti potenti per migliorare la comunicazione, l’accesso all’informazione, l’esecuzione di compiti umani ripetitivi (e non solo), dall’altro può ampiamente facilitare la proliferazione di fake news, odio e disinformazione su una scala senza precedenti. Si tratta di una sfida significativa per le istituzioni pubbliche e i comunicatori, i quali devono adattarsi e rispondere efficacemente per salvaguardare la fiducia pubblica e la coesione sociale. In questo solco si inserisce la recente approvazione dell’Artificial Intelligence Act (AI Act) che mira a creare un quadro normativo armonizzato per l’uso dell’IA nell’Unione Europea, classificando i sistemi di IA in base al livello di rischio e introducendo obblighi proporzionati per ciascuna categoria. Il tema della disinformazione legata all’intelligenza artificiale occupa un posto di rilievo. In particolare, l’AI Act affronta la questione dei sistemi di IA utilizzati per generare o manipolare contenuti, come i deepfake e altri strumenti che possono essere impiegati per diffondere disinformazione su larga scala. Questi sistemi rientrano nella categoria dei “sistemi di IA ad alto rischio” o addirittura possono essere soggetti a “divieti” se utilizzati per manipolazioni subliminali che possono causare danni significativi.

In conclusione, cosa resta da fare? Le istituzioni pubbliche, è ovvio, hanno un ruolo fondamentale nel contrastare la disinformazione. Devono non solo fornire informazioni accurate e tempestive, ma anche sviluppare competenze mediatiche (media literacy) tanto al proprio interno quanto tra i cittadini, magari utilizzando a loro volta strumenti di IA per monitorare e contrastare la diffusione di notizie false. Non avendo alcuna certezza degli sviluppi futuri e dell’impatto che l’intelligenza artificiale avrà sul contesto occupazionale e più in generale sul modello occidentale-democratico di sfera pubblica digitalizzata, non ci rimane che ripartire da una parola: consapevolezza. Su come siamo arrivati fin qui, su quali siano i fenomeni in gioco. Saper comprendere appieno e interpretare ogni passaggio descritto in queste poche righe. Per lo meno, intanto, questo.


[1] Cfr. Foer Franklin, I nuovi poteri forti. Come Google, Apple, Facebook e Amazon pensano per noi, Longanesi, Milano 2018, pag. 15.

[2] CENSIS, U.C.S.I., Quattordicesimo rapporto sulla comunicazione. I media e il nuovo immaginario collettivo, Franco Angeli, Milano 2017

[3] Cfr. Ghidini Gustavo, Manca Daniele, Massolo Alessandro, La nuova civiltà digitale. L’anima doppia della tecnologia, Solferino, Milano 2020, pag. 51.

[4] Cfr. Bolognini Luca, Follia Artificiale. Riflessioni per la resistenza dell’intelligenza umana, Rubbettino, Soveria Mannelli 2018, pag. 11.

[5] Turkle Sherry, The Second Self: Computers and the Human Spirit, MIT University Press, 2005.

[6] Ibidem, pag. 56.

[7] Cfr. La strategia europea sull’intelligenza artificiale: stato dell’arte e scenari futuri, Agenda Digitale, ottobre 2020

[8] Cfr. Digital services act, la UE a una svolta: cosa cambia per utenti, aziende e big tech, Agenda Digitale, 19 maggio 2022

[9] Cfr. Commissione europea, Piano d’azione per la democrazia europea

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Su questo argomento

Intelligenza artificiale: opportunità e rischi tra educazione e risorse umane