Come fare in modo che l’utilizzo del dato nella gestione dei processi sanitari diventi un “abito” da indossare ogni giorno e non solo in casi eccezionali, come una pandemia? Ne abbiamo parlato nello scenario di FORUM PA Sanità 2021 “Data-driven One Health: conciliare la salute dell’uomo e quella del Pianeta sfruttando i Big Data” che si è svolto il 27 ottobre
28 Ottobre 2021
Michela Stentella
Direttrice testata www.forumpa.it
Una sanità data driven, o meglio knowledge driven, guidata dai dati e dalla conoscenza che questi possono generare: è quello che serve per realizzare il paradigma One Health, il nuovo modello di salute globale che mette in strettissima relazione la dimensione umana con quella dell’ambiente, della società, degli animali. In questo contesto è necessario, infatti, comprendere quali sono le specificità e le relazioni che intercorrono tra queste diverse dimensioni e per farlo, oggi più che mai, abbiamo a disposizione un enorme patrimonio di dati. Ma come orientarsi in questo immenso data lake? In che modo l’utilizzo del dato in sanità può davvero creare valore in termini di innovazione, ottimizzazione delle risorse e gestione dei rischi? Quali sono le sfide che gli enti del settore si trovano ad affrontare in termini di data governance quindi compliance, sicurezza, qualità, frequenza con cui il dato viene aggiornato? Come fare in modo che l’utilizzo del dato nella gestione dei processi diventi un “nuovo abito” da indossare ogni giorno e non in casi eccezionali come la pandemia?
Queste le domande che sono state affrontate nel corso dell’evento di scenario di FORUM PA Sanità “Data-driven One Health: conciliare la salute dell’uomo e quella del Pianeta sfruttando i Big Data” che si è svolto il 27 ottobre.
Diversi i temi emersi dal confronto, tutti nell’ottica dell’utilizzo del dato per creare valore per la salute globale: dalla dimensione tecnologica a quella delle competenze, dal focus sulla collaborazione tra il mondo pubblico, privato e quello della ricerca, per arrivare al tema della comunicazione scientifica e della healthcare industry 4.0. Il tutto con un orizzonte internazionale.
“Ormai è evidente come tutti i domini della scienza siano fortemente interconnessi tra loro – ha sottolineato in apertura Stefano Aiello, Senior Partner, P4I – Partners4Innovation, che ha moderato l’incontro -. Nonostante questo, accademici, ricercatori e professionisti del settore sono spesso confinati nei loro silos di conoscenza. Dobbiamo chiederci, invece, come costruire un modello realmente integrato, che consenta di analizzare grandissime moli di dati anche in tempo reale, di costruire ponti tra i silos ancora esistenti per agire in ottica di prevenzione e di cura, di favorire la collaborazione tra le diverse discipline”.
Tanti gli esempi, portati dai relatori, di utilizzo innovativo del dato per un approccio One Health: dall’incontro della bio informatica con la microbiologia, citata da Stefano Bertuzzi (Chief Executive Officer – American Society for Microbiology) come elemento fortemente innovativo che ha consentito significativi avanzamenti nella comprensione di patologie molto complesse, all’uso del dato per definire l’identità del territorio in cui si agisce, messa in evidenza da Marco Trivelli (Direttore Generale – ASST Brianza); dalle pratiche di precision livestock farming applicate alla zootecnia per un un monitoraggio continuo automatizzato e realtime degli allevamenti, raccontate da Gianluca Neglia (Professore di zootecnia speciale, Dipartimento di Medicina veterinaria e Produzioni animali – Università degli Studi di Napoli Federico II) per arrivare al sequenziamento del genoma del virus SARS-CoV-2 realizzato in tempi rapidissimi a inizio pandemia, come ricordato da Mauro Colombo (Technology & Innovation Director – Hewlett Packard Enterprise).
Le tecnologie che oggi abbiamo a disposizione aprono quindi grandi opportunità di valorizzazione dei big data, ma ci sono ancora tanti limiti da superare.
“Nell’ambito della sanità pubblica produciamo moltissimi dati, ma abbiamo una fruizione molto bassa rispetto ad altri settori – ha sottolineato Trivelli -. Quello che spesso manca e che invece servirebbe è la capacità di porre domande, fare chiarezza su quelle che sono le variabili chiave da interrogare per trasformare questa miniera di dati in informazione da utilizzare, ad esempio, per fare una programmazione che sia legata non all’applicazione di norme e di standard, pure importantissimi, ma soprattutto ai bisogni del territorio”.
La capacità di uscire da forme di “gelosia del dato” per condividere e collaborare, ad esempio, tra diversi centri di ricerca è uno dei principali limiti da superare, secondo Colombo, mentre Trivelli sottolinea che “la maggior parte dei dati che noi raccogliamo e gestiamo viaggiano su sistemi locali, c’è una frammentazione elevatissima”…occorre investire su infrastrutture che permettano la connessione e l’abilitazione di soggetti diversi, compresi i pazienti, e di scambiare dati in modo sicuro. Superando questa “debolezza di connessione” si potrebbe superare anche la debolezza della continuità ospedale territorio, evidenziata dalla pandemia.
Il dato per avere valore deve però rispettare alcune caratteristiche, Bertuzzi rimanda ai criteri dei FAIR data, acronimo inglese che sta per findability, accessibility, interoperability, and reusability, quindi dati che soddisfano i principi di reperibilità, accessibilità, interoperabilità e riusabilità. L’acronimo e i principi sono stati definiti in un documento del marzo 2016 sulla rivista Scientific Data da un consorzio di scienziati e organizzazioni. “Se uno solo di questi criteri non è presente – ha sottolineato Bertozzi – c’è un enorme blocco nel valore che i dati possono portare nella gestione della sanità”. Parliamo di open data e, più in particolare, di open linked data, come ha ricordato Neglia citando il progetto LEO, che riunisce in un’unica banca dati digitale tutte le informazioni relative al comparto zootecnico, informazioni accessibili per favorire lo scambio e la condivisione, la trasparenza di tutta la filiera zootecnica e la sicurezza dei prodotti alimentari: “Si stima che con questo progetto si riusciranno a raccogliere qualcosa come 20 terabyte di dati grezzi e un ruolo fondamentale sarà svolto dalle associazioni e dai tecnici che dovranno raccogliere questi dati e renderli successivamente fruibili come FAIR data agli allevatori”.
Sulla qualità del dato si è soffermato Colombo: “il data cleaning è un altro aspetto molto importante, perché un dato in ingresso sbagliato nell’algoritmo è molto probabile che porti a un risultato sbagliato alla fine. Un buon dato poi deve essere condiviso in modo sicuro, in base a quelle che sono le compliance del GDPR e le normative in ambito trattamento privacy, e deve avere una fruizione semplice. La condivisione poi va fatta senza spostare o replicare il dato, perché ogni volta che replichiamo un dato perdiamo anche qualità, perché non riusciamo più a tenerlo aggiornato”.
Tra le tante suggestioni emerse, non poteva mancare una riflessione sul tema delle competenze, centrale in tutti gli appuntamenti di FORUM PA Sanità e non potrebbe essere altrimenti, dato che le competenze sono uno dei nodi per la ripartenza del Paese in ottica post pandemica. Servono nuovi skill e nuove competenze multidisciplinari e in questo gioca un ruolo fondamentale l’università, oltre alla capacità di assumere le persone adatte da parte del mondo pubblico e privato.
Infine, uno spunto di lavoro originale, quello lanciato da Bertuzzi sulla comunicazione scientifica, evocando un’evoluzione del modello della pubblicazione, da oggetto sempre uguale a se stesso, statico, a oggetto dinamico, che non trasformi solo la carta “di fibra” in “carta digitale”, ma sfrutti le potenzialità offerte dalla tecnologia per consentire l’accesso ai dati su cui si basa quella pubblicazione e il conseguente riutilizzo.