Come estrarre valore dai dati, una soluzione open

Home Open Government Open Data Come estrarre valore dai dati, una soluzione open

Spesso le opportunità offerte dall’apertura dei dati relativi ad un determinato territorio sono difficili da cogliere, a causa della mancanza di interoperabilità tra le banche dati e della carenza di risorse di cui soffrono gli enti locali. Lo sviluppo di soluzioni ad hoc appare impossibile per la maggior parte dei Comuni, così in questa sede proponiamo un modello di conoscenza – sviluppato da DISIT per la Regione Toscana e il Comune di Firenze – che consente l’interconnessione, lo stoccaggio e la successiva interrogazione di dati da fonti diverse.

23 Febbraio 2015

P

Paolo Nesi*

Spesso le opportunità offerte dall’apertura dei dati relativi ad un determinato territorio sono difficili da cogliere, a causa della mancanza di interoperabilità tra le banche dati e della carenza di risorse di cui soffrono gli enti locali. Lo sviluppo di soluzioni ad hoc appare impossibile per la maggior parte dei Comuni, così in questa sede proponiamo un modello di conoscenza – sviluppato da DISIT per la Regione Toscana e il Comune di Firenze – che consente l’interconnessione, lo stoccaggio e la successiva interrogazione di dati da fonti diverse.

La carenza di interoperabilità fra dati aperti è un fatto che oserei chiamare naturale e per questo è impossibile o molto difficile da evitare, magari si può ridurre se conviene. I dati aperti sono prodotti da enti diversi, con protocolli diversi. Gli standard non aiutano in questo senso perché anche se il file (il dataset) è nello stesso formato di basso livello (per esempio un CSV), quello che contiene non è detto che sia semanticamente compatibile a tutti gli altri file dello stesso o di altri tipi. Il problema primario consiste nel fatto che molti di questi dati fanno riferimento alle stesse entità e concetti (un servizio, un indirizzo, un elemento stradale, un punto WiFi, etc.) con identificativi diversi e in certi casi anche multipli, ma non coerenti (per esempio, indirizzo e toponimo). Per esempio le vie, i numeri civici, i CAP, gli indirizzi web, le email…ognuno di questi elementi può essere scritto in modi diversi e/o errati creando delle differenze che rendono difficile, se non molto costosa, l’integrazione di dati che provengono da data set diversi. Ai dati aperti si aggiungono i dati privati come ad esempio quelli relativi ai consumi energetici. Molti di questi dati cambiano molto lentamente nel tempo, con aggiornamenti mensili o semestrali, altri cambiano ogni secondo (parcheggi, sensori) creando altre discrepanze e discontinuità.

Ma la qualità finale dipende da come questi dati vengono resi interoperabili. Con operazioni di data intelligence è possibile automatizzare l’integrazione, fusione e riconciliazione dei dati evitando di farlo in modo manuale, che è certamente troppo costoso. 

A che serve avere dati semanticamente interoperabili?

Le soluzioni che permettono di rimettere insieme questi dati rendendoli interoperabili rendono possibile l’interrogazione coerente di una grande mole di dati (statici e real time) che vengono fuori dall’integrazione delle sorgenti. Rispondendo a quesiti del tipo: “Ma che cosa è, c’è ora ed è successo in via LargaMaCorta 12 negli ultimi 4 anni ?”, aspettandosi di capire tutto riguardo alle fermate del bus, i ritardi, gli incidenti, i servizi, le votazioni, ma anche i parcheggi vicini, le colonnine di ricarica, le code, la popolazione, etc.

Tutto questo serve a produrre valore, a capire se ha senso aprire un nuovo servizio. Serve a capire come mai via LargaMaCorta richiede frequenti interventi di manutenzione o come mai i cassonetti sono sempre pieni. Il valore viene dalla maggiore efficienza, dai migliori servizi, dai minori costi. Ma può anche semplicemente servire per facilitare le aziende e le imprese a fornire loro informazioni private contestualizzate alla città. Il ristorante che informa quali sono i servizi che vi sono nelle vicinanze, i parcheggi, i bancomat, le rastrelliere bici, i punti di ricarica, etc.

La soluzione Km4City

In questo senso, un modello e strumento d’integrazione, riconciliazione a supporto del ragionamento sui dati smart city è Km4City, sviluppato al DISIT lab che ha integrato una buona parte dei dati del Comune di Firenze e della Regione, anche in relazione al progetto Sii-Mobility e a altri progetti europei. A questo fine il primo passo è stato la definizione di un’ontologia di riferimento, chiamata KM4City, accessibile in forma aperta. Il modello KM4City ed i suoi strumenti permettono di automatizzare l’integrazione dei dati, renderli interoperabili e fare ragionamenti e deduzioni sui dati cittadini come supporto alle decisioni. I primi risultati sono accessibili per comprendere il modello dati e sono visibili per esempio in relazione ad una fermata del bus dove chi è più tecnico può accedere al modello semantic con uno strumento che permette la navigazione nel RDF Store via SPARQL.

A fianco di questi strumenti vi sono applicazioni per la navigazione geografica dei dati, come il ServiceMap e altri che possono essere utilizzati per attivare richieste periodiche e valutazioni più profonde. A breve l’apertura della sperimentazione di API per lo sviluppo di applicazioni mobili e web per le pubbliche amministrazioni e aziende.

 

* Paolo Nesi, coordinatore progetto Km4City

Valuta la qualità di questo articolo

La tua opinione è importante per noi!