Datacenter PA, il caos continua senza un piano: come razionalizzarli in tre mosse
Un processo di razionalizzazione dovrebbe passare attraverso tre punti fondamentali: Razionalizzazione degli spazi, degli apparati, degli applicativi. Grazie al cloud. I tre punti dovrebbero essere portati avanti in parallelo. Ma siamo lontani da un piano così ambizioso come quello della razionalizzazione dei data center e del Cloud
17 Maggio 2016
Luca Rea, Fondazione Ugo Bordoni
E’ noto che con l’avvento del Cloud, tutti i servizi ed i sistemi informativi della pubblica amministrazione sono all’alba di una profonda trasformazione. L’accesso da parte dei cittadini alle piattaforme pubbliche, prima disponibili solo tramite lo “sportello”, pone alla PA l’obbligo di progettare e mettere in campo nuove architetture funzionali, che necessariamente debbono passare da una rivoluzione informatica che pone le sue base proprio sui Data Center.
L’introduzione dei nuovi servizi non è rivolta solo ai cittadini, ma al rapporto tra le stesse amministrazioni, che devono poter lavorare su piattaforme condivise e accedere a programmi di gestione unici su tutto il territorio; in sintesi, l’ammodernamento delle PP.AA passa da un profondo processo di razionalizzazione, sia delle infrastrutture che degli applicativi.
Nell’ormai lontano 2013, l’Agenzia per l’Italia Digitale diede inizio ad un processo di assessment delle infrastrutture informatiche delle PP.AA., dando luogo ad un censimento i cui risultati furono a dir poco scoraggianti. Le direttrici lungo le quali venne svolto il censimento avevano come scopo quello di tracciare un quadro esaustivo riguardo gli spazi, l’hardware ed il software delle Pubbliche Amministrazioni Centrali e Locali.
Il quadro che ne emerse fu di forte frammentazione, mettendo in evidenza l’inefficienza dei fondi pubblici spesi in ICT; l’allora Direttore Generale Agostino Ragosa sosteneva che in Italia venivano spesi 10 miliardi di Euro annui in spesa corrente per ICT senza alcun patrimonio acquisito.
Le domande somministrate alla amministrazioni sarebbero valide ancora oggi, come del resto i risultati del questionario, dal momento che dalle indicazioni fornite si evinceva una inerzia nelle iniziative, una obsolescenza degli apparati (server) molto spesso legati alle licenze degli applicativi sviluppati ad hoc e soprattutto una incapacità di innovare dovuta ai fondi sempre minori nelle disponibilità delle amministrazioni, con situazioni “peggiori” per le Amministrazioni locali.
Allora venne fatta una stima sulla base delle quale in Italia erano presenti almeno 4500 Data Center (o presunti tali), per la maggior parte allestiti senza nessuna ottemperanza a normative tecniche. Di questi ne vennero censiti un migliaio e, tolte rare eccezioni per lo più dovute ad amministrazioni centrali autonome e per certi versi illuminate (Ministero degli Interni, Inps, Agenzia delle entrate, MEF, Corte dei Conti), la situazione apparve estremamente frazionata ed inefficiente. In sintesi il tema dell’ICT non è mai stato regolato da un coordinamento centralizzato, ma è stato demandato alle amministrazioni le quali, agendo in autonomia, hanno perseguito il proprio beneficio con i mezzi loro a disposizione, senza potersi avvalere di quelle economie di scala che potrebbero far diminuire drasticamente la spesa corrente.
Basti pensare che nel 2013 le caratteristiche tecniche minimali come ad esempio i sistemi di raffreddamento, i sistemi antincendio, il monitoraggio ambientale e così via, erano concetti assai lontani dalla realtà che invece si componeva di vecchi pc messi nei sottoscala oppure in alloggiamenti di fortuna. Lo stesso personale tecnico non è presente, per lo più di tratta di funzionari che hanno il compito di occuparsi dei sistemi ICT ma che non sono mai stati formati e delegano tutto in outsourcing, con il risultato il più delle volte di un lock-in tecnologico imposto dai fornitori.
Mentre in Europa si lanciavano progetti che prevedevano la migrazione “just in time” della potenza computazionale tra un data center e un altro in funzione della disponibilità istantanea di energia rinnovabile, in Italia non eravamo in grado di virtualizzare anche gli applicativi più semplici perché la software house di turno aveva cablato nel codice l’indirizzo IP della macchina cui girava!
Ad ogni modo la situazione dal 2013 non sembra molto cambiata, allora furono censiti 986 comuni e di questi solo il 4% alloggiavano i propri sistemi in spazi superiori a 100 mq, mentre nel 50% dei casi gli apparati venivano ospitati in spazi al di sotto dei 50mq, in pratica semplici stanze. Dei comuni censiti solo il 6% adoperava CED condivisi, il restante 96% aveva “CED” ad uso e consumo della sola amministrazione. Il dato più sconfortante era che la metà dei comuni censiti non possedeva il certificato di agibilità dei data center e solo il 30% era dotato di sistemi antincendio.
Sarà cambiato qualcosa?
In sostanza una situazione tale da indurre un intervento centralizzato forte, l’adeguamento puntuale di tutti i data center presenti infatti è ovviamente diseconomico.
Ma come intervenire?
Un processo di razionalizzazione dovrebbe passare attraverso tre punti fondamentali:
- Razionalizzazione degli spazi
- Razionalizzazione degli apparati
- Razionalizzazione degli applicativi
Ciascun passo è imprescindibile per l’erogazione dei servizi in Cloud, sia per i cittadini, sia tra le amministrazioni.
I tre punti dovrebbero essere portati avanti in parallelo. Nel caso della razionalizzazione degli spazi andrebbero individuate delle aree da attrezzare o dei Data Center idonei da adeguare, al fine di garantire la conformità alle normative e alle best practice di riferimento (ad es. TIA 492), tali da consentire le economie di scala.
In questo senso i data center non dovrebbero essere più di 20 su tutto il territorio e conformi al TIER IV della TIA 492.
La razionalizzazione degli apparati prevede l’acquisizione di cluster con il fine di condividere la potenza computazionale all’interno della stessa amministrazione: ciò implica il processo di virtualizzazione degli applicativi. Questo è il vero cambio di passo che porta le amministrazioni a “ragionare in Cloud”: non più applicativi legati alla macchina fisica, ma applicativi che girano su piattaforme hardware e tali da poter essere migrati virtualmente su piattaforme PaaS (Platform as a Service)
L’evoluzione dei servizi dovrebbe avvenire infatti per gradi. Il primo step urgente è quello di procedere ad un censimento per verificare, caso per caso, la natura e la finalità di tutti gli applicativi sviluppati autonomamente dai comuni e dalle amministrazioni Centrali. Lo scopo sarebbe quello di identificare i software che fanno la stessa cosa e usarne uno solo per tutti.
Il passo ulteriore sarebbe quello di erogare gli applicativi individuati direttamente in Cloud presso i nuovi Data Center. Una volta centralizzati gli applicativi, le spese in hardware/software sarebbero considerevolmente ridotte. Va da sé che il sistema del Cloud PA funziona se e solo se le entità che lo utilizzano dispongono di piena connettività Internet (piano banda ultra larga!)
Nel concreto tuttavia le cose non vanno come dovrebbero, solo di recente sono state approvate le linee guida per il Cloud da parte di AGID e siamo lontani da un piano così ambizioso come quello della razionalizzazione dei data center e del Cloud. Assistiamo infatti a dei tentativi, per quanto lodevoli, di razionalizzazione (es. ANPR) o di introduzione di servizi che nascono direttamente in Cloud (es. SPID). Ancora oggi infatti siamo in presenza della definizione delle regole per la conservazione sostitutiva (cioè di tutte le regole cui soggetti accreditati devono sottostare per la conservazioni di dati pubblici) e non sono disponibili piattaforme Cloud.