Data Center TIER: un sistema di classificazione obsoleto?

Il sistema di valutazione dei data center (Tier I-IV) elaborato dall'Uptime Institute non è più al passo con i tempi? Una panoramica della situazione.

IDC Logo

L’Uptime Institute è un’organizzazione (ora divisione indipendente di The 451 Group) che da più di venti anni offre consulenza e certifica l’operato di compagnie che si occupano di costruire data center. Tralasciando alcuni piccoli cambiamenti apportati negli ultimi tempi, il sistema di classificazione adottato dall’istituto per definire la qualità delle infrastrutture e suddiviso in TIER è rimasto sostanzialmente invariato, prendendo come punti di riferimento i parametri relativi alla disponibilità del servizio ed alla ridondanza, ovvero:

  • Tier I: disponibilità pari al 99.67% (max 28.8 ore di downtime/anno), nessuna ridondanza;
  • Tier II: disponibilità pari al 99.75% (max 22 ore di downtime/anno), ridondanza parziale;
  • Tier III: disponibilità pari al 99.982% (max 1.6 ore di downtime/anno), ridondanza N+1 con possibilità di effettuare procedure di manutenzione senza interrompere il servizio;
  • Tier IV: disponibilità 99.995%, 0.8 ore di interruzione/anno, ridondanza 2N+1. Il servizio è disponibile sia durante operazioni di manutenzione (come Tier III) che in caso di gravi guasti tecnici.

Dopo quasi venti anni di onorata carriera il sistema sembra mostrare qualche crepa. Il portale Data Center Knowledge (DCK) ha approfondito la questione andando ad interpellare direttamente chi sostiene questo punto di vista.

Alla ricerca di un unico standard

Mehdi Paryavi è cofondatore dell’azienda TechXact e dal 2002 offre consulenza in materia di costruzione dei data center. Alcuni anni fa la TechXact ha fondato l’IDCA (International Data Center Authority) con l’obiettivo di giungere alla stesura di uno standard comune in grado di valutare le performance delle infrastrutture IT – dagli impianti energetici e di raffreddamento fino alle applicazioni software alla base dei data center.

La classificazione dell’Uptime Institute, hanno dichiarato in varie interviste Paryavi e Steve Hambruch (data center architect presso eBay e membro del comitato per la realizzazione dello standard presso l’IDCA), è solo uno dei tanti standard adottati nell’industria dei data center (bisogna ricordare che ha comunque certificato oltre 700 data center), ciascuno dei quali si focalizza su singoli aspetti senza avere una chiara visione d’insieme: “un data center non è un sistema di raffreddamento; non è nemmeno una centrale elettrica o un insieme di pareti”.

L’Uptime Institute ha realizzato un buon standard in riferimento al proprio campo di attività, aggiunge Paryavi, chee è tuttavia inadeguato a verificare concretamente se quell’infrastruttura sia in grado o meno di eseguire i compiti per i quali è stata progettata. L’attenzione va rivolta anche “all’infrastruttura sottostante”, sottolinea Hambruch;  la PUE (Power Usage Effectiveness) non è in grado di indicare se, in determinate circostanze, sarò in grado o meno di sfruttare la massima capacità computazionale disponibile. I Tier sono inoltre troppo rigidi: un setup costituito da due data center Tier II collegati ad un sistema di failover, in grado di offrire un livello di disponibilità superiore a quello di ciascuna delle due infrastrutture collegate, non è ad esempio correttamente “classificabile” in base alle direttive dal sistema.

Infinity Paradigm o Tier

Il framework in elaborazione presso il comitato IDCA è stato soprannominato Infinity Paradigm. La sua struttura è rappresentata da una piramide a sette livelli alla cui base figura il layer Topologia (singoli data center e modalità di interazione) ed in relazione al quale si parla anche dei set di servizi software (Applicazioni) teoricamente necessari ad una compagnia. I layer superiori si occupano invece della locazione del data center, della sua infrastruttura, delle infrastrutture IT fisiche, delle risorse computazionali presentate in forma astratta alle applicazioni ed alla piattaforma in uso, delle specifiche metodologie per il delivery delle applicazioni.

L’IDCA ha già iniziato a preparare il terreno in vista dell’arrivo del nuovo standard. Rispetto all’Uptime Institute prevede tuttavia di consentire l’utilizzo del framework anche a personale esterno all’organizzazione: per Paryavi un tecnico dell’Uptime Institute potrà tranquillamente studiare lo standard IDCA per poi rilasciare una certificazione in base alle direttive in esso riportate.

Situazione confusa

“Ci stiamo occupando di un problema che riguarda tutti. Non ho ancora incontrato una persona che mi abbia detto di essere soddisfatta degli standard che adoperano. […] [I membri del comitato] tengono molto alla community. Non siamo l’ennesimo gruppo di esperti [che lavora senza avere chiaro il target di riferimento]” è stata una delle dichiarazioni di Paryavi a DCN.

Un portavoce dell’Uptime Institute ha risposto alle critiche ed espresso, prevedibilmente, un certo scetticismo nei confronti dell’Infinity Paradigm: “tutti i nostri standard e certificazioni non hanno mai avuto la pretesa di valutare [ogni aspetto delle infrastrutture]. Ci siamo focalizzati su quello che pensavamo fosse necessario. […] L’industria dei data center ha bisogno di maggiore semplicità e non ulteriore complessita e frammentazione [in riferimento allo standard IDCA in arrivo ndr]”.

Che l’iniziativa dell’IDCA abbia successo o meno, conclude Data Center Knownledge, l’eccessiva confusione sugli standard presenti nell’industria è un problema concreto e del quale gli addetti ai lavori si lamentano frequentemente. Una volta che il conto alla rovescia del portale IDCA giungerà al termine (mancano circa 163 giorni) avremo probabilmente a disposizione nuovi elementi per tornare sulla questione.

 

Facci sapere cosa ne pensi!

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *