HPE e Microsoft studiano come incrementare l’uptime

L'obiettivo dei progetti Spaceborne Computer e Project Natick è quello di raccogliere dati utili ad incrementare l'uptime dei sistemi.

La Stazione Spaziale Internazionale (ISS)

La Stazione Spaziale Internazionale (ISS)

Incrementare l’uptime dei sistemi è l’obiettivo dei progetti portati avanti da HPE e Microsoft. I computer che dovranno rispettivamente affrontare le avversità dello spazio e dell’Oceano forniranno teoricamente utili dati da impiegare nell’hardening di apparecchiature elettroniche e nell’allungamento del loro ciclo di vita.

La navetta SpaceX Dragon, che viene utilizzata per rifornire periodicamente l’ISS (International Space Station), è stata equipaggiata a tal proposito con computer commerciali non sottoposti a procedure di hardening ma ai soli test di idoneità NASA. Come spiegato da uno dei supervisori del progetto Spaceborn Computer (Eng Goh, CTO di SGI, azienda acquisita da HPE nel 2016):

They spend so long hardening for the harsh environment of space that the computers they use are several generations old, so there’s a huge gap in performance. For some missions, you could spend more time hardening the system than you use it for.

Can we harden the computer using software? That’s the question we want to answer

Goh ed il suo team vogliono capire se sia possibile ottenere via software risultati simili a quelli assicurati dalle procedure di hardening hardware. I due server (Apollo 40) raffreddati a liquido e montati sulla SpaceX non hanno subito quindi alcuna modifica – hanno le stesse caratteristiche delle controparti pensate per l’utilizzo in un classico data center, ad eccezione delle unità di storage che sono SSD invece di hard disk, più suscettibili alle radiazioni cosmiche ed all’accelerazione di gravità.

I consumi energetici giocheranno ancora una volta un ruolo centrale: l’idea è quella di valutare se, in scenari impegnativi per i computer, una diminuzione delle frequenze di lavoro e dei consumi sia sufficiente a preservare l’operatività. Spostare l’ago della bilancia dall’hardware al software consentirà di equipaggiare le navette con sistemi all’avanguardia ed in grado di offrire uptime costante (o quasi). I dati raccolti dai sensori saranno infatti utilizzati dai computer per adattarsi intelligentemente alle condizioni rilevate:

The high-level goal is to give computers a self-care intelligence that tries to adapt to the environment it’s in through sensors and early warning systems. Today we set aside some compute cycles for anti-virus; we should also set aside cycles for the computer to care for itself and defend itself. If you have, say, a billion operations per second, are you willing to set aside half a percent for anti-virus and maybe five or eight percent for self-care?

Microsoft: uptime nell’Oceano

Project Natick, uptime sul fondo dell'Oceano

Un render in cui viene mostrata la capsula di Project Natick

A Project Natick abbiamo dedicato alcuni articoli in passato. Sebbene le condizioni ambientali del mare siano meno estreme di quelle dello spazio, l’impossibilità di agire direttamente sulla strumentazione (i rack sono sigillati ed all’interno di container) presuppone lo studio di soluzioni ingegneristiche in grado di preservare l’operatività per lunghi periodi di tempo, idealmente dai 5 ai 10 anni.

L’umidità è ad esempio uno dei nemici principali dell’hardware e dell’uptime. Tra le più note cause associate al downtime dei data center, i danni causati dall’umidità a vari connettori (es: i pin di un cavo SATA). L’azoto presente nei container ha proprio l’oscopo di ridurre a zero, o quasi, l’umidità: con percentuali di umidità inferiori al 10%, osserva Ben Cutler (ricercatore assegnato a Project Natick), il grasso di motore utilizzato da alcuni hard disk meccanici potrebbe trasformarsi in polvere, causando altri problemi.

Ben aggiunge infine che i data center sottomarini permettono di abbassare notevolmente i costi per i seguenti motivi:

  • ci sono meno problematiche da tenere in considerazione (non bisogna tenere conto di situazioni avverse come uragani, terremoti, inondazioni etc.);
  • il sistema di raffreddamento sfrutta l’acqua del mare, consumando meno energia rispetto ai classici sistemi ad aria (solo un 20% dei costi attualmente sostenuti dalle aziende);
  • i server restano in servizio più a lungo (dai 5 ai 10 anni) eliminado i costi associati all’acquisto di nuovi sistemi – secondo Cutler non è più necessario aggiornare ogni anno l’hardware perchè il boost prestazionale garantito dagli ultimi componenti giunti sul mercato non è più così marcato come in passato.

Fonte: 1

 

Facci sapere cosa ne pensi!

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *