Google Cloud Platform ed hardware nel 2017

Bart Sano (VP of platforms Google) parla delle strategie hardware e delle procedure di selezione delle nuove tecnologie in GCP

Google Cloud Platform

The Next Platform (TNP) ha recentemente intervistato Bart Sano, figura di riferimento in Google Cloud Platform (GCP) per quanto riguarda il design degli hyperscale data center e la scelta dell’hardware e del software alla base della complessa infrastruttura Mountain View.

La discussione spazia da una panoromica sulle uscite hardware del 2017 (CPU, GPU) alle modalità con le quali GCP valute le nuove tecnologie e le implementa nel cloud (dal testing/deploy interno fino al deploy “live”). Nella prima parte dell’articolo riportiamo le parti più significative della conversazione. In chiusura troverete invece il link alla versione integrale dell’articolo (in inglese).

Sintesi dell’intervista

Da un punto di vista hardware, osserva l’inviato di TNP e conferma lo stesso intervistato, il 2017 si appresta ad essere un anno molto interessante per il cloud computing. I processori Xeon Skylake potrebbero rivelarsi infatti tra le CPU più importanti realizzate da Intel dopo Nahalem (si parla del 2009) ma non solo.

Lo spettro di soluzioni che si prospetta d’innanzi a Google ed a qualsiasi cloud provider è più ampio di quanto sembri, basta pensare al ritorno in grande stile di AMD (il Ryzen “consumer” ha dimostrato di saper lottare ad armi pari con soluzioni collocate in fasce di prezzo superiori, le proposte indirizzate al mercato enterprise sono dietro l’angolo) ma anche ad ARM ed IBM Power9.  Senza considerare poi le schede video (Nvidia Tesla ed ancora una volta AMD con Polaris e Vega) ed i coprocessori (Xeon Phi e tutta una serie di soluzioni custom come Tensor Processing Unit progettati internamente).

In base a quali criteri Mountain View sceglie le tecnologie che dovrà adottare? La prima risposta di Sano è abbastanza generica: il principio guida di Google è la volontà di rendere disponibile nel cloud qualsiasi tecnologia faciliti il progresso della compagnia. L’iter che porta al compimento di tale obiettivo è tutt’altro che semplice ed inizia dal deploy interno e dalle sessioni di testing dell’hardware – fornito in “accesso anticipato” dai principali produttori (gli Xeon Skylake, previsti per metà 2017, hanno raggiunto i laboratori Google nell’ultimo trimestre del 2016).

Alcune domande dopo, in riferimento all’inserimento nel portfolio GCP delle VGA AMD, Sano aggiunge qualche dettaglio: “We think there are cases where the AMD will provide a good choice for our end customers. […] Our position is that we should have as many of these architectures as possible as options for our customers and let competition choose which one is right for different customers”. 

xeon phi

Coprocessore Xeon Phi

La varietà dell’offerta è un punto di forza della piattaforma. Come viene tuttavia gestita a livello infrastrutturale l’eterogeneità di soluzioni di calcolo? Google dispone di un framework in grado di gestire ogni caso di utilizzo o GCP si appoggia invece a più framework pensati per specifici workload?

It is a challenge. For certain workloads, we can leverage common pipes. But for the end customers, there is an issue in that there are different stacks for the different architectures, and it is a challenge. We do have our own internal ways to try to get commonality so we are able to run more efficiently, at least from a programmer perspective it is all taken care of by the software.

I think that what you are pointing out is that if cloud customers have binaries and they need to run them, we have to be able to support that. That diversity is not going to go away. We are trying to get the marketplace to get more standardization in that area, and in certain domains we are trying to abstract it out so it is not as big of an issue – for instance, with TensorFlow for machine learning. If that is adopted and we have Intel support TensorFlow, then you don’t have that much of a problem. It just becomes a matter of compilation and it is much more common” afferma Bart.

Google: diversificare è complesso

La necessità di valutare attentamente qualsiasi tecnologia comporta un immane sforzo operativo: “We look at all of these technologies and assess them according to total cost of ownership. Whether it is for search, ads, geo, or whatever internally or for the cloud, we are constantly assessing all technologies”.

TNP rivela che ogni anno i laboratori Mountain View inviano “in produzione” 3 differenti server design dove vi rimangono per diverso tempo (anni). L’ampliamento delle soluzioni di calcolo, domanda TNP, non rischia di rendere molto più complesso e costoso il supporto al diversificato parco macchine GCP?

“You are right, having all of these different SKUs makes it difficult to handle. In any infrastructure, you have a mix of legacy versus current versus new stuff, and the software has to abstract that. There are layers in the software stack, including Borg internally or Kubernetes on the cloud as well as others”.

A fronte delle problematiche evidenziate, per The Next Platform la strategia di Google è molto più efficace di altre: “We see it again and again companies are tuning hardware to software and vice versa because general purpose, particularly at Google’s scale, is not working anymore. Unit costs rise, but you come out way ahead” osserva l’intervistatore in chiusura.

 

Fonte: intervista completa

 

Facci sapere cosa ne pensi!

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *