Google: un chip custom per il machine learning

La compagnia scommette sul machine learning e per distanziare i competitor si affida ad una soluzione sviluppata "in casa".

GO e machine learning

Plancia e pedine del GO, il gioco in cui un’IA è riuscita a battere un professionista umano

Lo sviluppo di intelligenze artificiali sempre più avanzate passa anche da una delle sfide più impegnative per una macchina (almeno per ora), ovvero quella di confrontarsi con la mente umana. Lo scorso Ottobre 2015 l’IA AlphaGo era riuscita ad aggiudicarsi un match di Go, in pratica (ci perdoneranno gli appassionati per l’approssimativa spiegazione) una sorta di dama cinese, superando un professionista umano.

Dal palco del recente I/O 2016 il CEO Sundar Pichai ha però svelato per la prima volta alcuni dettagli inerenti l’hardware utilizzato da Mountain View per gestire l’IA. Secondo quanto affermato dal noto volto della compagnia, alla base di AlphaGo vi sarebbe un chip completamente sviluppato “in casa” da Google e non paragonabile, lato prestazioni, ad alcuna cpu o gpu attualmente presente sul mercato (entrambi i componenti, soprattutto le gpu, sono utilizzate per “l’addestramento” delle IA e la creazione di complessi algoritmi).

Il rapporto tra prestazioni e watt impiegati è nettamente a favore di TPU (Tensor Processing Unit), il chip custom per le IA che prende spunto per il proprio nome dal framework machine learning TensorFlow (alla base di popolari servizi come Gmail, Photos e riconoscimento vocale).

Google e chip per il machine learning TPU

Slide al Google I/O 2016

Norm Jouppi (ingegnere hardware Google), ha aggiunto via blog post altre informazioni: [l’ASIC [Application specific integrated circuit, un chip pensato per l’esecuzione di una specifica task ndr] funziona in maniera simile agli acceleratori […] ed ha circa le dimensioni di un hard drive. […] E’ stato l’ingrendiente speciale per l’esperimento AlphoGo in Corea].”

Essendo stato ideato esclusivamente per il machine learning, ha aggiunto, è ottimizzato in modo tale da utilizzare un numero inferiore di processori per ciclo operativo, consentendo di gestire un numero maggiore di operazioni al secondo; questo si traduce non solo in modelli machine learning più complessi ma anche in un abbattimento dei tempi di elaborazione – risultati più intelligenti più velocemente le parole testuali dell’ingegnere.

Facci sapere cosa ne pensi!

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *