Google: i nuovi chip machine learning arrivano su Cloud Platform

La seconda generazione di chip promette grandi passi avanti rispetto al passato mettendo a disposizione di task machine learning fino a 180 teraflop.

TPU v2, chip custom per il machine learning

La seconda generazione di chip custom (TPU) machine learning. Fonte: blog ufficiale Google.

Lo Shoreline Amphitheatre di Mountain View sta ospitando in questi giorni l’annuale convention Google I/O (17-19 Maggio 2017). Come hanno sottolineato diversi partecipanti il “day 1”, ormai archiviato, si è incentrato più su hardware, IA e machine learning piuttosto che sul software mobile (che ha avuto ugualmente annunci interessanti come Android Go).

L’arrivo nel cloud della seconda generazione di chip custom pensati per IA e machine learning, noti come TPU (Tensor Processing Unit), segna un punto di svolta nella strategia che punta a trasformare Google in una compagnia “AI first”. Del resto lo aveva detto anche lo stesso Pichai qualche tempo fa: machine learning ed IA possono aiutare l’azienda a colmare il divario con AWS dando anzi il via ad una nuova stagione in cui saranno appunto tutti i nuovi servizi/tecnologie legati alle intelligenze artificiali ad esser al centro dell’attenzione e, auspica Google, del giro d’affari più remunerativo.

I risultati ottenuti dalla prima versione di TPU sono importanti: molti ricorderanno ad esempio l’impresa dell’IA AlphaGo che nell’Ottobre del 2015 era riuscita a battere un professionista (umano) in diversi match di Go, una sorta di “dama cinese” ma molto più complessa. Alla base dell’IA c’erano i chip custom TPU.

La seconda versione di TPU aumenta considerevolmente la potenza di calcolo messa a disposizione degli utenti arrivando fino a 180 teraflop: “si tratta sostanzialmente di un supercomputer per il machine learning” ha affermato Urs Hölzle (technical chief Google) che ha evidenziato (prevedibilmente) i grandi passi avanti ottenuti nella traduzione dei testi, conversione del testo in audio, nell’applicazione agli algoritmi di ranking grazie ai TPU v2.

In base a quanto affermato da Google, la genesi dei chip “fatti in casa” risale al 2011, l’anno del boom di Android e delle ricerche vocali: 3 minuti giornalieri di dati vocali per utente Android (all’epoca milioni di persone, oggi siamo a quasi due miliardi) avrebbero richiesto un numero di data center doppio rispetto a quello disponibile all’epoca. TPU nacque per gestire il carico di lavoro extra.

La seconda generazione, afferma l’esperta della divisione machine learning Fei-Fei Li, migliorerà sensibilmente l’analisi e le operazioni di ricerca effettuate sulle immagini. Jeff Dean, a capo dell’unità di ricerca Brain (i “genitori” di AlphaGo), si spinge oltre: per le operazioni di traduzione l’80% dei dati precedentemente ignorati in fase di “training” (le risorse erano inadeguate) è ora a disposizione di Google, il che contribuirà all’arrivo di software AI molto più affidabili.

TPU: la soluzione in-home alla conquista del mercato

Per il momento Google intende “vendere” i propri chip esclusivamente via cloud: “quando hai qualcosa che è veramente nuovo, alcuni strumenti a volte si rompono. E’ meglio raggiungere un certo grado di maturità [del prodotto]. […] Probabilmente la domanda [di chip] sarà molto più alta di quella che siamo in grado di soddisfare” ha aggiunto Hölzle.

I TPU andranno ad affiancarsi alle altre soluzioni pensate (anche) per l’IA ed il machine learning, come le istanze GPU con a bordo hardware Nvidia (è stato presentato recentemente il nuovo modello della famiglia Volta) ed AMD (che a Giugno rinnoverà la lineup con il primo “esemplare” della famiglia Vega, Radeon Vega Frontier Edition).

A questo proposito Hölzle ha dichiarato di non vedere come dirette competitor le proposte Nvidia/AMD perchè general purpose e non indirizzate esclusivamente al machine learning come i TPU.

Fonti: 1, 2

 

Facci sapere cosa ne pensi!

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *