Nvidia: il successo delle general purpose GPU

Nei data center la centralità delle CPU sembra venuta meno e le infrastrutture si appoggiano sempre più a FGPA e general purpose GPU

L'andamento sul mercato delle varie soluzioni gpu Nvidia - fonte The Next Platform

L’andamento sul mercato delle varie soluzioni gpu Nvidia. Da notare la crescita del reparto data center – fonte The Next Platform

E’ stato stesso CEO Nvidia Jen-Hsun Huang a dichiararlo nel corso della consueta conference call con gli investitori: “Quel che ci ha permesso [di raggiungere l’importante risultato] è stato trasformare la nostra compagnia [da fabbrica di gpu ad una di general purpose gpu. E successivamente, la parte più importante di questo [cambiamento] è passare da chip company a platform company”. 

I risultati finanziari della compagnia statunitense parlano chiaro: il settore di acceleratori grafici destinati ai data center è cresciuto del 300% in 12 mesi (a quota 240 milioni di dollari), premiando la strategia dei vertici aziendali. La scommessa Nvidia iniziò al volgere del nuovo millennio: quando il focus era ancora sull’emergente settore del gaming (gpu per personal computer e console come l’xbox 360),  fu avviato anche un progetto sperimentale (CUDA o Compute Unified Device Architectur) legato ad un inedito modo di utilizzare le gpu, ovvero il loro impiego per task quotidiane come l’esecuzione di modelli dati e via dicendo. Le schede grafiche diventavano così gpgpu o general purpose gpu andando a svolgere “calcoli” destinati fino a quel momento solo ai processori.

Colli di bottiglia

Grazie ai progressi dell’industria (affinamento dei processi produttivi), CPU e GPU hanno incrementato la propria capacità di calcolo. Per quanto riguarda le CPU, il costante  processo evolutivo era stato teorizzato da co-founder di Intel Gordon Moore che enunciò l’ormai celebre legge secondo cui “la capacità di calcolo dei processori ed il numero di transistor che li costituiscono sono destinati a raddoppiare ogni 18 mesi”.

Un verità rimasta tale fino al 2015 quando per la prima volta Intel ha dovuto abbandonare il collaudato schema tick-tock, posticipando al 2017 (la deadline originaria era il 2016) l’arrivo delle nuove soluzioni a 10 nanometri. Un secondo problema che ha interessato i processori è il cosiddetto “collo di bottiglia di von Neumann“, in sintesi un limite architetturale dei moderni computer che poggiano sullo scambio di dati tra CPU e RAM: per quanto riguarda le velocità di traferimento, queste ultime non sono in grado di reggere il passo dei processori costringendoli ad “attendere” a riposo (idle) il recupero dei dati in memoria. Paradossalmente più un processore è veloce più aumenta il tempo di inattività, vanificando ogni eventuale progresso architetturale.

L’affermazione dell’hardware specializzato

La risposta dell’industria alle problematiche evidenziate è stata quella di affidarsi all’hardware specializzato: la scuola di pensiero Intel e di altre compagnie punta tutto sugli FPGA (field programmable gate arrays) o chip riprogrammabili, in grado di assicurare capacità di calcolo aggiuntiva ai sistemi e riportare in auge la legge di Moore.

La scuola di pensiero Nvidia (alla quale anche AMD si è accodata) punta naturalmente sulle gpgpu: “con l’accelerazione gpu si hanno incredibili benefici. Non si tratta di un +20% o +50% ma di 20, 50 volte [le prestazioni di partenza]. Ciò si traduce, in particolare modo per i ricercatori, in tempistiche [di elaborazione dei risultati più rapide]. Si parla di giorni e non di mesi. […] Per gli IT manager significa invece abbassare i costi [della bolletta energetica] e, soprattutto…ridurre sensibilmente il costo dei data center. Un rack di server con gpu può infatti sostituire un’intero cluster di server grande quanto un campo da basket]”  ha affermato il CEO Nvidia. Per il momento i risultati finanziari sembrano dargli ragione.

 

 

 

 

 

 

 

 

Facci sapere cosa ne pensi!

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *