Intel Stratix 10, i chip riprogrammabili ARM

Intel presenta la nuova famiglia di chip riprogrammabili con processo produttivo a 14 nanometri e veloci memorie HBM2. I dettagli

Intel Stratix 10 FPGA

Intel Stratix 10 FPGA – infografica ufficiale

Intel presenta nuovi chip riprogrammabili. Stratix 10 è una soluzione in cui fa capolino “a sorpresa” ARM destinata a data center specializzati nell’analisi dati ed operazioni di calcolo intensive. Si tratta dell’evoluzione del progetto mutuato dall’acquisizione di Altera ad inizio 2016, una delle compagnie leader nella produzione di FPGA insieme a Xilinx (alleata attualmente con i competitor IBM e Qualcomm). L’azienda, afferma Dan McNamara (corporate vice president and general manager di Intel Programmable Solutions Group) sul blog ufficiale, ha iniziato ad inviare i primi “esemplari” ai clienti. Che cosa offre esattamente Intel?

Al momento disponiamo delle consuete infografiche rese note dal produttore: stiamo parlando in ogni caso di FPGA o Filed Programmable Gate Arrays (sigla che abbiamo già incontratato parlando di Microsoft) realizzati con processo produttivo a 14 nanometri (al quale l’azienda si riferisce con il termine “tri-gate”). L’architettura proprietaria Triflex (definita come al solito “rivoluzionaria”) garantisce prestazioni fino a due volte superiori alla precedente generazione di FPGA (10 teraflop in precisione singola e fino ad 1TB di banda per la memoria integrata di tipo HBM2) ed una rinnovata efficienza energetica (un “boost” del 70%). Nel chip troviamo inaspettatamente un processore ARM Cortex-A53.

HPC, IoT, machine learning

“Viviamo in un mondo intelligente e connesso dove miliardi di dispositivi stanno creando un massa di dati che devono essere raccolti, rapidamente processati ed analizzati, e resi disponibili in qualsiasi luogo” ha sottolineato McNamara sul blog ufficiale.

I workload che necessitano di FPGA (e non solo come vedremo a breve) appartengono ad ambiti che stanno sempre più acquisendo importanza nel settore enterprise: HPC o High Performance Computing, l’impiego della capacità computazionale di diversi sistemi ad alte prestazioni per l’elaborazione di complessi workload (es: studio e mappatura del genoma umano etc.); gli stessi supercomputer sfruttati dalle tecnologie HPC;  l’Internet of Things, il “mondo” dei dispositivi intelligenti (connessi alla Rete, con tutte le problematiche di sicurezza derivanti da tale funzionalità) e dei sensori in grado di raccogliere ed inviare dati che devono essere analizzati e “valorizzati” il più rapidamente possibile; infine il machine learning ed il deep learning che richiedono ugualmente l’analisi di informazioni e la creazione di “modelli” per le IA (intelligenze artificiali, altro termine abbastanza popolare negli ultimi tempi).

Gli FPGA non sono naturalmente le uniche soluzioni hardware destinate a tutte queste applicazioni. Anche le GPU stanno conquistando infatti un certo rilievo nei data center enterprise grazie agli svariati teraflop messi a disposizione di ricercatori ed analisti. Tra le più note le Tesla realizzate da Nvidia (alla base delle istanze presentate recentemente da AWS) ma anche AMD dispone di interessanti proposte (la serie FirePro). Bisogna infine ricordare che esistono anche processori come il x86 Xeon Phi, sempre realizzato da Intel, pensati per supercomputer, workload intensivi ed in grado di lavorare al fianco dei processori “general purpose” (Xeon classici).

 

 

Facci sapere cosa ne pensi!

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *