Cerebras: un processore AI di dimensioni e capacità incredibili

Annuncio del processore Cerebras ― Cerebras Wafer Scale Engine (WSE) o motore Cerebras wafer scale ― ha avuto luogo come parte della conferenza annuale Hot Chips 31. Guardando questo mostro di silicio, ciò che sorprende non è nemmeno il fatto che potrebbero rilasciarlo nella carne. Sorprende il coraggio della progettazione e il lavoro degli sviluppatori che hanno rischiato di sviluppare un cristallo con una superficie di 46 millimetri quadrati con lati di 225 cm: per realizzare un processore è necessario un intero wafer di 21,5 mm. Con il minimo errore, la percentuale di difetti è del 300% e il costo del problema è persino difficile da immaginare.

Cerebras: un processore AI di dimensioni e capacità incredibili

Cerebras WSE è prodotto da TSMC. Processo tecnologico: FinFET da 16 nm. Anche questo produttore taiwanese merita un monumento per l'uscita di Cerebras. La produzione di un tale chip ha richiesto la massima abilità e la risoluzione di molti problemi, ma ne è valsa la pena, assicurano gli sviluppatori. Il chip Cerebras è essenzialmente un supercomputer su un chip con un throughput incredibile, un consumo energetico minimo e un parallelismo fantastico. Questa è ora la soluzione ideale di machine learning che consentirà ai ricercatori di iniziare a risolvere problemi di estrema complessità.

Cerebras: un processore AI di dimensioni e capacità incredibili

Ogni die WSE di Cerebras contiene 1,2 trilioni di transistor, organizzati in 400 core di calcolo ottimizzati per l'intelligenza artificiale e 000 GB di SRAM distribuita localmente. Tutto questo è collegato da una rete mesh con un throughput totale di 18 petabit al secondo. La larghezza di banda della memoria raggiunge i 100 PB/s. La gerarchia della memoria è a livello singolo. Non c'è memoria cache, nessuna sovrapposizione e ritardi di accesso minimi. È un’architettura ideale per accelerare le attività legate all’intelligenza artificiale. Numeri nudi: rispetto ai core grafici più moderni, il chip Cerebras offre 9 volte più memoria su chip e 3000 volte più velocità di trasferimento della memoria.

Cerebras: un processore AI di dimensioni e capacità incredibili

I core di calcolo Cerebras - SLAC (Sparse Linear Algebra Cores) - sono completamente programmabili e possono essere ottimizzati per funzionare con qualsiasi rete neurale. Inoltre, l'architettura del kernel filtra intrinsecamente i dati rappresentati da zeri. Ciò libera le risorse di elaborazione dalla necessità di eseguire operazioni di moltiplicazione per zero inattive, che per carichi di dati sparsi significa calcoli più rapidi ed estrema efficienza energetica. Pertanto, il processore Cerebras risulta essere centinaia o addirittura migliaia di volte più efficiente per l’apprendimento automatico in termini di area del chip e consumo rispetto alle attuali soluzioni di intelligenza artificiale e apprendimento automatico.

Cerebras: un processore AI di dimensioni e capacità incredibili

Produzione di un chip di dimensioni simili ha chiesto tante soluzioni uniche. È stato addirittura necessario imballarlo nella custodia quasi a mano. Si sono verificati problemi con l'alimentazione del cristallo e il suo raffreddamento. La rimozione del calore è diventata possibile solo con liquidi e solo con l'organizzazione dell'approvvigionamento zonale con circolazione verticale. Tuttavia, tutti i problemi sono stati risolti e il chip è risultato funzionante. Sarà interessante conoscere la sua applicazione pratica.

Cerebras: un processore AI di dimensioni e capacità incredibili



Fonte: 3dnews.ru

Aggiungi un commento