Cerebras - een AI-processor van ongelooflijke omvang en mogelijkheden

Aankondiging van de Cerebras-processor – Cerebras Wafer Scale Engine (WSE) of Cerebras wafer scale-engine – vond plaats als onderdeel van de jaarlijkse conferentie Hot Chips 31. Als je naar dit siliciummonster kijkt, is het verrassende niet eens het feit dat ze het in levende lijve konden vrijgeven. De moed van het ontwerp en het werk van de ontwikkelaars die het risico waagden een kristal te ontwikkelen met een oppervlakte van 46 vierkante millimeter en zijden van 225 cm zijn verrassend: er is een hele wafer van 21,5 mm nodig om één processor te maken. Bij de kleinste fout is het defectpercentage 300% en zijn de kosten van het probleem zelfs moeilijk voor te stellen.

Cerebras - een AI-processor van ongelooflijke omvang en mogelijkheden

Cerebras WSE wordt geproduceerd door TSMC. Technologisch proces: 16 nm FinFET. Ook deze Taiwanese fabrikant verdient een monument voor de release van Cerebras. De productie van zo'n chip vereiste de hoogste vaardigheid en het oplossen van veel problemen, maar het was het waard, verzekeren de ontwikkelaars. De Cerebras-chip is in wezen een supercomputer op een chip met een ongelooflijke doorvoer, minimaal stroomverbruik en fantastisch parallellisme. Dit is nu de ideale machine learning-oplossing waarmee onderzoekers problemen van extreme complexiteit kunnen oplossen.

Cerebras - een AI-processor van ongelooflijke omvang en mogelijkheden

Elke Cerebras WSE-chip bevat 1,2 biljoen transistors, georganiseerd in 400 AI-geoptimaliseerde rekenkernen en 000 GB lokaal gedistribueerd SRAM. Dit alles is verbonden door een mesh-netwerk met een totale doorvoersnelheid van 18 petabits per seconde. De geheugenbandbreedte bereikt 100 PB/s. De geheugenhiërarchie bestaat uit één niveau. Er is geen cachegeheugen, geen overlap en minimale toegangsvertragingen. Het is een ideale architectuur voor het versnellen van AI-gerelateerde taken. Naakte cijfers: vergeleken met de modernste grafische kernen biedt de Cerebras-chip 9 keer meer on-chip geheugen en 3000 keer meer geheugenoverdrachtsnelheid.

Cerebras - een AI-processor van ongelooflijke omvang en mogelijkheden

Cerebras-computerkernen - SLAC (Sparse Linear Algebra Cores) - zijn volledig programmeerbaar en kunnen worden geoptimaliseerd voor het werken met alle neurale netwerken. Bovendien filtert de kernelarchitectuur inherent gegevens die door nullen worden weergegeven. Dit maakt computerbronnen vrij van de noodzaak om nutteloze vermenigvuldiging met nulbewerkingen uit te voeren, wat bij schaarse gegevensbelasting snellere berekeningen en extreme energie-efficiëntie betekent. Zo blijkt de Cerebras-processor honderden of zelfs duizenden keren efficiënter te zijn voor machine learning in termen van chipoppervlak en verbruik dan de huidige oplossingen voor AI en machine learning.

Cerebras - een AI-processor van ongelooflijke omvang en mogelijkheden

Een chip van vergelijkbare grootte vervaardigen eiste veel unieke oplossingen. Het moest zelfs bijna met de hand in de koffer worden verpakt. Er waren problemen met de stroomtoevoer naar het kristal en de koeling ervan. Warmteafvoer werd alleen mogelijk met vloeistof en alleen met de organisatie van zonale toevoer met verticale circulatie. Alle problemen waren echter opgelost en de chip kwam werkend naar buiten. Het zal interessant zijn om meer te weten te komen over de praktische toepassing ervan.

Cerebras - een AI-processor van ongelooflijke omvang en mogelijkheden



Bron: 3dnews.ru

Voeg een reactie