Cerebras - en AI-processor av otrolig storlek och kapacitet

Tillkännagivande av Cerebras processor ― Cerebras Wafer Scale Engine (WSE) eller Cerebras wafer scale engine ― ägde rum som en del av den årliga Hot Chips 31-konferensen. När man tittar på detta kiselmonster är det som är förvånande inte ens det faktum att de kunde släppa det i köttet. Modet i designen och arbetet hos utvecklarna som riskerade att utveckla en kristall med en yta på 46 225 kvadratmillimeter med sidor på 21,5 cm är överraskande. Det krävs en hel 300 mm skiva för att göra en processor. Med det minsta felet är defektfrekvensen 100%, och kostnaden för problemet är till och med svår att föreställa sig.

Cerebras - en AI-processor av otrolig storlek och kapacitet

Cerebras WSE produceras av TSMC. Teknologisk process: 16 nm FinFET. Denna taiwanesiska tillverkare förtjänar också ett monument för utgivningen av Cerebras. Tillverkningen av ett sådant chip krävde högsta skicklighet och löste många problem, men det var värt det, försäkrar utvecklarna. Cerebras-chippet är i grunden en superdator på ett chip med otrolig genomströmning, minimal strömförbrukning och fantastisk parallellitet. Detta är nu den idealiska lösningen för maskininlärning som gör det möjligt för forskare att börja lösa problem med extrem komplexitet.

Cerebras - en AI-processor av otrolig storlek och kapacitet

Varje Cerebras WSE-matris innehåller 1,2 biljoner transistorer, organiserade i 400 000 AI-optimerade beräkningskärnor och 18 GB lokalt distribuerat SRAM. Allt detta är sammankopplat med ett mesh-nätverk med en total genomströmning på 100 petabits per sekund. Minnesbandbredden når 9 PB/s. Minneshierarkin är ennivå. Det finns inget cacheminne, ingen överlappning och minimala åtkomstförseningar. Det är en idealisk arkitektur för att accelerera AI-relaterade uppgifter. Nakna siffror: jämfört med de modernaste grafikkärnorna ger Cerebras-chippet 3000 10 gånger mer minne på chipet och 000 XNUMX gånger högre minnesöverföringshastighet.

Cerebras - en AI-processor av otrolig storlek och kapacitet

Cerebras datorkärnor - SLAC (Sparse Linear Algebra Cores) - är helt programmerbara och kan optimeras för att arbeta med alla neurala nätverk. Dessutom filtrerar kärnarkitekturen i sig data som representeras av nollor. Detta frigör beräkningsresurser från behovet av att utföra tomgångsmultiplicering med nolloperationer, vilket för glesa databelastningar innebär snabbare beräkningar och extrem energieffektivitet. Cerebras-processorn visar sig alltså vara hundratals eller till och med tusentals gånger effektivare för maskininlärning vad gäller chiparea och förbrukning än nuvarande lösningar för AI och maskininlärning.

Cerebras - en AI-processor av otrolig storlek och kapacitet

Tillverkar ett chip av liknande storlek krävde många unika lösningar. Det fick till och med packas ner i fodralet nästan för hand. Det var problem med att förse kristallen med ström och kyla den. Värmeavlägsnande blev möjligt endast med vätska och endast med organisation av zonförsörjning med vertikal cirkulation. Men alla problem löstes och chippet kom ut att fungera. Det ska bli intressant att lära sig om dess praktiska tillämpning.

Cerebras - en AI-processor av otrolig storlek och kapacitet



Källa: 3dnews.ru

Lägg en kommentar