Cerebras – procesor AI o niesamowitych rozmiarach i możliwościach

Zapowiedź procesora Cerebras ― Cerebras Wafer Scale Engine (WSE) lub Cerebras Wafer Scale Engine ― odbyła się w ramach corocznej konferencji Hot Chips 31. Patrząc na tego krzemowego potwora, zaskakujący nie jest nawet fakt, że udało się go wypuścić w ciele. Zaskakuje odwaga projektu i praca twórców, którzy zaryzykowali opracowanie kryształu o powierzchni 46 225 milimetrów kwadratowych i bokach 21,5 cm, do wykonania jednego procesora potrzeba całej płytki o średnicy 300 mm. Przy najmniejszym błędzie wskaźnik defektów wynosi 100%, a koszt problemu jest nawet trudny do wyobrażenia.

Cerebras – procesor AI o niesamowitych rozmiarach i możliwościach

Cerebras WSE jest produkowany przez TSMC. Proces technologiczny: 16 nm FinFET. Temu tajwańskiemu producentowi również należy się pomnik za wypuszczenie Cerebrasa. Produkcja takiego chipa wymagała najwyższych umiejętności i rozwiązania wielu problemów, ale było warto – zapewniają twórcy. Układ Cerebras to w zasadzie superkomputer na chipie o niesamowitej przepustowości, minimalnym zużyciu energii i fantastycznej równoległości. Jest to obecnie idealne rozwiązanie do uczenia maszynowego, które umożliwi badaczom rozpoczęcie rozwiązywania problemów o ekstremalnej złożoności.

Cerebras – procesor AI o niesamowitych rozmiarach i możliwościach

Każda matryca Cerebras WSE zawiera 1,2 biliona tranzystorów zorganizowanych w 400 000 rdzeni obliczeniowych zoptymalizowanych pod kątem sztucznej inteligencji i 18 GB lokalnej rozproszonej pamięci SRAM. Wszystko to połączone jest siecią mesh o łącznej przepustowości 100 petabitów na sekundę. Przepustowość pamięci sięga 9 PB/s. Hierarchia pamięci jest jednopoziomowa. Nie ma pamięci podręcznej, nakładania się i minimalnych opóźnień dostępu. Jest to idealna architektura do przyspieszania zadań związanych ze sztuczną inteligencją. Gołe liczby: w porównaniu z najnowocześniejszymi rdzeniami graficznymi, chip Cerebras zapewnia 3000 razy więcej pamięci wbudowanej i 10 000 razy większą prędkość transferu pamięci.

Cerebras – procesor AI o niesamowitych rozmiarach i możliwościach

Rdzenie obliczeniowe Cerebras – SLAC (Sparse Linear Algebra Cores) – są w pełni programowalne i można je optymalizować do pracy z dowolnymi sieciami neuronowymi. Co więcej, architektura jądra z natury filtruje dane reprezentowane przez zera. Uwalnia to zasoby obliczeniowe od konieczności wykonywania operacji mnożenia przez zero w stanie bezczynności, co w przypadku rzadkiego ładowania danych oznacza szybsze obliczenia i ekstremalną efektywność energetyczną. Tym samym procesor Cerebras okazuje się setki, a nawet tysiące razy wydajniejszy w uczeniu maszynowym pod względem powierzchni chipa i zużycia, niż obecne rozwiązania w zakresie sztucznej inteligencji i uczenia maszynowego.

Cerebras – procesor AI o niesamowitych rozmiarach i możliwościach

Produkcja chipa o podobnej wielkości zażądał wiele unikalnych rozwiązań. Trzeba było go nawet włożyć do walizki niemal ręcznie. Były problemy z zasilaniem kryształu i jego chłodzeniem. Usuwanie ciepła stało się możliwe tylko za pomocą cieczy i tylko dzięki organizacji zasilania strefowego z cyrkulacją pionową. Jednak wszystkie problemy zostały rozwiązane i chip zadziałał. Ciekawie będzie poznać jego praktyczne zastosowanie.

Cerebras – procesor AI o niesamowitych rozmiarach i możliwościach



Źródło: 3dnews.ru

Dodaj komentarz