Creata otto anni fa, la società britannica Graphcore si è già distinta per il rilascio di potenti acceleratori AI, accolti calorosamente da Microsoft e Dell. Gli acceleratori sviluppati da Graphcore sono inizialmente rivolti all'intelligenza artificiale, cosa che non si può dire delle GPU NVIDIA adattate per risolvere i problemi dell'intelligenza artificiale. UN
La soluzione NVIDIA A100 basata sull'architettura Ampere contiene 54 miliardi di transistor. Il nuovo processore Graphcore Colossus MK7 da 2 nm (IPU GC200) ha 59,4 miliardi di transistor sul chip. Quindi, la corona del chip più complesso al mondo (ad eccezione del mostro a piastra singola
Ciascun chip GC200 trasporta 1472 core del processore indipendenti sotto forma di un insieme di “tessere” ed è in grado di eseguire 8832 thread di calcolo in parallelo. La soluzione precedente dell'azienda era un acceleratore con 1216 core e 7296 thread. Ogni “mattonella” è dotata di un proprio blocco di memoria. Il nuovo sviluppo ha un totale di 900 MB di memoria interna, mentre il processore precedente ne aveva solo 300 MB.
Questa soluzione fornisce un enorme throughput totale degli acceleratori Graphcore. Pertanto, un computer a scaffale per un rack standard con quattro acceleratori Colossus MK2 ha una prestazione di un petaflop. Il lavoro congiunto di 64mila IPU fornirà prestazioni di 16 exaflop. Il ridimensionamento della piattaforma Graphcore viene effettuato semplicemente aumentando i blocchi con configurazione automatica, che amplia significativamente la gamma di utenti degli acceleratori dell'azienda.
Precedentemente Microsoft
Fonte:
Fonte: 3dnews.ru