Ang Intel Xeon milabaw sa walo ka Tesla V100 sa daghang mga higayon sa dihang nagbansay sa neural network

Ang sentral nga processor daghang beses nga mas paspas sa pasundayag kaysa usa ka kombinasyon sa walo ka mga graphic processor sa usa ka higayon kung ang lawom nga pagkat-on sa mga neural network. Morag usa ka butang gikan sa science fiction, dili ba? Apan ang mga tigdukiduki gikan sa Rice University, gamit ang Intel Xeon, nagpamatuod nga kini posible.

Ang Intel Xeon milabaw sa walo ka Tesla V100 sa daghang mga higayon sa dihang nagbansay sa neural network

Ang mga GPU kanunay nga mas angay alang sa lawom nga pagkat-on sa mga neural network kaysa sa mga CPU. Kini tungod sa arkitektura sa mga GPU, nga naglangkob sa daghang gagmay nga mga cores nga makahimo sa daghang gagmay nga mga buluhaton nga managsama, nga mao gayud ang gikinahanglan alang sa pagbansay sa mga neural network. Apan nahimo nga ang mga sentral nga processor, nga adunay husto nga pamaagi, mahimong epektibo kaayo sa lawom nga pagkat-on.

Gikataho nga kung gigamit ang SLIDE nga lawom nga algorithm sa pagkat-on, ang usa ka Intel Xeon processor nga adunay 44 nga mga cores 3,5 ka beses nga labi ka produktibo kaysa usa ka kombinasyon sa walo ka NVIDIA Tesla V100 computing accelerators. Kini tingali ang una nga higayon nga ang CPU dili lamang nakakuha sa GPU sa ingon nga senaryo, apan milabaw usab kanila, ug namatikdan kaayo.

Ang usa ka press release nga gi-isyu sa unibersidad nag-ingon nga ang SLIDE algorithm wala magkinahanglan og mga GPU tungod kay kini naggamit sa usa ka hingpit nga lahi nga pamaagi. Kasagaran, kung nagbansay sa mga neural network, gigamit ang teknik sa backpropagation nga sayup sa pagbansay, nga gigamit ang pagpadaghan sa matrix, nga usa ka sulundon nga karga alang sa GPU. Ang SLIDE, sa laing bahin, naghimo sa pagkat-on nga usa ka problema sa pagpangita nga nasulbad gamit ang mga lamesa sa hash.


Ang Intel Xeon milabaw sa walo ka Tesla V100 sa daghang mga higayon sa dihang nagbansay sa neural network

Sumala sa mga tigdukiduki, kini hinungdanon nga pagkunhod sa gasto sa pagkalkula sa pagbansay sa mga neural network. Aron makakuha og baseline, gigamit sa mga tigdukiduki ang kasamtangan nga sistema sa Rice University lab nga adunay walo ka Tesla V100 accelerators aron sa pagbansay sa usa ka neural network gamit ang TensorFlow library sa Google. Ang proseso mikabat ug 3,5 ka oras. Pagkahuman, usa ka susama nga neural network ang gibansay gamit ang SLIDE algorithm sa usa ka sistema nga adunay usa ka 44-core nga Xeon processor, ug kini gikuha lamang sa 1 ka oras.

Angay nga matikdan dinhi nga ang Intel sa pagkakaron wala'y 44-core nga mga modelo sa processor sa mga produkto niini. Posible nga ang mga tigdukiduki migamit sa usa ka matang sa custom o unreleased chip, apan kini dili mahimo. Mas lagmit nga ang usa ka sistema nga adunay duha ka 22-core Intel Xeon gigamit dinhi, o adunay usa ka sayup sa pagpagawas sa balita, ug naghisgot kami bahin sa 44 nga mga hilo nga gihatag sa usa ka 22-core processor. Apan sa bisan unsa nga kaso, dili kini makabalda sa kalampusan mismo.

Siyempre, ang SLIDE algorithm kinahanglan pa nga moagi sa daghang mga pagsulay ug pamatud-an ang pagka-epektibo niini, ingon man ang pagkawala sa bisan unsang mga peculiarities ug mga lit-ag. Bisan pa, ang atong nakita karon impresibo kaayo ug mahimo’g adunay dako nga epekto sa pag-uswag sa industriya.



Source: 3dnews.ru

Idugang sa usa ka comment