Ang bag-ong neural network sa Google mas tukma ug mas paspas kay sa sikat nga mga katugbang

Ang mga convolutional neural network (CNNs), nga giinspirar sa biolohikal nga mga proseso sa visual cortex sa tawo, haum kaayo alang sa mga buluhaton sama sa pag-ila sa butang ug nawong, apan ang pagpauswag sa ilang pagkatukma nagkinahanglan og kapoy ug maayong pag-tune. Mao nga ang mga siyentipiko sa Google AI Research nagsuhid sa mga bag-ong modelo nga "nag-scale" sa mga CNN sa usa ka "mas istruktura" nga paagi. Ilang gipatik ang resulta sa ilang trabaho sa artikulo "EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks", nga gi-host sa siyentipikong portal nga Arxiv.org, ingon man sa mga publikasyon sa imong blog. Giangkon sa mga co-authors nga ang pamilya sa mga artificial intelligence system, nga gitawag og EfficientNets, milapas sa katukma sa standard CNNs ug nagpauswag sa kahusayan sa usa ka neural network hangtod sa 10 ka beses.

Ang bag-ong neural network sa Google mas tukma ug mas paspas kay sa sikat nga mga katugbang

"Usa ka sagad nga praktis alang sa pag-scale sa mga modelo mao ang arbitraryong pagdugang sa giladmon o gilapdon sa CNN, ingon man ang paggamit sa usa ka mas taas nga resolusyon sa input nga imahe alang sa pagbansay ug pagtimbang-timbang," pagsulat sa in-house nga software engineer nga si Mingxing Tan ug nanguna nga siyentista sa Google AI Quoc Li (Quoc V .le). "Dili sama sa tradisyonal nga mga pamaagi nga arbitraryong nag-scale sa mga parameter sa network sama sa gilapdon, giladmon, ug umaabot nga resolusyon, ang among pamaagi parehas nga nagtimbang sa matag dimensyon nga adunay usa ka piho nga hugpong sa mga hinungdan sa pag-scale."

Aron mapauswag pa ang pasundayag, ang mga tigdukiduki nagpasiugda sa paggamit sa usa ka bag-ong core network, ang mobile inverted bottleneck convolution (MBConv), nga nagsilbi nga sukaranan sa pamilya sa mga modelo sa EfficientNets.

Sa mga pagsulay, ang EfficientNets nagpakita sa mas taas nga katukma ug mas maayo nga episyente kay sa naglungtad nga mga CNN, nga gipamenos ang kinahanglanon alang sa gidak-on sa parameter ug mga kapanguhaan sa pagkalkula pinaagi sa usa ka han-ay sa gidak-on. Usa sa mga modelo, ang EfficientNet-B7, nagpakita sa 8,4 ka beses nga mas gamay nga gidak-on ug 6,1 ka beses nga mas maayo nga performance kaysa sa iladong CNN Gpipe, ug nakab-ot usab ang 84,4% ug 97,1% nga katukma (Top-1 ug Top-5 nga resulta) sa pagsulay sa ImageNet set. Kung itandi sa sikat nga CNN ResNet-50, lain nga modelo sa EfficientNet, EfficientNet-B4, nga naggamit sa parehas nga mga kapanguhaan, nagpakita sa katukma nga 82,6% kumpara sa 76,3% alang sa ResNet-50.

Ang mga modelo sa EfficientNets maayo nga nahimo sa ubang mga dataset, nga nakab-ot ang taas nga katukma sa lima sa walo ka mga pagsulay, lakip ang CIFAR-100 (91,7% nga katukma) ug Bulak (98,8%).

Ang bag-ong neural network sa Google mas tukma ug mas paspas kay sa sikat nga mga katugbang

"Pinaagi sa paghatud sa hinungdanon nga mga pag-uswag sa paghimo sa mga modelo sa neural, gilauman namon nga ang EfficientNets mahimo’g magsilbi nga usa ka bag-ong pundasyon alang sa umaabot nga mga hagit sa panan-aw sa kompyuter," sulat ni Tan ug Li.

Ang source code ug tutorial scripts para sa Google Cloud Tensor Processing Units (TPUs) libre nga magamit sa Github.



Source: 3dnews.ru

Idugang sa usa ka comment