Ang mga convolutional neural network (CNNs), nga giinspirar sa biolohikal nga mga proseso sa visual cortex sa tawo, haum kaayo alang sa mga buluhaton sama sa pag-ila sa butang ug nawong, apan ang pagpauswag sa ilang pagkatukma nagkinahanglan og kapoy ug maayong pag-tune. Mao nga ang mga siyentipiko sa Google AI Research nagsuhid sa mga bag-ong modelo nga "nag-scale" sa mga CNN sa usa ka "mas istruktura" nga paagi. Ilang gipatik ang resulta sa ilang trabaho sa
"Usa ka sagad nga praktis alang sa pag-scale sa mga modelo mao ang arbitraryong pagdugang sa giladmon o gilapdon sa CNN, ingon man ang paggamit sa usa ka mas taas nga resolusyon sa input nga imahe alang sa pagbansay ug pagtimbang-timbang," pagsulat sa in-house nga software engineer nga si Mingxing Tan ug nanguna nga siyentista sa Google AI Quoc Li (Quoc V .le). "Dili sama sa tradisyonal nga mga pamaagi nga arbitraryong nag-scale sa mga parameter sa network sama sa gilapdon, giladmon, ug umaabot nga resolusyon, ang among pamaagi parehas nga nagtimbang sa matag dimensyon nga adunay usa ka piho nga hugpong sa mga hinungdan sa pag-scale."
Aron mapauswag pa ang pasundayag, ang mga tigdukiduki nagpasiugda sa paggamit sa usa ka bag-ong core network, ang mobile inverted bottleneck convolution (MBConv), nga nagsilbi nga sukaranan sa pamilya sa mga modelo sa EfficientNets.
Sa mga pagsulay, ang EfficientNets nagpakita sa mas taas nga katukma ug mas maayo nga episyente kay sa naglungtad nga mga CNN, nga gipamenos ang kinahanglanon alang sa gidak-on sa parameter ug mga kapanguhaan sa pagkalkula pinaagi sa usa ka han-ay sa gidak-on. Usa sa mga modelo, ang EfficientNet-B7, nagpakita sa 8,4 ka beses nga mas gamay nga gidak-on ug 6,1 ka beses nga mas maayo nga performance kaysa sa iladong CNN Gpipe, ug nakab-ot usab ang 84,4% ug 97,1% nga katukma (Top-1 ug Top-5 nga resulta) sa pagsulay sa ImageNet set. Kung itandi sa sikat nga CNN ResNet-50, lain nga modelo sa EfficientNet, EfficientNet-B4, nga naggamit sa parehas nga mga kapanguhaan, nagpakita sa katukma nga 82,6% kumpara sa 76,3% alang sa ResNet-50.
Ang mga modelo sa EfficientNets maayo nga nahimo sa ubang mga dataset, nga nakab-ot ang taas nga katukma sa lima sa walo ka mga pagsulay, lakip ang CIFAR-100 (91,7% nga katukma) ug
"Pinaagi sa paghatud sa hinungdanon nga mga pag-uswag sa paghimo sa mga modelo sa neural, gilauman namon nga ang EfficientNets mahimo’g magsilbi nga usa ka bag-ong pundasyon alang sa umaabot nga mga hagit sa panan-aw sa kompyuter," sulat ni Tan ug Li.
Ang source code ug tutorial scripts para sa Google Cloud Tensor Processing Units (TPUs) libre nga magamit sa
Source: 3dnews.ru