Ang bagong neural network ng Google ay higit na tumpak at mas mabilis kaysa sa mga sikat na analogue

Ang mga convolutional neural network (CNN), na inspirasyon ng mga biological na proseso sa visual cortex ng tao, ay angkop na angkop para sa mga gawain tulad ng object at face recognition, ngunit ang pagpapabuti ng kanilang katumpakan ay nangangailangan ng nakakapagod at fine-tuning. Iyon ang dahilan kung bakit ang mga siyentipiko sa Google AI Research ay nag-e-explore ng mga bagong modelo na sumusukat sa mga CNN sa isang "mas structured" na paraan. Inilathala nila ang mga resulta ng kanilang trabaho sa Artikulo "EfficientNet: Rethinking Model Scaling para sa Convolutional Neural Networks," na nai-post sa siyentipikong portal na Arxiv.org, gayundin sa Publikasyon sa iyong blog. Sinasabi ng mga co-author na ang pamilya ng mga artificial intelligence system, na tinatawag na EfficientNets, ay lumampas sa katumpakan ng mga karaniwang CNN at pinapataas ang kahusayan ng isang neural network nang hanggang 10 beses.

Ang bagong neural network ng Google ay higit na tumpak at mas mabilis kaysa sa mga sikat na analogue

"Ang karaniwang kasanayan ng pag-scale ng mga modelo ay ang arbitraryong dagdagan ang lalim o lapad ng CNN, at gumamit ng mas mataas na resolution ng input na imahe para sa pagsasanay at pagsusuri," isulat ng staff software engineer na si Mingxing Tan at Google AI lead scientist Quoc V .Le). "Hindi tulad ng mga tradisyunal na diskarte na arbitraryong sinusukat ang mga parameter ng network gaya ng lapad, lalim, at resolution ng input, ang aming pamamaraan ay pantay na sinusuri ang bawat dimensyon gamit ang isang nakapirming hanay ng mga scaling factor."

Upang higit na mapabuti ang pagganap, itinataguyod ng mga mananaliksik ang paggamit ng bagong backbone network, ang mobile inverted bottleneck convolution (MBConv), na nagsisilbing batayan para sa pamilya ng mga modelo ng EfficientNets.

Sa mga pagsubok, ang EfficientNets ay nagpakita ng parehong mas mataas na katumpakan at mas mahusay na kahusayan kaysa sa mga kasalukuyang CNN, na binabawasan ang laki ng parameter at mga kinakailangan sa mapagkukunan ng computational sa pamamagitan ng isang pagkakasunud-sunod ng magnitude. Ang isa sa mga modelo, ang EfficientNet-B7, ay nagpakita ng 8,4 beses na mas maliit na sukat at 6,1 beses na mas mahusay na pagganap kaysa sa sikat na CNN Gpipe, at nakamit din ang 84,4% at 97,1% na katumpakan (Top-1 at Top-5). 50 na resulta) sa pagsubok sa ang ImageNet set. Kung ikukumpara sa sikat na CNN ResNet-4, isa pang modelo ng EfficientNet, ang EfficientNet-B82,6, gamit ang mga katulad na mapagkukunan, ay nakamit ang katumpakan ng 76,3% kumpara sa 50% para sa ResNet-XNUMX.

Mahusay na gumanap ang mga modelo ng EfficientNets sa iba pang mga dataset, na nakakamit ng mataas na katumpakan sa lima sa walong mga benchmark, kabilang ang CIFAR-100 dataset (91,7% katumpakan) at Mga bulaklak (98,8%).

Ang bagong neural network ng Google ay higit na tumpak at mas mabilis kaysa sa mga sikat na analogue

"Sa pamamagitan ng pagbibigay ng makabuluhang pagpapabuti sa kahusayan ng mga neural na modelo, inaasahan namin na ang EfficientNets ay may potensyal na magsilbi bilang isang bagong balangkas para sa hinaharap na mga gawain sa computer vision," sumulat sina Tan at Li.

Ang source code at mga script ng pagsasanay para sa cloud Tensor Processing Units (TPUs) ng Google ay malayang magagamit sa Github.



Pinagmulan: 3dnews.ru

Magdagdag ng komento