Googles nya neurala nätverk är betydligt mer exakt och snabbare än populära analoger

Konvolutionella neurala nätverk (CNN), inspirerade av biologiska processer i den mänskliga visuella cortex, är väl lämpade för uppgifter som objekt- och ansiktsigenkänning, men att förbättra deras noggrannhet kräver tråkig och finjustering. Det är därför forskare vid Google AI Research utforskar nya modeller som skalar CNN på ett "mer strukturerat" sätt. De publicerade resultaten av sitt arbete i artikeln "EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks", publicerad på den vetenskapliga portalen Arxiv.org, såväl som i Publikation på din blogg. Medförfattarna hävdar att familjen av artificiell intelligenssystem, kallade EfficientNets, överträffar noggrannheten hos standard CNN och ökar effektiviteten hos ett neuralt nätverk med upp till 10 gånger.

Googles nya neurala nätverk är betydligt mer exakt och snabbare än populära analoger

"Den vanliga praxisen att skala modeller är att godtyckligt öka djupet eller bredden på CNN och använda högre upplösning på ingångsbilden för utbildning och utvärdering", skriver personalens mjukvaruingenjör Mingxing Tan och Googles AI-ledare Quoc V .Le). "Till skillnad från traditionella metoder som godtyckligt skalar nätverksparametrar som bredd, djup och ingångsupplösning, skalar vår metod varje dimension enhetligt med en fast uppsättning skalningsfaktorer."

För att ytterligare förbättra prestandan förespråkar forskarna att använda ett nytt stamnätverk, mobil inverterad flaskhalskonvolution (MBConv), som fungerar som grunden för EfficientNets-modellfamiljen.

I tester har EfficientNets visat både högre noggrannhet och bättre effektivitet än befintliga CNN, vilket har minskat parameterstorlek och krav på beräkningsresurser med en storleksordning. En av modellerna, EfficientNet-B7, visade 8,4 gånger mindre storlek och 6,1 gånger bättre prestanda än den berömda CNN Gpipe, och uppnådde även 84,4 % och 97,1 % noggrannhet (Top-1 och Top-5). 50 resultat) i tester på ImageNet-uppsättningen. Jämfört med den populära CNN ResNet-4, uppnådde en annan EfficientNet-modell, EfficientNet-B82,6, med liknande resurser en noggrannhet på 76,3 % mot 50 % för ResNet-XNUMX.

EfficientNets-modeller presterade bra på andra datauppsättningar och uppnådde hög noggrannhet på fem av åtta riktmärken, inklusive CIFAR-100-datauppsättningen (91,7 % noggrannhet) och Blommor (98,8%).

Googles nya neurala nätverk är betydligt mer exakt och snabbare än populära analoger

"Genom att tillhandahålla betydande förbättringar av effektiviteten hos neurala modeller förväntar vi oss att EfficientNets har potential att fungera som ett nytt ramverk för framtida datorseendeuppgifter," skriver Tan och Li.

Källkod och utbildningsskript för Googles moln Tensor Processing Units (TPU) är fritt tillgängliga på Github.



Källa: 3dnews.ru

Lägg en kommentar