Googles nye nevrale nettverk er betydelig mer nøyaktig og raskere enn populære analoger

Konvolusjonelle nevrale nettverk (CNN), inspirert av biologiske prosesser i menneskets visuelle cortex, er godt egnet for oppgaver som objekt- og ansiktsgjenkjenning, men å forbedre nøyaktigheten krever kjedelig og finjustering. Det er derfor forskere ved Google AI Research utforsker nye modeller som skalerer CNN-er på en "mer strukturert" måte. De publiserte resultatene av arbeidet sitt i artikkel "EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks," publisert på den vitenskapelige portalen Arxiv.org, så vel som i publikasjon på bloggen din. Medforfatterne hevder at familien av kunstig intelligens-systemer, kalt EfficientNets, overgår nøyaktigheten til standard CNN-er og øker effektiviteten til et nevralt nettverk med opptil 10 ganger.

Googles nye nevrale nettverk er betydelig mer nøyaktig og raskere enn populære analoger

"Den vanlige praksisen med å skalere modeller er å vilkårlig øke dybden eller bredden til CNN, og bruke høyere oppløsning på inndatabildet for opplæring og evaluering," skriver stabsprogramvareingeniør Mingxing Tan og Google AI-leder Quoc V .Le). "I motsetning til tradisjonelle tilnærminger som vilkårlig skalerer nettverksparametere som bredde, dybde og inngangsoppløsning, skalerer metoden vår enhetlig hver dimensjon med et fast sett med skaleringsfaktorer."

For å forbedre ytelsen ytterligere, anbefaler forskerne å bruke et nytt ryggradsnettverk, mobil invertert flaskehalskonvolusjon (MBConv), som fungerer som grunnlaget for EfficientNets-modellene.

I tester har EfficientNets vist både høyere nøyaktighet og bedre effektivitet enn eksisterende CNN-er, og har redusert parameterstørrelse og krav til beregningsressurs med en størrelsesorden. En av modellene, EfficientNet-B7, viste 8,4 ganger mindre størrelse og 6,1 ganger bedre ytelse enn den berømte CNN Gpipe, og oppnådde også 84,4 % og 97,1 % nøyaktighet (Topp-1 og Topp-5). 50 resultat) i testing på ImageNet-settet. Sammenlignet med den populære CNN ResNet-4, oppnådde en annen EfficientNet-modell, EfficientNet-B82,6, som bruker lignende ressurser, en nøyaktighet på 76,3 % mot 50 % for ResNet-XNUMX.

EfficientNets-modeller presterte godt på andre datasett, og oppnådde høy nøyaktighet på fem av åtte benchmarks, inkludert CIFAR-100-datasettet (91,7 % nøyaktighet) og Blomster (98,8%).

Googles nye nevrale nettverk er betydelig mer nøyaktig og raskere enn populære analoger

"Ved å gi betydelige forbedringer i effektiviteten til nevrale modeller, forventer vi at EfficientNets har potensialet til å tjene som et nytt rammeverk for fremtidige datasynsoppgaver," skriver Tan og Li.

Kildekode og opplæringsskript for Googles nettsky Tensor Processing Units (TPUer) er fritt tilgjengelig på Github.



Kilde: 3dnews.ru

Legg til en kommentar