谷歌的新神經網路比流行的類似物更準確、更快

受人類視覺皮層生物過程的啟發,卷積神經網路 (CNN) 非常適合物體和臉部辨識等任務,但提高其準確性需要繁瑣的微調。 這就是為什麼谷歌人工智慧研究中心的科學家正在探索以「更結構化」的方式擴展 CNN 的新模型。 他們將工作成果發表在 文章 “EfficientNet:重新思考卷積神經網路的模型擴展”,發佈在科學入口網站 Arxiv.org 以及 發表 在你的部落格上。 合著者聲稱,名為 EfficientNets 的人工智慧系統系列超越了標準 CNN 的準確性,並將神經網路的效率提高了 10 倍。

谷歌的新神經網路比流行的類似物更準確、更快

「縮放模型的常見做法是任意增加 CNN 的深度或寬度,並使用更高解析度的輸入影像進行訓練和評估,」軟體工程師 Mingxing Tan 和 Google AI 首席科學家 Quoc V (Le) 寫道。 “與任意縮放網路參數(例如寬度、深度和輸入分辨率)的傳統方法不同,我們的方法使用一組固定的縮放因子來統一縮放每個維度。”

為了進一步提高效能,研究人員提倡使用新的骨幹網路——行動反向瓶頸卷積(MBConv),它是 EfficientNets 系列模型的基礎。

在測試中,EfficientNets 表現出比現有 CNN 更高的準確性和更好的效率,將參數大小和計算資源需求減少了一個數量級。 其中一個模型 EfficientNet-B7 比著名的 CNN Gpipe 表現出小 8,4 倍的尺寸和 6,1 倍的性能,並且在測試中還取得了 84,4% 和 97,1% 的準確率(Top-1 和 Top-5 結果) ImageNet集。 與流行的 CNN ResNet-50 相比,另一種 EfficientNet 模型 EfficientNet-B4 使用類似的資源,實現了 82,6% 的準確率,而 ResNet-76,3 為 50%。

EfficientNets 模型在其他資料集上表現良好,在八個基準測試中的五個上實現了高精度,包括 CIFAR-100 資料集(準確度為 91,7%)和 花卉 (98,8%)。

谷歌的新神經網路比流行的類似物更準確、更快

Tan 和 Li 寫道:“通過顯著提高神經模型的效率,我們預計 EfficientNets 有潛力成為未來計算機視覺任務的新框架。”

Google 雲端張量處理單元 (TPU) 的原始碼和訓練腳本可在 Github上.



來源: 3dnews.ru

添加評論