功能描述:
在開發以卷積神經網絡(CNN)為核心的機器學習模型時,我們通常會先使用固定的資源成本,構建最初的模型,然后增加更多資源(層數)擴展模型,從而獲得更高的準確率。
著名的 CNN 模型 ResNet(深度殘差網絡),就可以用增加層數的方法從ResNet-18 擴展到 ResNet-200。谷歌的 GPipe 模型也通過將基線 CNN 擴展 4 倍,在 ImageNet 數據庫上達到 84.3% 的準確率,力壓所有模型。
一般來說,模型的擴大和縮小都是任意增加 CNN 的深度或寬度,抑或是使用分辨率更大的圖像進行訓練和評估。雖然這些傳統方法提高準確率的效果不錯,但大多需要繁瑣的手動調整,還可能無法達到最佳性能。
因此,谷歌AI團隊最近提出了新的模型縮放方法“復合縮放(Compound Scaling)”和配套的 EfficientNet 模型。他們使用復合系數和 AutoML 從多個維度均衡縮放 CNN,綜合考慮深度和寬度等參數,而不是只單純地考慮一個,使得模型的準確率和效率大幅提升,圖像識別的效率甚至可以大幅提升 10 倍。
這項新方法的根本優勢在于實踐起來非常簡單,背后的原理很好理解,甚至讓人懷疑為什么沒有被更早發現。該研究成果以論文的形式被 ICML 2019(國際機器學習大會)接收,名為 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks。EfficientNet 模型的相關代碼和 TPU 訓練數據也已經在 GitHub 上開源。

源碼來自:https://github.com/titu1994/keras-efficientnets/blob/master/keras_efficientnets/efficientnet.py
聯系:highspeedlogic
QQ :1224848052
微信:HuangL1121
郵箱:1224848052@qq.com
網站:http://www.mat7lab.com/
網站:http://www.hslogic.com/
微信掃一掃:
|