(電子商務研究中心訊) 重要觀息:
百度MDL支持iOSGPU,在同類框架對比中性能出色。
2017年9月25日,百度在GitHub開源移動端深度學習框架mobile-deep-learning(MDL)的全部代碼以及腳本。MDL框架主要包括模型轉(zhuǎn)換模塊(MDLConverter)、模型加載模塊(Loader)、網(wǎng)絡管理模塊(Net)、矩陣運算模塊(Gemmers)及供Android端調(diào)用的JNI接層(JNIInterfaces)。MDL從立項到開源已經(jīng)迭代了一年多,在移動端關(guān)注的多個指標都表現(xiàn)良好,如體積、功耗、速度等。隨著移動端設(shè)備運算性能的提升,GPU在未來移動端運算領(lǐng)域?qū)袚浅V匾慕巧D壳癕DL已經(jīng)支持iOSGPU運行,iOSlO以上版本機型均可以使用。MDL后面也將加入GPU的Feature實現(xiàn),基于OpenCL的Android平臺GPU運算會讓高端機型的運算性能再提升一個臺階。
移動端部署神經(jīng)網(wǎng)絡是AI行業(yè)的兵家必爭之地。
在移動端部署神經(jīng)網(wǎng)絡的方式主要有兩種,其一是完全在客戶端運行神經(jīng)網(wǎng)絡,其二是運算神經(jīng)網(wǎng)絡過程依賴互聯(lián)網(wǎng),客戶端只負責UI展示。第一種方式的優(yōu)點是不需要經(jīng)過網(wǎng)絡,如果能保證運行速度,用戶體驗會非常流暢。第二種方式的優(yōu)點是實現(xiàn)相對容易,開發(fā)成本更低。在客戶端神經(jīng)網(wǎng)絡落地之前,絕大部分App都使用了運算在服務端、展示在客戶端的方式。主流的移動端深度學習框架主要有蘋果的CoreML、谷歌的TensorFlowLite以及比較流行的Facebook的Caffe2系列。CoreML直接對接蘋果的Xcode集成開發(fā)環(huán)境,模型具有易用性,但是并未開源。谷歌出于開發(fā)人員對移動端深度學習工具的需求推出了TensorFlowLite,但是目前的TensorFlowLite在模型適配和處理速度上還需要進一步優(yōu)化。
Facebook的移動端深度學習框架CaffeGo出現(xiàn)更早,今年Facebook更發(fā)布了Caffe2正式支持移動平臺,可以在iOS、Android以及RaspberryPi上通過幾行代碼來訓練和部署輕量化模型。比較而言,TensorFlowLite和Caffe2更適合進階的開發(fā)人員使用,而亞馬遜的AWS和蘋果的CoreML更有益于自己的開發(fā)人員。
百度二季度業(yè)績一鳴驚人,給予百度增持評級。
百度2017年二季度交出漂亮的財報,業(yè)績已經(jīng)一掃上年頹勢回到巔峰狀態(tài)??梢钥吹蕉径葍衾麧櫷仍鲩L82.9%,環(huán)比增長148.5%,EPS來到了2005年上市以來環(huán)比最高增速144%,同比也達到了較高增速72.4%。
大幅增長的數(shù)字一方面是因為2016年和2017年一季度基數(shù)較低,更重要的是百度提出:“科技讓復雜的世界更簡單”重塑公司內(nèi)部文化。通過7月5日的百度AI開發(fā)者大會,傳遞了百度作為一家人工智能公司的超級決心。(來源:華安證券 編選:中國電子商務研究中心)