[No.L001]
8月8日消息,據(jù)外媒報道,在智能手機領(lǐng)域,檢測目標(biāo)、分類圖像和識別人臉的應(yīng)用程序并不新鮮,比如Google Lens和Snapchat等應(yīng)用程序就很受歡迎。但無處不在并不能替代質(zhì)量,而最常用的機器學(xué)習(xí)模型(卷積神經(jīng)網(wǎng)絡(luò))要么速度較慢,要么不夠準(zhǔn)確。
然而,希望就在眼前。谷歌的研究人員已經(jīng)開發(fā)出一種人工智能(AI)模型選擇方法,以達(dá)到創(chuàng)紀(jì)錄的速度和精度。
在最新的論文和博客文章中,谷歌團(tuán)隊描述了新的自動化系統(tǒng)MnasNet,它從候選列表中識別出理想的神經(jīng)架構(gòu),結(jié)合強化學(xué)習(xí)來考慮移動速度限制。在這項研究中,MnasNet在特定的設(shè)備上執(zhí)行不同的模型,并測量它們在現(xiàn)實世界中的性能,自動從中選出最好的。
研究人員在博客中寫道:“通過這種方式,我們可以直接衡量在現(xiàn)實生活中可以實現(xiàn)的東西,因為每種移動設(shè)備都有自己的軟件和硬件特性,可能需要不同的架構(gòu)才能在準(zhǔn)確性和速度之間取得最佳平衡。”
MnasNet系統(tǒng)由三個部分組成:1)一個循環(huán)神經(jīng)網(wǎng)絡(luò)驅(qū)動的控制器,用來學(xué)習(xí)和采樣模型的體系結(jié)構(gòu);2)一個構(gòu)建和訓(xùn)練模型的訓(xùn)練器;3)一個由TensorFlow Lite驅(qū)動的推理引擎,可以測量模型的速度。
谷歌團(tuán)隊在ImageNet(斯坦福大學(xué)和普林斯頓大學(xué)維護(hù)的圖像數(shù)據(jù)庫)和COCO對象識別數(shù)據(jù)集的公共對象上測試了其最優(yōu)模型。結(jié)果顯示,這些模型比最先進(jìn)的移動模型MobileNetV2快1.5倍,比神經(jīng)結(jié)構(gòu)搜索系統(tǒng)NASNet快2.4倍。
與此同時,在COCO上,谷歌的模型在MobileNet上實現(xiàn)了“更高的精度和更高的速度”,其計算成本比SSD300模型低35倍。
研究團(tuán)隊稱:“我們很高興看到我們的自動化方法可以在多個復(fù)雜的移動視覺任務(wù)上實現(xiàn)最先進(jìn)的性能。將來,我們計劃將更多的操作和優(yōu)化納入我們的搜索領(lǐng)域,并將其應(yīng)用于更多的移動視覺任務(wù),如語義分割。”
這項研究是在“前沿”和“離線”人工智能獲得發(fā)展動力之際進(jìn)行的,尤其是在移動領(lǐng)域。在今年6月召開的2018年全球開發(fā)者大會上,蘋果推出了改進(jìn)版ML Core,這是一款面向iOS設(shè)備的機器學(xué)習(xí)框架。
在谷歌2018年I/O開發(fā)者大會上,谷歌發(fā)布了ML Kit,這是個軟件開發(fā)工具包,它包含了許多工具,使得在應(yīng)用程序中更容易部署定制的TensorFlow Lite模型。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...