2018年03月16日,在3月出我們有報(bào)道說谷歌利用AI實(shí)現(xiàn)視頻的背景分離,而這涉及到語義圖像分割技術(shù)。語義圖像分割是指將諸如“道路”,“天空”,“人”,“狗”等語義標(biāo)簽分配至圖像中的每一個像素,從而實(shí)現(xiàn)一系列的新應(yīng)用,比如Pixel 2和Pixel 2XL人像模式中的合成淺層景深效果,以及實(shí)時視頻分割。
分配語義標(biāo)簽需要精確定位對象的輪廓,因此這比其他視覺實(shí)體識別任務(wù)(如圖像級分類或邊界框級檢測)要求的定位精度更嚴(yán)格。好消息是,映維網(wǎng)了解到谷歌日前在GitHub上開源了最新的語義分割模型DeepLab-v3+(應(yīng)用在Tensorflow)。
這一版本包含基于強(qiáng)大卷積神經(jīng)網(wǎng)絡(luò)(CNN)骨干體系架構(gòu)構(gòu)建的DeepLab-v3 +模型,旨在應(yīng)用于服務(wù)終端。另外,谷歌同時分享了他們的Tensorflow模型訓(xùn)練與評估代碼,以及已經(jīng)預(yù)先經(jīng)過訓(xùn)練的Pascal VOC 2012和Cityscapes基準(zhǔn)語義分段任務(wù)模型。
自三年前Deeplab模型的第一次出現(xiàn)以來,優(yōu)化的CNN特征提取器,更好的對象比例建模,對情景信息的詳細(xì)同化,改進(jìn)的訓(xùn)練過程,以及越來越強(qiáng)大的硬件和軟件帶來了DeepLab-v2和DeepLab-v3的優(yōu)化。對于DeepLab-v3 +,谷歌添加了簡單而有效的解碼器模塊以細(xì)化分割結(jié)果,尤其是沿對象邊界。谷歌進(jìn)一步將深度可分離卷積應(yīng)用于空間棱錐面緩沖池和解碼器模塊,從而形成更快速,更強(qiáng)大的語義分割編碼器-解碼器網(wǎng)絡(luò)。
由于方法,硬件和數(shù)據(jù)集的進(jìn)步,構(gòu)建在卷積神經(jīng)網(wǎng)絡(luò)之上的現(xiàn)代語義圖像分割系統(tǒng)已經(jīng)達(dá)到了五年前難以想象的精度。谷歌希望與社區(qū)分享他們的系統(tǒng),從而幫助學(xué)界和業(yè)界的其他團(tuán)體能夠更容易地進(jìn)行復(fù)刻,同時進(jìn)一步優(yōu)化系統(tǒng),對新數(shù)據(jù)集進(jìn)行模型訓(xùn)練,并且為這一技術(shù)設(shè)想新的應(yīng)用。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報(bào)生成中...