[No.L001]
微軟在2019年年初就遭遇了不少的危機(jī),今天,據(jù)外媒報(bào)道,微軟的Bing搜索中有一些相關(guān)的關(guān)鍵字,正在為戀童癖者提供大量的兒童色情內(nèi)容,微軟回復(fù)正在努力修復(fù)中。
安全公司的調(diào)研發(fā)現(xiàn),微軟必應(yīng)搜索不僅僅會(huì)在搜索結(jié)果中返回裸體兒童照片,如果用戶點(diǎn)擊這些圖片,必應(yīng)也會(huì)在類似圖片功能中展示更多非法虐待兒童圖像,他們還會(huì)向用戶推薦其他類似搜索關(guān)鍵詞,從而跳轉(zhuǎn)出更多的兒童色情內(nèi)容。
然而,谷歌的類似搜索卻沒有像必應(yīng)這樣出現(xiàn)明顯的非法圖像以及內(nèi)容。對此,微軟必應(yīng)和人工智能產(chǎn)品副總裁喬迪·里伯斯(Jordi Ribas)表示,“研究人員發(fā)現(xiàn)的搜索結(jié)果確實(shí)違反了網(wǎng)站規(guī)則,公司正在努力防止此類事故的發(fā)生。”
此前,微軟宣布正在通過他們的AI研究成果讓必應(yīng)搜索變得更加智能。去年,他們還使用專門的人工智能計(jì)算硬件BrainWave,使機(jī)器學(xué)習(xí)模型的性能提高10倍以上,增強(qiáng)了微軟必應(yīng)搜索引擎的功能。
而在兒童色情內(nèi)容上,微軟還開創(chuàng)了PhotoDNA技術(shù),實(shí)現(xiàn)兒童性虐圖片檢測的自動(dòng)化,讓此類非法圖片可以由電腦程序而非工程師自動(dòng)識(shí)別。
據(jù)了解,PhotoDNA可以將圖片轉(zhuǎn)化為常見的黑白格式,還能將圖片尺寸調(diào)整至指定大小。然后該技術(shù)會(huì)把圖片分成一個(gè)個(gè)正方形,同時(shí)給每一個(gè)正方形內(nèi)存在的特有底紋分配一個(gè)數(shù)值。這些數(shù)值結(jié)合在一起以后,就代表一個(gè)圖像文件的“PhotoDNA簽名”。這種獨(dú)一無二的簽名可以被用于與其他在線圖片進(jìn)行比對。
早些時(shí)候,微軟已經(jīng)將PhotoDNA技術(shù)應(yīng)用在必應(yīng)上,用來識(shí)別兒童性虐圖片,阻止這些照片在網(wǎng)上進(jìn)一步傳播。
現(xiàn)在,必應(yīng)卻被曝出這種負(fù)面事件,可以看到這項(xiàng)AI技術(shù)似乎并沒有預(yù)料中的有效,技術(shù)并沒有過濾掉那些非法色情的內(nèi)容。
當(dāng)然,不僅僅是搜索引擎會(huì)遇到這種問題,社交平臺(tái)、內(nèi)容分發(fā)平臺(tái)也經(jīng)常被曝出各種性虐色情內(nèi)容傳播,其實(shí)這也在某種程度上反映了整個(gè)科技行業(yè)的現(xiàn)狀,當(dāng)科技公司過于追求營收的增長以及效率,就會(huì)忽視對公眾利益的保護(hù),比如如何在機(jī)器審核和人工審核之間的達(dá)到平衡。
榜單收錄、高管收錄、融資收錄、活動(dòng)收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報(bào)生成中...