[No.L001]
12月13日消息,據(jù)外媒報(bào)道,作為全球領(lǐng)先人工智能(AI)公司的負(fù)責(zé)人,谷歌首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)本周在接受《華盛頓郵報(bào)》采訪時(shí)表示,對(duì)該技術(shù)有害應(yīng)用的擔(dān)憂“非常合理”,但應(yīng)信任科技行業(yè)能夠負(fù)責(zé)任地監(jiān)管其使用。
皮查伊于美國(guó)當(dāng)?shù)貢r(shí)間周二下午接受《華盛頓郵報(bào)》采訪時(shí)表示,新的AI工具,比如無(wú)人駕駛汽車和疾病檢測(cè)算法等創(chuàng)新的支柱,都要求企業(yè)設(shè)置道德護(hù)欄,并考慮該技術(shù)如何會(huì)被濫用。對(duì)此,皮查伊說(shuō):“我認(rèn)為,科技公司必須認(rèn)識(shí)到,不能繼續(xù)采用技術(shù)開(kāi)發(fā)然后修復(fù)這樣的傳統(tǒng)模式,我認(rèn)為它已經(jīng)行不通。”
皮查伊說(shuō),科技巨頭們必須通過(guò)“自己的機(jī)構(gòu)”確保AI不會(huì)傷害人類。他稱自己對(duì)這項(xiàng)技術(shù)的長(zhǎng)期潛在好處非常樂(lè)觀,但他對(duì)AI潛在風(fēng)險(xiǎn)的擔(dān)憂與其他技術(shù)批評(píng)人士類似。他們都認(rèn)為,這項(xiàng)技術(shù)可能被用于監(jiān)視、致命武器和錯(cuò)誤信息傳播等。其他科技公司高管,如SpaceX和特斯拉(Tesla)創(chuàng)始人埃隆·馬斯克(Elon Musk),都提出了更可怕的預(yù)測(cè),稱AI可能“比核武器危險(xiǎn)得多”。
谷歌的AI技術(shù)是該公司所有業(yè)務(wù)的基礎(chǔ),皮查伊誓言在未來(lái)一年解決其AI引發(fā)的問(wèn)題。谷歌如何決定部署AI,也引發(fā)了最近的員工騷動(dòng)。
皮查伊呼吁進(jìn)行自我監(jiān)管之前,曾前往美國(guó)國(guó)會(huì)作證,議員們威脅要對(duì)技術(shù)的濫用施加限制,包括限制傳播錯(cuò)誤信息和仇恨言論的渠道。皮查伊承認(rèn)AI會(huì)構(gòu)成潛在威脅十分罕見(jiàn),因?yàn)檫@位出生于印度的工程師經(jīng)常吹捧自動(dòng)化系統(tǒng)的影響,并相信這些系統(tǒng)可以在不受人類控制的情況下學(xué)習(xí)和做出決定。
皮查伊在接受采訪時(shí)說(shuō),世界各地的立法者仍在努力控制AI的影響,并希望對(duì)其進(jìn)行政府監(jiān)管。他說(shuō):“有時(shí)我擔(dān)心人們低估了中長(zhǎng)期變化的規(guī)模,我認(rèn)為問(wèn)題實(shí)際上相當(dāng)復(fù)雜。”包括微軟在內(nèi)的其他科技巨頭,最近也接受了AI應(yīng)受到監(jiān)管的觀點(diǎn),監(jiān)管者包括開(kāi)發(fā)這項(xiàng)技術(shù)的公司和監(jiān)督該技術(shù)使用的政府。
但皮查伊解釋說(shuō),如果處理得當(dāng),AI可以帶來(lái)“巨大的好處”,包括幫助醫(yī)生通過(guò)對(duì)健康數(shù)據(jù)的自動(dòng)掃描來(lái)檢測(cè)眼科疾病和其他疾病。他說(shuō):“早期對(duì)一項(xiàng)技術(shù)進(jìn)行監(jiān)管是很困難的,但我確實(shí)認(rèn)為公司應(yīng)該進(jìn)行自我監(jiān)管。這就是為什么我們始終在致力于制定AI原則的原因。我們也許沒(méi)有把每件事都做好,但我們認(rèn)為,開(kāi)始一場(chǎng)對(duì)話非常重要。”
皮查伊于2004年加入谷歌,11年后成為其首席執(zhí)行官。今年1月份,他將AI稱為“人類正在從事的最重要的事情之一”,并表示,對(duì)人類社會(huì)來(lái)說(shuō),AI可能比“電或火”更重要。但是,對(duì)能夠獨(dú)立運(yùn)行的機(jī)器進(jìn)行完美競(jìng)賽重新喚起了人們的擔(dān)憂,即硅谷的企業(yè)精神,如Facebook曾經(jīng)所說(shuō)的“快速行動(dòng),打破常規(guī)”,這可能促使強(qiáng)大而不完美的技術(shù)導(dǎo)致工作崗位流失,并傷害到人們。
在谷歌內(nèi)部,其AI努力也引發(fā)了爭(zhēng)議:今年早些時(shí)候,該公司受到各方批評(píng),因?yàn)樗趪?guó)防部的一項(xiàng)合同中開(kāi)展的工作涉及到AI技術(shù),該合同可以自動(dòng)標(biāo)記汽車、建筑物和其他物體,供軍事無(wú)人機(jī)使用。許多員工為此憤而辭職,因?yàn)楣雀枵龔?ldquo;戰(zhàn)爭(zhēng)業(yè)務(wù)”中獲利。
當(dāng)被問(wèn)及員工的反應(yīng)時(shí),皮查伊告訴《華盛頓郵報(bào)》,員工是“我們文化的重要組成部分”。他說(shuō):“他們肯定有意見(jiàn),這是重要的信號(hào),這也是我所珍惜的東西。”
今年6月份,在宣布谷歌明年不會(huì)續(xù)簽與國(guó)防部的合同后,皮查伊公布了一套AI倫理原則,其中包括全面禁止開(kāi)發(fā)可能被用來(lái)造成損害、損害人權(quán)或“違反國(guó)際公認(rèn)監(jiān)視準(zhǔn)則”的AI系統(tǒng)。
谷歌還因發(fā)布可能被壞人濫用的AI工具而受到批評(píng)。谷歌在2015年發(fā)布了其內(nèi)部機(jī)器學(xué)習(xí)軟件TensorFlow,幫助加速了AI的大規(guī)模開(kāi)發(fā),但它也被用于自動(dòng)制作逼真的假視頻,這些視頻被用于騷擾和傳播虛假信息。
谷歌和皮查伊為此進(jìn)行了辯護(hù),稱限制這項(xiàng)技術(shù)的使用可能會(huì)減少公眾的監(jiān)督,并阻止開(kāi)發(fā)者和研究人員以有益的方式提高其能力。皮查伊在接受《華盛頓郵報(bào)》采訪時(shí)說(shuō):“隨著時(shí)間的推移,隨著技術(shù)的進(jìn)步,我認(rèn)為重要的是圍繞道德和偏見(jiàn)進(jìn)行對(duì)話,并同時(shí)推動(dòng)進(jìn)步。”
他補(bǔ)充稱:“從某種意義上說(shuō),你確實(shí)想要建立倫理框架,讓非計(jì)算機(jī)科學(xué)家盡早參與這一領(lǐng)域的工作。你必須以更具代表性的方式讓人類參與進(jìn)來(lái),因?yàn)檫@項(xiàng)技術(shù)將影響人類。”
皮查伊將圍繞AI設(shè)置參數(shù)的早期工作比作學(xué)術(shù)界在遺傳學(xué)研究早期所做的努力。他說(shuō):“許多生物學(xué)家開(kāi)始劃定這項(xiàng)技術(shù)的發(fā)展方向。學(xué)術(shù)界進(jìn)行了大量的自我監(jiān)管,我認(rèn)為這一點(diǎn)非常重要。”
這位谷歌高管表示,圍繞自主武器的開(kāi)發(fā)將是最重要的,這一問(wèn)題令科技高管和員工感到憤怒。今年7月,代表谷歌等公司的數(shù)千名科技工作者簽署了一項(xiàng)承諾,反對(duì)開(kāi)發(fā)可編程、用于殺死人類的AI工具。
皮查伊還表示,他在《華盛頓郵報(bào)》的一篇報(bào)道中發(fā)現(xiàn)了一些令人憎惡、充滿陰謀論的YouTube視頻,并表示該公司將努力改進(jìn)其檢測(cè)問(wèn)題內(nèi)容的系統(tǒng)。這些視頻自今年4月出現(xiàn)以來(lái),在YouTube上已經(jīng)被觀看了數(shù)百萬(wàn)次。里面討論了民主黨人希拉里·克林頓(Hillary Clinton)和她的長(zhǎng)期助手胡瑪·阿貝丁(Huma Abedin)襲擊、殺害和喝下一名女孩血液的指控,盡管其毫無(wú)根據(jù)。
皮查伊說(shuō),他沒(méi)有看過(guò)這些視頻,他是在國(guó)會(huì)聽(tīng)證會(huì)上被問(wèn)及這些視頻的。他拒絕透露,YouTube在這一領(lǐng)域的缺陷是否由于檢測(cè)系統(tǒng)受限所致,還是由于評(píng)估特定視頻是否應(yīng)該被刪除的政策所致。但他補(bǔ)充說(shuō):“你將看到我們?cè)?019年繼續(xù)采取更多行動(dòng)。”
榜單收錄、高管收錄、融資收錄、活動(dòng)收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報(bào)生成中...