全國網(wǎng)絡(luò)安全標準化技術(shù)委員會在官網(wǎng)發(fā)布了,國家標準《網(wǎng)絡(luò)安全技術(shù) 生成式人工智能服務(wù)安全基本要求》征求意見稿。
該意見稿一共分為《網(wǎng)絡(luò)安全技術(shù) 生成式人工智能服務(wù)安全基本要求-標準文本》、意見匯總處理表和編制說明三大塊。
其中,標準文本涵蓋訓練數(shù)據(jù)安全要求、模型安全要求等,主要是為了加強生成式人工智能的開發(fā)、應用落地的安全性。如果你對該標準有任何意見,可以在2024年7月22日前反饋給國家網(wǎng)安標委秘書處。
2023年7月,國家網(wǎng)信辦等七部門發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,從政策法規(guī)層面為我國生成式人工智能健康發(fā)展保駕護航,為有序開展相關(guān)管理工作明確了方向。
而本次發(fā)布的標準要求是對《辦法》中的安全要求進行細化,規(guī)定了生成式人工智能服務(wù)在安全方面的基本要求,針對當前生成式人工智能服務(wù)研發(fā)過程中的網(wǎng)絡(luò)安全、數(shù)據(jù)安全、個人信息保護,以及面向服務(wù)過程中的應用場景安全風險、軟硬件環(huán)境安全風險、生成內(nèi)容安全風險、權(quán)益保障安全風險等方面,提出細化安全要求。
下面「AIGC開放社區(qū)」將為大家介紹該標準的主要內(nèi)容
數(shù)據(jù)來源安全
對服務(wù)提供者的要求如下。
a)采集來源管理:
1)面向特定數(shù)據(jù)來源進行采集前,應對該來源數(shù)據(jù)進行安全評估,數(shù)據(jù)內(nèi)容中含違法不良信息超過5%的,不應采集該來源數(shù)據(jù);
2)面向特定數(shù)據(jù)來源進行采集后,應對所采集的該來源數(shù)據(jù)進行核驗,含違法不良信息情況超過5%的,不應使用該來源數(shù)據(jù)進行訓練。
b)不同來源訓練數(shù)據(jù)搭配:
1)應提高訓練數(shù)據(jù)來源的多樣性,對每一種語言的訓練數(shù)據(jù),如中文、英文等,以及每一種類型的訓練數(shù)據(jù),如文本、圖片、音頻、視頻等,均應有多個訓練數(shù)據(jù)來源;
2)如需使用境外來源訓練數(shù)據(jù),應與境內(nèi)來源訓練數(shù)據(jù)進行合理搭配。
c)訓練數(shù)據(jù)來源可追溯:
1)使用開源訓練數(shù)據(jù)時,應具有該數(shù)據(jù)來源的開源許可協(xié)議或相關(guān)授權(quán)文件;
2)使用自采訓練數(shù)據(jù)時,應具有采集記錄,不應采集他人已明確不可采集的數(shù)據(jù);不可采集的網(wǎng)頁數(shù)據(jù),或個人已拒絕授權(quán)采集的個人信息等。
3)使用商業(yè)訓練數(shù)據(jù)時:
應有具備法律效力的交易合同、合作協(xié)議等;
交易方或合作方不能提供數(shù)據(jù)來源、質(zhì)量、安全等方面的承諾以及相關(guān)證明材料時,不應使用該訓練數(shù)據(jù);
應對交易方或合作方所提供訓練數(shù)據(jù)、承諾、材料進行審核。
4)將使用者輸入信息當作訓練數(shù)據(jù)時,應具有使用者授權(quán)記錄。
數(shù)據(jù)內(nèi)容安全
a)訓練數(shù)據(jù)內(nèi)容過濾:對于每一種類型的訓練數(shù)據(jù),如文本、圖片、音頻、視頻等,應在將數(shù)據(jù)用于訓練前,對全部訓練數(shù)據(jù)進行過濾,過濾方法包括但不限于關(guān)鍵詞、分類模型、人工抽檢等,去除數(shù)據(jù)中的違法不良信息。
b)知識產(chǎn)權(quán):
1)應有訓練數(shù)據(jù)知識產(chǎn)權(quán)管理策略,并明確負責人;
2)數(shù)據(jù)用于訓練前,應對數(shù)據(jù)中的主要知識產(chǎn)權(quán)侵權(quán)風險進行識別,發(fā)現(xiàn)存在知識產(chǎn)權(quán)侵權(quán)等問題的,服務(wù)提供者不應使用相關(guān)數(shù)據(jù)進行訓練;
注:訓練數(shù)據(jù)中包含文學、藝術(shù)、科學作品的,需要重點識別訓練數(shù)據(jù)以及生成內(nèi)容中著作權(quán)侵權(quán)問題。
3)應建立針對知識產(chǎn)權(quán)問題的投訴舉報渠道;
4)應在用戶服務(wù)協(xié)議中,向使用者告知使用生成內(nèi)容的知識產(chǎn)權(quán)相關(guān)風險,并與使用者約定相
關(guān)責任與義務(wù);
5)應及時根據(jù)國家政策以及第三方投訴情況更新知識產(chǎn)權(quán)相關(guān)策略;
6)宜具備以下知識產(chǎn)權(quán)措施:
公開訓練數(shù)據(jù)中涉及知識產(chǎn)權(quán)部分的摘要信息;在投訴舉報渠道中支持第三方就訓練數(shù)據(jù)使用情況以及相關(guān)知識產(chǎn)權(quán)情況進行查詢。
c)個人信息方面:
1)在使用包含個人信息的訓練數(shù)據(jù)前,應取得對應個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;
2)在使用包含敏感個人信息的訓練數(shù)據(jù)前,應取得對應個人單獨同意或者符合法律、行政法規(guī)規(guī)定的其他情形。
模型安全要求
對服務(wù)提供者的要求如下。
a)模型訓練方面:
1)在訓練過程中,應將生成內(nèi)容安全性作為評價生成結(jié)果優(yōu)劣的主要考慮指標之一;
注:模型生成內(nèi)容是指模型直接輸出的、未經(jīng)其他處理的原生內(nèi)容。
2)應定期對所使用的開發(fā)框架、代碼等進行安全審計,關(guān)注開源框架安全及漏洞相關(guān)問題,識別和修復安全漏洞。
b)模型輸出方面:
1)生成內(nèi)容準確性方面,應采取技術(shù)措施提高生成內(nèi)容響應使用者輸入意圖的能力,提高生成內(nèi)容中數(shù)據(jù)及表述與科學常識及主流認知的符合程度,減少其中的錯誤內(nèi)容;
2)生成內(nèi)容可靠性方面,應采取技術(shù)措施提高生成內(nèi)容格式框架的合理性以及有效內(nèi)容的含量,提高生成內(nèi)容對使用者的幫助作用;
3)問題拒答方面,對明顯偏激以及明顯誘導生成違法不良信息的問題,應拒絕回答;對其他問題,應均能正�;卮�;
4)圖片、視頻等生成內(nèi)容標識方面,應滿足國家相關(guān)規(guī)定以及標準文件要求。
c)模型監(jiān)測方面:
1)應對模型輸入內(nèi)容持續(xù)監(jiān)測,防范惡意輸入攻擊,例如注入攻擊、后門攻擊、數(shù)據(jù)竊取、對抗攻擊等;
2)應建立常態(tài)化監(jiān)測測評手段以及模型應急管理措施,對監(jiān)測測評發(fā)現(xiàn)的提供服務(wù)過程中的安全問題,及時處置并通過針對性的指令微調(diào)、強化學習等方式優(yōu)化模型。
d)模型更新、升級方面:
1)應制定在模型更新、升級時的安全管理策略;
2)應形成管理機制,在模型重要更新、升級后,再次自行組織安全評估。
e)軟硬件環(huán)境方面:
1)模型訓練、推理所采用的計算系統(tǒng)方面:
應評估系統(tǒng)所采用芯片、軟件、工具、算力等方面的供應鏈安全,側(cè)重評估供應持續(xù)性、穩(wěn)定性等方面;
所采用芯片宜支持基于硬件的安全啟動、可信啟動流程及安全性驗證。
2)應將模型訓練環(huán)境與推理環(huán)境隔離,避免數(shù)據(jù)泄露、不當訪問等安全事件,隔離方式包括物理隔離與邏輯隔離。
上面只是部分內(nèi)容,整個安全標準書是非常詳細的,有興趣的可以去官網(wǎng)查看全部內(nèi)容。
我國也是全球為數(shù)不多在生成式人工智能領(lǐng)域連續(xù)出臺安全管理條例的國家,一方面展示了國家對創(chuàng)新變革技術(shù)的重視程度,另外保證了生成式人工智能的場景化落地和應用安全。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...