引言
2023年10月18日,國家互聯(lián)網(wǎng)信息辦公室(“網(wǎng)信辦”)發(fā)布《全球人工智能治理倡議》,重申各國應(yīng)在人工智能治理中加強信息交流和技術(shù)合作,共同做好風(fēng)險防范,形成具有廣泛共識的人工智能治理框架和標(biāo)準(zhǔn)規(guī)范,不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性。2023年11月1日,中國、美國、歐盟、英國在內(nèi)的二十余個主要國家和地區(qū)在英國主辦的首屆人工智能安全全球峰會上共同簽署了《布萊切利宣言》(The Bletchley Declaration),承諾以安全可靠、以人為本、可信賴及負(fù)責(zé)的方式設(shè)計、開發(fā)、部署并使用AI。2023年11月8日,習(xí)近平主席在2023年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會開幕式發(fā)表的視頻致辭中指出,愿同各方攜手落實《全球人工智能治理倡議》,促進人工智能安全發(fā)展。由此可見,人工智能已成為維護國家安全的新疆域,人工智能安全是我國政府一貫密切關(guān)注的重要議題。人工智能作為全球戰(zhàn)略性與變革性信息技術(shù),在對經(jīng)濟社會發(fā)展和人類文明進步產(chǎn)生深遠影響的同時,也在網(wǎng)絡(luò)安全、數(shù)據(jù)安全、算法安全、信息安全等領(lǐng)域引發(fā)新型國家安全風(fēng)險。為防范上述風(fēng)險,各國必將逐步健全和完善人工智能治理相關(guān)的法律法規(guī)。我們在此前與上海人工智能研究院、華為技術(shù)有限公司、上海昇思AI框架&大模型創(chuàng)新中心共同編制的《大模型合規(guī)白皮書》中,對于美國、歐盟以及我國在大模型及人工智能方面的法律監(jiān)管現(xiàn)狀進行梳理,本文作為“國家安全法律專題”系列文章的第二篇,將重點圍繞人工智能安全這一主題,為企業(yè)等制定和實施人工智能安全治理措施提供參考。
一. AI安全與合規(guī)要點概覽
前述《全球人工智能治理倡議》、《布萊切利宣言》以及美國、歐盟、英國等主要國家和地區(qū)人工智能治理相關(guān)監(jiān)管規(guī)則中均提出有關(guān)人工智能安全的要求。其中,我國《全球人工智能治理倡議》以及美國總統(tǒng)拜登于2023年10月簽署的《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》特別提出了針對國家安全風(fēng)險的防范措施:
? 根據(jù)《全球人工智能治理倡議》,面向他國提供人工智能產(chǎn)品和服務(wù)時,應(yīng)尊重他國主權(quán),嚴(yán)格遵守他國法律,接受他國法律管轄;反對利用人工智能技術(shù)優(yōu)勢操縱輿論、傳播虛假信息,干涉他國內(nèi)政、社會制度及社會秩序,危害他國主權(quán);此外,發(fā)展人工智能應(yīng)堅持“智能向善”的宗旨,遵守適用的國際法,符合和平、發(fā)展、公平、正義、民主、自由的全人類共同價值,共同防范和打擊恐怖主義、極端勢力和跨國有組織犯罪集團對人工智能技術(shù)的惡用濫用,各國尤其是大國對在軍事領(lǐng)域研發(fā)和使用人工智能技術(shù)應(yīng)該采取慎重負(fù)責(zé)的態(tài)度。
? 根據(jù)《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》(Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence),開發(fā)任何對國家安全、國家經(jīng)濟安全或國家公共健康和安全構(gòu)成嚴(yán)重風(fēng)險的基礎(chǔ)模型的公司在訓(xùn)練模型時必須通知聯(lián)邦政府,并且必須共享所有紅隊安全測試的結(jié)果;美國國家標(biāo)準(zhǔn)與技術(shù)研究院、國土安全部、能源部將負(fù)責(zé)一系列標(biāo)準(zhǔn)、工具和測試,幫助確保人工智能系統(tǒng)安全、可靠和可信;國家安全委員會和白宮辦公廳主任將制定一份國家安全備忘錄,指導(dǎo)有關(guān)人工智能和安全的進一步行動,以確保美國軍方和情報界在執(zhí)行任務(wù)時安全、合乎道德和有效地使用人工智能,并將指導(dǎo)采取行動,打擊對手在軍事上使用人工智能。
我們理解人工智能安全涉及國家安全的多個領(lǐng)域,如軍事安全、政治安全、社會安全、經(jīng)濟安全、信息安全、算法安全、數(shù)據(jù)安全、網(wǎng)絡(luò)安全等,具體而言:
1. 軍事安全與政治安全
AI在軍事作戰(zhàn)、社會輿情等領(lǐng)域的應(yīng)用可能會影響一國的軍事安全和政治安全。一方面,AI可能通過基于收集用戶畫像進行深度引導(dǎo)并傳播政治主張,對不同的政治信仰、國家、種族、團體進行有失公平的區(qū)別對待,在具有復(fù)雜歷史背景的問題上與開發(fā)者立場保持一致等途徑影響公眾政治意識形態(tài),間接威脅國家的軍事與政治安全。另一方面,AI可用于構(gòu)建新型軍事打擊力量,例如提供最新的戰(zhàn)場態(tài)勢和戰(zhàn)術(shù)建議、智能分析情報、協(xié)助武器智能化,從而提升戰(zhàn)斗能力,直接威脅國家安全。
2. 社會安全
AI的運用與發(fā)展對社會安全有著直觀的影響。AI的發(fā)展滋生了多種新型違法犯罪,例如利用生成式AI定制個性化詐騙話術(shù)行使詐騙敲詐、利用AI合成虛假的私人視頻或色情視頻進行侮辱誹謗、利用AI“刷單”“造粉”制造沖突、操控輿論以制造或推動網(wǎng)絡(luò)暴力等。此外,高度自治的AI系統(tǒng),如無人駕駛汽車、醫(yī)療機器人等,一旦出現(xiàn)數(shù)據(jù)泄露、網(wǎng)絡(luò)連通性差等問題可能會直接危害人類身體健康甚至生命安全。同時,受到訓(xùn)練數(shù)據(jù)或決策算法有偏見、AI產(chǎn)品缺乏道德約束、與AI相關(guān)的安全事件追責(zé)難等因素的影響,AI產(chǎn)品可能會對社會現(xiàn)有倫理道德體系造成強烈沖擊。
我國《全球人工智能治理倡議》、美國《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》以及歐盟《人工智能法案》(Artificial Intelligence Act,“AI法案”)均強調(diào)了AI在社會安全方面引發(fā)的風(fēng)險:
? 《全球人工智能治理倡議》提出,堅持公平性和非歧視性原則,避免在數(shù)據(jù)獲取、算法設(shè)計、技術(shù)開發(fā)、產(chǎn)品研發(fā)與應(yīng)用過程中,產(chǎn)生針對不同或特定民族、信仰、國別、性別等偏見和歧視。同時,堅持倫理先行,建立并完善人工智能倫理準(zhǔn)則、規(guī)范及問責(zé)機制,形成人工智能倫理指南,建立科技倫理審查和監(jiān)管制度,明確人工智能相關(guān)主體的責(zé)任和權(quán)力邊界,充分尊重并保障各群體合法權(quán)益,及時回應(yīng)國內(nèi)和國際相關(guān)倫理關(guān)切。
? 《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》提出,美國將基于《人工智能權(quán)利法案藍圖》以及以一系列行政命令,指示各機構(gòu)打擊算法歧視,同時執(zhí)行現(xiàn)有授權(quán)以保護人們的權(quán)利和安全,確保人工智能促進公平和公民權(quán)利;衛(wèi)生與公眾服務(wù)部還將制定一項安全計劃,接收涉及人工智能的傷害或不安全醫(yī)療行為的報告,并采取行動予以補救。
? AI法案提出,采用潛意識技術(shù)或有目的的操縱或欺騙技術(shù)、利用個人或社會群體的弱點(例如已知的人格特征或社會經(jīng)濟狀況、年齡、身體精神能力)、利用人的社會行為或人格特征進行社會評分的AI系統(tǒng)均屬于存在不可接受風(fēng)險的AI系統(tǒng),嚴(yán)厲禁止使用。針對高風(fēng)險AI系統(tǒng),AI系統(tǒng)部署方必須進行基本權(quán)利影響評估,并向國家當(dāng)局通報評估結(jié)果;此外,高風(fēng)險AI系統(tǒng)必須在技術(shù)上具有穩(wěn)健性,以確保技術(shù)適用于其目的,并且虛假的正面/負(fù)面結(jié)果不會對受保護群體(例如種族或民族起源、性別、年齡等)產(chǎn)生不成比例的影響,同時需要使用足夠具有代表性的數(shù)據(jù)集進行訓(xùn)練和測試,以最小化模型中潛在的不公平偏見風(fēng)險,并確保可以通過適當(dāng)?shù)钠姍z測、糾正和其他緩解措施來解決這些問題。
3. 經(jīng)濟安全
AI可能會給國家經(jīng)濟安全帶來諸多風(fēng)險,例如結(jié)構(gòu)性失業(yè)、行業(yè)寡頭壟斷等等。在結(jié)構(gòu)性失業(yè)方面,在AI與傳統(tǒng)行業(yè)融合的過程中,AI從替代人類的手足和體力發(fā)展到替代人類的大腦,使得重復(fù)體力勞動者、簡單腦力從業(yè)者、咨詢分析等知識型行業(yè)甚至藝術(shù)行業(yè)等都可能面臨下崗?fù){,可能會導(dǎo)致結(jié)構(gòu)性失業(yè)。在行業(yè)寡頭壟斷方面,AI產(chǎn)品對算法、算力和數(shù)據(jù)的高度依賴,可能導(dǎo)致科技企業(yè)的寡頭壟斷,例如,目前生成式AI平臺和應(yīng)用系統(tǒng)大部分由國外互聯(lián)網(wǎng)巨頭及其參股或控股公司研發(fā)而成,這些企業(yè)可以根據(jù)自身積累的數(shù)據(jù)優(yōu)勢、建立“數(shù)據(jù)壁壘”,可能導(dǎo)致AI初創(chuàng)企業(yè)入局難。
我國《全球人工智能治理倡議》、美國《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》也關(guān)注到了AI對經(jīng)濟安全造成的風(fēng)險:
? 《全球人工智能治理倡議》提出,發(fā)展人工智能應(yīng)堅持相互尊重、平等互利的原則,各國無論大小、強弱,無論社會制度如何,都有平等發(fā)展和利用人工智能的權(quán)利。鼓勵全球共同推動人工智能健康發(fā)展,共享人工智能知識成果,開源人工智能技術(shù)。反對以意識形態(tài)劃線或構(gòu)建排他性集團,惡意阻撓他國人工智能發(fā)展。反對利用技術(shù)壟斷和單邊強制措施制造發(fā)展壁壘,惡意阻斷全球人工智能供應(yīng)鏈。
? 《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》提出,為了降低人工智能帶來的工作場所監(jiān)控增加、偏見和工作流失等風(fēng)險,支持工人集體談判的能力,并投資于所有人都能獲得的勞動力培訓(xùn)和發(fā)展,美國將制定原則和最佳實踐,通過解決工作轉(zhuǎn)移、勞動標(biāo)準(zhǔn)、工作場所公平、健康和安全以及數(shù)據(jù)收集等問題,減少人工智能對工人的傷害,最大限度地提高人工智能對工人的益處,這些原則和最佳實踐也將為工人提供指導(dǎo),防止雇主對工人的補償不足、對求職申請的評估不公或影響工人的組織能力,從而使工人受益;此外,美國還將促進公平、開放和有競爭力的人工智能生態(tài)系統(tǒng),為小型開發(fā)者和企業(yè)家提供獲得技術(shù)援助和資源的機會,幫助小型企業(yè)將人工智能突破商業(yè)化。
4. 信息安全
AI信息安全主要包括AI技術(shù)應(yīng)用于信息傳播以及AI產(chǎn)品輸出的信息內(nèi)容安全問題。在信息傳播方面,以融合了AI技術(shù)的智能推薦為例,智能推薦能夠根據(jù)用戶的瀏覽記錄、交易信息等數(shù)據(jù)對用戶興趣愛好、行為習(xí)慣進行分析與預(yù)測,并根據(jù)用戶偏好推薦信息內(nèi)容,不法分子可能會借助智能推薦將虛假信息、涉黃涉恐、違規(guī)言論、釣魚郵寄等不良信息內(nèi)容精準(zhǔn)地投放給易攻擊目標(biāo)人群,增加了不良信息傳播的針對性、有效性和隱蔽性。在輸出內(nèi)容方面,AI技術(shù)可能被用來制作虛假信息內(nèi)容,用以實施詐騙等不法活動,例如通過AI合成能夠以假亂真的聲音、圖像,基于二維圖片合成三維模型并根據(jù)聲音片段修改視頻內(nèi)人物表情和嘴部動作,從而生成口型一致的視頻合成內(nèi)容實施詐騙。
《布萊切利宣言》、美國《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》以及歐盟均關(guān)注到了利用AI技術(shù)生成欺騙性內(nèi)容、虛假信息的風(fēng)險:
? 《布萊切利宣言》提出,人工智能系統(tǒng)操縱內(nèi)容或生成欺騙性內(nèi)容的能力可能會帶來不可預(yù)見的風(fēng)險,前沿人工智能系統(tǒng)可能放大虛假信息等風(fēng)險問題;
? 《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》提出,美國將通過建立檢測人工智能生成內(nèi)容和認(rèn)證官方內(nèi)容的標(biāo)準(zhǔn)和最佳實踐,保護美國人免受人工智能帶來的欺詐和欺騙;
? 為打擊虛假信息,2023年6月,歐盟委員會副主席喬羅娃(Vera Jourova)向谷歌、抖音國際版、微軟、Facebook和Instagram母公司Meta等超過40家科技企業(yè)要求,檢測人工智能(AI)生成的圖片、視頻和文本,向用戶提供明確的標(biāo)記 [1] ;同時,《AI法案》中亦要求生成深度合成內(nèi)容的AI系統(tǒng)使用者需要對外告知該等內(nèi)容是由AI生成或操縱的,而并非真實內(nèi)容。
5. 算法安全
AI算法安全涉及算法設(shè)計或?qū)嵤┡c預(yù)期不符、算法潛藏偏見與歧視、算法黑箱可解釋性差等問題。算法設(shè)計與實施中可能存在的錯誤設(shè)計目標(biāo)函數(shù)、計算成本過高的目標(biāo)函數(shù)導(dǎo)致無法實際運行或者選用算法模型表達能力與實際情況不匹配等問題會導(dǎo)致算法無法實現(xiàn)設(shè)計者的預(yù)設(shè)目標(biāo),最終導(dǎo)致決策偏離甚至出現(xiàn)傷害性結(jié)果。由于算法的設(shè)計目的、模型選擇、數(shù)據(jù)使用等是設(shè)計者和開發(fā)者的主觀選擇,且訓(xùn)練數(shù)據(jù)作為社會現(xiàn)實的反映本身具有歧視性,訓(xùn)練得出的算法模型也會天然潛藏歧視和偏見。盡管AI本身擅長決策,但由于公司或個人主張商業(yè)秘密或私人財產(chǎn)、公眾無法理解決策算法源代碼、決策算法復(fù)雜度高等原因?qū)е碌?/span>AI算法黑箱或不透明,使得相關(guān)監(jiān)督與審查陷入困境。
為確保算法的安全性、解決算法黑箱問題,歐盟《AI法案》要求針對高風(fēng)險的AI系統(tǒng)在系統(tǒng)全生命周期落實透明度要求,并且要求AI系統(tǒng)提供方向下游AI系統(tǒng)部署方、分銷商等披露特定信息。
6. 數(shù)據(jù)安全
AI帶來的數(shù)據(jù)安全問題包括數(shù)據(jù)泄露、數(shù)據(jù)跨境傳輸?shù)龋渲袛?shù)據(jù)泄露問題包括內(nèi)部泄露和其挖掘分析能力帶來的個人信息或隱私暴露。一方面,AI在與用戶交互過程中可能收集許多私密或敏感數(shù)據(jù),這些數(shù)據(jù)也會被AI公司用于進一步訓(xùn)練模型,但在訓(xùn)練后的模型中很難刪除相關(guān)數(shù)據(jù)。如果這些數(shù)據(jù)沒有得到充分的保護,就可能被不法分子獲取,導(dǎo)致個人信息或隱私數(shù)據(jù)泄露的風(fēng)險增加。另一方面,AI可基于其采集到無數(shù)個看似不相關(guān)的數(shù)據(jù)片段,通過深度挖掘分析得到更多與用戶個人信息或隱私相關(guān)的信息,導(dǎo)致現(xiàn)行的數(shù)據(jù)匿名化等安全保護措施無效。同時,根據(jù)部分AI產(chǎn)品的運作原理,用戶在對話框進行交互時,相關(guān)問答數(shù)據(jù)可能會被傳輸?shù)轿挥诰惩獾漠a(chǎn)品開發(fā)公司,其間數(shù)據(jù)的跨境流動可能會引發(fā)數(shù)據(jù)跨境安全問題。
我國、美國以及歐盟等國家和地區(qū)均將數(shù)據(jù)安全視為AI安全方面最為重要的問題之一:
? 我國《全球人工智能治理倡議》提出逐步建立健全法律和規(guī)章制度,保障人工智能研發(fā)和應(yīng)用中的個人隱私與數(shù)據(jù)安全,反對竊取、篡改、泄露和其他非法收集利用個人信息的行為;
? 美國《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》呼吁國會通過兩黨數(shù)據(jù)隱私立法以保護所有美國人的隱私,要求聯(lián)邦優(yōu)先支持加快開發(fā)和使用保護隱私的技術(shù),提出將制定評估隱私保護技術(shù)有效性的指導(dǎo)方針;
? 歐盟《AI法案》要求AI系統(tǒng)的提供方以及部署方均按照《通用數(shù)據(jù)保護條例》的要求履行數(shù)據(jù)保護的義務(wù),其中,AI系統(tǒng)的提供方需對AI系統(tǒng)進行數(shù)據(jù)保護影響評估并發(fā)布摘要,以及提供輸入數(shù)據(jù)或所使用的數(shù)據(jù)集的任何其他相關(guān)信息的說明。
7. 網(wǎng)絡(luò)安全
AI學(xué)習(xí)框架和組件存在的安全漏洞可能會引發(fā)系統(tǒng)安全問題。目前,國內(nèi)AI產(chǎn)品和應(yīng)用的研發(fā)往往基于國內(nèi)外科技巨頭發(fā)布的AI學(xué)習(xí)框架和組件展開,該等框架和組件很有可能未經(jīng)嚴(yán)格測試管理和安全認(rèn)證從而可能存在漏洞和后門等安全風(fēng)險,一旦被攻擊者惡意利用,就有可能會危及AI產(chǎn)品和應(yīng)用的完整性和可用性。同時,AI技術(shù)也可能被用來提升網(wǎng)絡(luò)攻擊效率與破壞能力。AI產(chǎn)品自動生成代碼的能力使得黑客更為便捷地設(shè)計、編寫和執(zhí)行惡意代碼與指令以生成網(wǎng)絡(luò)攻擊工具,且攻擊方將利用AI更快、更準(zhǔn)地發(fā)現(xiàn)漏洞,發(fā)起更隱秘的攻擊。
為應(yīng)對AI模型被廣泛使用而帶來的網(wǎng)絡(luò)風(fēng)險,歐盟《AI法案》要求具有系統(tǒng)性風(fēng)險的AI模型(即使用總計計算能力超過10^25 FLOPs訓(xùn)練的通用人工智能模型)提供方履行進行風(fēng)險評估、減輕風(fēng)險、報告嚴(yán)重事件、進行尖端測試和模型評估、確保網(wǎng)絡(luò)安全等一系列合規(guī)義務(wù)。此外,根據(jù)歐盟的現(xiàn)行要求,前述具有系統(tǒng)性風(fēng)險的AI模型的標(biāo)準(zhǔn)可能會根據(jù)技術(shù)進展進行更新,并在特定情況下基于其他標(biāo)準(zhǔn)(例如用戶數(shù)量或模型的自治程度)判定AI模型為具有系統(tǒng)性風(fēng)險的AI模型。
二. 當(dāng)前中國新國家安全格局下的AI安全實踐
結(jié)合上述主要國家和地區(qū)在AI安全方面的關(guān)注重點以及AI安全在中國的實踐,我們理解企業(yè)構(gòu)建AI安全體系時,至少應(yīng)該將下述要點納入考量:
1. 國家安全角度的整體要求
根據(jù)《中華人民共和國國家安全法》 [2] 對于國家安全的定義,國家安全是指國家政權(quán)、主權(quán)、統(tǒng)一和領(lǐng)土完整、人民福祉、經(jīng)濟社會可持續(xù)發(fā)展和國家其他重大利益相對處于沒有危險和不受內(nèi)外威脅的狀態(tài),以及保障持續(xù)安全狀態(tài)的能力。這就意味著,國家安全的目標(biāo)是追求一個相對穩(wěn)定的低風(fēng)險狀態(tài),而國家安全法的立法目的是實現(xiàn)針對國家安全的沖擊和威脅的治理。
如前文所述,作為具有顛覆性意義的通用目的技術(shù)(General Purpose Technology),AI技術(shù)的發(fā)展將對國家社會經(jīng)濟生活產(chǎn)生重大影響,因此,應(yīng)當(dāng)從國家安全角度對AI技術(shù)進行重點規(guī)制。結(jié)合前述AI安全的要點,以及《中華人民共和國國家安全法》等法律法規(guī),我們理解,AI產(chǎn)品的全生命周期都應(yīng)當(dāng)遵守《中華人民共和國國家安全法》在政治安全、軍事安全、經(jīng)濟安全、文化安全、社會安全、科技安全、網(wǎng)絡(luò)安全等國家安全領(lǐng)域的原則性要求。倘若AI產(chǎn)品涉及《中華人民共和國國家安全法》第五十九條規(guī)定影響或者可能影響國家安全的外商投資、特定物項和關(guān)鍵技術(shù)、網(wǎng)絡(luò)信息技術(shù)產(chǎn)品和服務(wù)、涉及國家安全事項的建設(shè)項目,還需按照我國國家安全審查和監(jiān)管的制度和機制進行相應(yīng)的國家安全審查。
2. 科技倫理安全
如前文所述,社會安全是AI安全的要點之一,而倫理安全是實現(xiàn)社會安全的基礎(chǔ)。在我國,2017年,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》并在該規(guī)劃中提出了制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范的要求,之后《中華人民共和國科學(xué)技術(shù)進步法》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》、《生成式人工智能服務(wù)管理暫行辦法》、《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南—人工智能倫理安全風(fēng)險防范指引》等一系列法律法規(guī)和相關(guān)規(guī)定相繼對于AI倫理治理的要求予以規(guī)定。2022年中共中央辦公廳、國務(wù)院辦公廳發(fā)布了《關(guān)于加強科技倫理治理的意見》,該意見是我國首個國家層面的、專門針對科技倫理治理的指導(dǎo)性文件,提出了科技倫理治理原則以及基本要求。2023年10月新發(fā)布的《科技倫理審查辦法(試行)》對于科技倫理審查的基本程序、標(biāo)準(zhǔn)、條件等提出統(tǒng)一要求,標(biāo)志著我國AI倫理治理監(jiān)管體系建設(shè)進入了新階段。我們在下表中梳理了我國與AI倫理治理相關(guān)的法律法規(guī)及其主要內(nèi)容:
| 序號 |
名稱 |
生效日期 |
AI倫理治理相關(guān)要求 |
| 1. |
《中華人民共和國科學(xué)技術(shù)進步法》
|
2022.01.01 |
要求科學(xué)技術(shù)研究開發(fā)機構(gòu)、高等學(xué)校、企業(yè)事業(yè)單位等應(yīng)當(dāng)履行科技倫理管理主體責(zé)任,按照國家有關(guān)規(guī)定建立健全科技倫理審查機制,對科學(xué)技術(shù)活動開展科技倫理審查,禁止危害國家安全、損害社會公共利益、危害人體健康、違背科研誠信和科技倫理的科學(xué)技術(shù)研究開發(fā)和應(yīng)用活動,否則相關(guān)單位、直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員將受到行政處罰。
|
| 2. |
《新一代人工智能發(fā)展規(guī)劃》
|
2023.08.15 |
提出人工智能倫理規(guī)范和政策法規(guī)建設(shè)的戰(zhàn)略目標(biāo),以及制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范的要求。
|
| 3. |
《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》
|
2022.03.01 |
算法推薦服務(wù)提供者應(yīng)當(dāng)落實算法安全主體責(zé)任,建立健全算法機制機理審核、科技倫理審查、用戶注冊、信息發(fā)布審核、數(shù)據(jù)安全和個人信息保護、反電信網(wǎng)絡(luò)詐騙、安全評估監(jiān)測、安全事件應(yīng)急處置等管理制度和技術(shù)措施,制定并公開算法推薦服務(wù)相關(guān)規(guī)則,配備與算法推薦服務(wù)規(guī)模相適應(yīng)的專業(yè)人員和技術(shù)支撐;此外,還應(yīng)當(dāng)定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過度消費等違反法律法規(guī)或者違背倫理道德的算法模型。
|
| 4. |
《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》
|
2023.01.10 |
深度合成服務(wù)提供者應(yīng)當(dāng)落實信息安全主體責(zé)任,建立健全用戶注冊、算法機制機理審核、科技倫理審查、信息發(fā)布審核、數(shù)據(jù)安全、個人信息保護、反電信網(wǎng)絡(luò)詐騙、應(yīng)急處置等管理制度,具有安全可控的技術(shù)保障措施。
|
| 5. |
《科技倫理審查辦法(試行)》
|
2023.12.01 |
對于涉及以人為研究參與者的科技活動,包括利用人類生物樣本、個人信息數(shù)據(jù)等的科技活動,或不直接涉及人或?qū)嶒瀯游铮赡茉谏】怠⑸鷳B(tài)環(huán)境、公共秩序、可持續(xù)發(fā)展等方面帶來倫理風(fēng)險挑戰(zhàn)的科技活動進行的科技倫理審查和監(jiān)管做出了明確的規(guī)定。 |
| 6. |
《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南—人工智能倫理安全風(fēng)險防范指引》
|
2021.01.05 |
將AI倫理安全風(fēng)險總結(jié)為以下五大方面:(1)失控性風(fēng)險:如AI的行為與影響超出服務(wù)提供者預(yù)設(shè)、理解和可控的范圍,對社會價值等產(chǎn)生負(fù)面影響;(2)社會性風(fēng)險:不合理使用AI而對社會價值等方面產(chǎn)生負(fù)面影響;(3)侵權(quán)性風(fēng)險:AI對人的基本權(quán)利,包括人身、隱私、侵權(quán)性風(fēng)險財產(chǎn)等造成侵害或產(chǎn)生負(fù)面影響;(4)歧視性風(fēng)險:AI對人類特定群體具有主觀或客觀偏見,影響公平公正、造成權(quán)利侵害或負(fù)面影響;(5)責(zé)任性風(fēng)險:AI相關(guān)各方行為失當(dāng)、責(zé)任界定不清,對社會信任、社會價值等方面產(chǎn)生負(fù)面影響。
|
| 7. |
《關(guān)于加強科技倫理治理的意見》
|
2022.03.20 |
提出“科技倫理是開展科學(xué)研究、技術(shù)開發(fā)等科技活動需要遵循的價值理念和行為規(guī)范,是促進科技事業(yè)健康發(fā)展的重要保障”,并明確了以下五大類科技倫理原則:增進人類福祉、尊重生命權(quán)利、堅持公平公正、合理控制風(fēng)險和保持公開透明。
|
基于上述法律法規(guī)和相關(guān)規(guī)定的要求,AI領(lǐng)域的企業(yè)應(yīng)當(dāng)承擔(dān)相應(yīng)AI倫理治理責(zé)任,具體而言:
? 在程序?qū)用妫?/span>AI領(lǐng)域的企業(yè)涉及開展《科技倫理審查辦法(試行)》適用范圍內(nèi)的科技活動,需自行設(shè)立科技倫理(審查)委員會或委托其他單位的科技倫理(審查)委員會對于所涉科技活動進行科技倫理審查,如涉及“具有輿論社會動員能力和社會意識引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)”、“面向存在安全、人身健康風(fēng)險等場景的具有高度自主能力的自動化決策系統(tǒng)的研發(fā)”,還需報請所在地方或相關(guān)行業(yè)主管部門組織開展專家復(fù)核,亦即,對于特定領(lǐng)域,科技倫理審查將成為算法備案以及安全評估以外AI產(chǎn)品上線前的另一前置程序。
? 在實體層面,目前尚未出臺法律法規(guī)對于AI倫理治理細(xì)則予以規(guī)定,盡管如此,一方面,目前《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》、《生成式人工智能服務(wù)管理暫行辦法》均要求大模型服務(wù)提供者履行倫理治理方面的合規(guī)義務(wù);另一方面,《新一代人工智能倫理規(guī)范》 [3] 、《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南—人工智能倫理安全風(fēng)險防范指引》 [4] 等與AI倫理治理相關(guān)的國家標(biāo)準(zhǔn)均已發(fā)布,其他相關(guān)國家標(biāo)準(zhǔn)、團體標(biāo)準(zhǔn)以及行業(yè)標(biāo)準(zhǔn)亦均在制定過程中。因此,AI領(lǐng)域的企業(yè)可以參照前述國家標(biāo)準(zhǔn),進行自我定位,明確自身的AI倫理治理責(zé)任。
3. 算法安全
網(wǎng)信辦等九部門于2021年聯(lián)合發(fā)布的《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》以算法安全可信、高質(zhì)量、創(chuàng)新性發(fā)展為導(dǎo)向,對健全算法安全治理機制、構(gòu)建算法安全監(jiān)管體系提出建議,包括加強算法治理規(guī)范、積極開展算法安全評估。為了解決算法設(shè)計或?qū)嵤┡c預(yù)期不符、算法潛藏偏見與歧視、算法黑箱可解釋性差等算法安全問題,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(“《算法推薦管理規(guī)定》”)、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(“《深度合成管理規(guī)定》”)、《生成式人工智能服務(wù)管理暫行辦法》 [5] (“《AIGC暫行辦法》”)、《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》 [6] (“《安全評估規(guī)定》”)等法律法規(guī)對算法備案、安全評估、算法公開、算法管理等進行規(guī)定,以實現(xiàn)算法的透明性、公平性、可控性,具體而言:
? 在算法備案方面,《算法推薦管理規(guī)定》、《深度合成管理規(guī)定》、《AIGC暫行辦法》都對算法推薦服務(wù)、深度合成服務(wù)、生成式人工智能服務(wù)提出了算法備案要求。根據(jù)《算法推薦管理規(guī)定》,具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者應(yīng)當(dāng)在提供服務(wù)之日起十個工作日內(nèi)通過互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)填報服務(wù)提供者的名稱、服務(wù)形式、應(yīng)用領(lǐng)域、算法類型、算法自評估報告、擬公示內(nèi)容等信息,履行備案手續(xù)。
? 在安全評估方面,《算法推薦管理規(guī)定》、《深度合成管理規(guī)定》、《AIGC暫行辦法》要求對于具有輿論屬性或社會動員能力的算法推薦服務(wù)、深度合成服務(wù)、生成式人工智能服務(wù)按照《安全評估規(guī)定》通過全國互聯(lián)網(wǎng)安全管理服務(wù)平臺完成安全評估。根據(jù)《安全評估規(guī)定》,下述類型的互聯(lián)網(wǎng)信息服務(wù)提供者需按《安全評估規(guī)定》自行進行安全評估:(i)開辦論壇、博客、微博客、聊天室、通訊群組、公眾賬號、短視頻、網(wǎng)絡(luò)直播、信息分享、小程序等信息服務(wù)或者附設(shè)相應(yīng)功能;(ii)開辦提供公眾輿論表達渠道或者具有發(fā)動社會公眾從事特定活動能力的其他互聯(lián)網(wǎng)信息服務(wù)。在此基礎(chǔ)上,《安全評估規(guī)定》規(guī)定了互聯(lián)網(wǎng)信息服務(wù)提供者應(yīng)自行進行安全評估的具體情形。除進行自行安全評估的義務(wù)以外,《安全評估規(guī)定》還要求前述互聯(lián)網(wǎng)信息服務(wù)提供者應(yīng)履行消除安全隱患、形成安全評估報告、提交安全評估報告等各項義務(wù)。除前述安全評估以外,《AIGC暫行辦法》還特別要求深度合成服務(wù)提供者和技術(shù)支持者提供具有以下功能的模型、模板等工具的,應(yīng)當(dāng)依法自行或者委托專業(yè)機構(gòu)開展安全評估:(一)生成或者編輯人臉、人聲等生物識別信息的;(二)生成或者編輯可能涉及國家安全、國家形象、國家利益和社會公共利益的特殊物體、場景等非生物識別信息的。
? 在算法公開方面,《算法推薦管理規(guī)定》要求算法推薦服務(wù)提供者優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,以顯著方式告知用戶其提供算法推薦服務(wù)的情況,并以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運行機制等。《AIGC暫行辦法》要求生成式人工智能服務(wù)提供者應(yīng)當(dāng)基于服務(wù)類型特點,采取有效措施,提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性;明確并公開其服務(wù)的適用人群、場合、用途;如有關(guān)主管部門依據(jù)職責(zé)對生成式人工智能服務(wù)開展監(jiān)督檢查,生成式人工智能服務(wù)提供者應(yīng)當(dāng)依法予以配合,按要求對訓(xùn)練數(shù)據(jù)來源、規(guī)模、類型、標(biāo)注規(guī)則、算法機制機理等予以說明。
? 在算法管理方面,《算法推薦管理規(guī)定》要求算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過度消費等違反法律法規(guī)或者違背倫理道德的算法模型。《AIGC暫行辦法》要求生成式人工智能服務(wù)不得生成民族歧視內(nèi)容,且在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,應(yīng)采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視。
基于上述法律法規(guī)和相關(guān)規(guī)定的要求,我們理解針對AI產(chǎn)品,需要履行算法備案、安全評估等監(jiān)管手續(xù),此外還需遵守前述算法公開、算法管理等要求。值得注意的是,在算法備案方面,在選擇“生成合成類(深度合成)算法”這一算法類型進行算法備案時需要區(qū)分備案主體身份(“深度合成服務(wù)技術(shù)支持者”或“深度合成服務(wù)提供者”),即AI產(chǎn)品的服務(wù)提供方和技術(shù)支持方需要作為不同的備案主體對同一算法進行備案,二者在算法備案項下的義務(wù)相互獨立而不可互相替代。在安全評估方面,除需要對AI產(chǎn)品按照《安全評估規(guī)定》通過全國互聯(lián)網(wǎng)安全管理服務(wù)平臺完成安全評估以外,還需進行新技術(shù)新應(yīng)用安全評估(“雙新評估”),而關(guān)于雙新評估的具體流程以及要求仍有待監(jiān)管部門進一步公開。
4. 信息安全
我國法律法規(guī)和相關(guān)規(guī)定主要規(guī)定了內(nèi)容標(biāo)識以及內(nèi)容治理等方面的要求,以防范深度合成技術(shù)、生成式人工智能服務(wù)以及其他新技術(shù)新應(yīng)用對信息的生成和傳播造成的風(fēng)險,具體而言:
? 在內(nèi)容標(biāo)識方面,《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》 [7] 、《深度合成管理規(guī)定》、《AIGC暫行辦法》對使用深度合成服務(wù)、生成式人工智能服務(wù)、基于深度學(xué)習(xí)/虛擬現(xiàn)實等新技術(shù)新應(yīng)用生成的內(nèi)容標(biāo)識要求進行規(guī)定,其中,《深度合成管理規(guī)定》規(guī)定了內(nèi)容標(biāo)識的具體要求。根據(jù)《深度合成管理規(guī)定》,深度合成服務(wù)提供者應(yīng)根據(jù)深度合成服務(wù)的類型對使用其服務(wù)生成或者編輯的信息內(nèi)容進行標(biāo)識:(1)使用一般深度合成服務(wù)生成或者編輯的信息內(nèi)容,應(yīng)當(dāng)添加不影響用戶使用的標(biāo)識;(2)使用具有生成或者顯著改變信息內(nèi)容功能的深度合成服務(wù) [8] 生成或者編輯的信息內(nèi)容,且可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進行顯著標(biāo)識。此外,為貫徹落實《AIGC暫行辦法》有關(guān)內(nèi)容標(biāo)識的要求,指導(dǎo)生成式人工智能服務(wù)提供者等有關(guān)單位做好內(nèi)容標(biāo)識工作,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會秘書編制了《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南——生成式人工智能服務(wù)內(nèi)容標(biāo)識方法》(TC260-PG-20233A)并于2023年8月發(fā)布,該指南圍繞文本、圖片、音頻、視頻四類生成內(nèi)容給出了具體的內(nèi)容標(biāo)識方法,包括添加顯示區(qū)域標(biāo)識、提示文字標(biāo)識、隱藏水印標(biāo)識、文件元數(shù)據(jù)標(biāo)識、提示語音標(biāo)識。
? 內(nèi)容治理方面,《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》要求網(wǎng)絡(luò)音視頻信息服務(wù)提供者和網(wǎng)絡(luò)音視頻信息服務(wù)使用者不得利用基于深度學(xué)習(xí)、虛擬現(xiàn)實等的新技術(shù)新應(yīng)用制作、發(fā)布、傳播虛假新聞信息;網(wǎng)絡(luò)音視頻信息服務(wù)提供者應(yīng)當(dāng)建立健全辟謠機制,發(fā)現(xiàn)網(wǎng)絡(luò)音視頻信息服務(wù)使用者利用基于深度學(xué)習(xí)、虛擬現(xiàn)實等的虛假圖像、音視頻生成技術(shù)制作、發(fā)布、傳播謠言的,應(yīng)當(dāng)及時采取相應(yīng)的辟謠措施,并將相關(guān)信息報網(wǎng)信、文化和旅游、廣播電視等部門備案。《深度合成管理規(guī)定》要求深度合成服務(wù)提供者應(yīng)當(dāng)建立健全違法和不良信息識別特征庫,并對發(fā)現(xiàn)的違法和不良信息依法采取處置措施、記錄網(wǎng)絡(luò)日志并及時向網(wǎng)信部門和有關(guān)主管部門報告。《AIGC暫行辦法》要求生成式人工智能服務(wù)提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù);根據(jù)《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》 [9] ,網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者是指制作、復(fù)制、發(fā)布網(wǎng)絡(luò)信息內(nèi)容的組織或者個人;網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任包括不得制作、復(fù)制、發(fā)布違法信息,且應(yīng)當(dāng)采取措施,防范和抵制制作、復(fù)制、發(fā)布不良信息。
根據(jù)前述法律法規(guī)和相關(guān)要求,針對利用AI技術(shù)生成的內(nèi)容,服務(wù)提供者應(yīng)根據(jù)AI技術(shù)類型以及內(nèi)容類型進行不同形式的標(biāo)識,以與其他內(nèi)容進行區(qū)分。此外,為了防范利用AI技術(shù)生成的違法和不良信息的傳播,服務(wù)提供者應(yīng)建立健全違法和不良信息識別特征庫,避免生成違法和不良信息,并對發(fā)現(xiàn)的違法和不良信息依法采取處置措施、記錄網(wǎng)絡(luò)日志并及時向網(wǎng)信部門和有關(guān)主管部門報告。為了防范利用AI技術(shù)生成的虛假信息的傳播,服務(wù)提供者不得生成虛假新聞內(nèi)容,并應(yīng)建立健全辟謠機制,對發(fā)現(xiàn)的謠言及時采取相應(yīng)的辟謠措施并將相關(guān)信息報網(wǎng)信、文化和旅游、廣播電視等部門備案。
5. 網(wǎng)絡(luò)安全
我國網(wǎng)絡(luò)安全法律體系以《中華人民共和國網(wǎng)絡(luò)安全法》 [10] 為基礎(chǔ),并通過《網(wǎng)絡(luò)安全審查辦法》 [11] 、《網(wǎng)絡(luò)產(chǎn)品安全漏洞管理規(guī)定》 [12] 等配套法規(guī)對于《中華人民共和國網(wǎng)絡(luò)安全法》中的原則性規(guī)定予以細(xì)化,具體而言:
? 《中華人民共和國網(wǎng)絡(luò)安全法》規(guī)定了網(wǎng)絡(luò)運營者應(yīng)當(dāng)履行的網(wǎng)絡(luò)安全保護義務(wù)。網(wǎng)絡(luò)運營者,是指由計算機或者其他信息終端及相關(guān)設(shè)備組成的按照一定的規(guī)則和程序?qū)π畔⑦M行收集、存儲、傳輸、交換、處理的系統(tǒng)的所有者、管理者和網(wǎng)絡(luò)服務(wù)提供者。網(wǎng)絡(luò)運營者的網(wǎng)絡(luò)安全保護義務(wù)涉及網(wǎng)絡(luò)運行安全、網(wǎng)絡(luò)信息安全等兩個方面。從網(wǎng)絡(luò)運行安全的角度出發(fā),網(wǎng)絡(luò)運營者應(yīng)當(dāng)按照網(wǎng)絡(luò)安全等級保護制度的要求,履行下列安全保護義務(wù),保障網(wǎng)絡(luò)免受干擾、破壞或者未經(jīng)授權(quán)的訪問,防止網(wǎng)絡(luò)數(shù)據(jù)泄露或者被竊取、篡改:制定內(nèi)部安全管理制度和操作規(guī)程,采取防范危害網(wǎng)絡(luò)安全行為、監(jiān)測記錄網(wǎng)絡(luò)安全事件等的技術(shù)措施,制定網(wǎng)絡(luò)安全事件應(yīng)急預(yù)案應(yīng)對危害網(wǎng)絡(luò)安全的事件,并在發(fā)生相應(yīng)事件時向有關(guān)主管部門報告。從網(wǎng)絡(luò)信息安全的角度出發(fā),網(wǎng)絡(luò)運營者應(yīng)當(dāng)設(shè)立用戶信息保護制度,并采取技術(shù)措施和其他必要措施確保其收集的個人信息安全,防止信息泄露、毀損、丟失。
? 《網(wǎng)絡(luò)安全審查辦法》要求關(guān)鍵信息基礎(chǔ)設(shè)施運營者采購網(wǎng)絡(luò)產(chǎn)品和服務(wù),網(wǎng)絡(luò)平臺運營者開展數(shù)據(jù)處理活動,影響或者可能影響國家安全的,應(yīng)當(dāng)進行網(wǎng)絡(luò)安全審查。此外,掌握超過100萬用戶個人信息的網(wǎng)絡(luò)平臺運營者赴國外上市,必須向網(wǎng)絡(luò)安全審查辦公室申報網(wǎng)絡(luò)安全審查。網(wǎng)絡(luò)安全審查將重點評估相關(guān)對象或者情形的以下國家安全風(fēng)險因素:
(一)產(chǎn)品和服務(wù)使用后帶來的關(guān)鍵信息基礎(chǔ)設(shè)施被非法控制、遭受干擾或者破壞的風(fēng)險;
(二)產(chǎn)品和服務(wù)供應(yīng)中斷對關(guān)鍵信息基礎(chǔ)設(shè)施業(yè)務(wù)連續(xù)性的危害;
(三)產(chǎn)品和服務(wù)的安全性、開放性、透明性、來源的多樣性,供應(yīng)渠道的可靠性以及因為政治、外交、貿(mào)易等因素導(dǎo)致供應(yīng)中斷的風(fēng)險;
(四)產(chǎn)品和服務(wù)提供者遵守中國法律、行政法規(guī)、部門規(guī)章情況;
(五)核心數(shù)據(jù)、重要數(shù)據(jù)或者大量個人信息被竊取、泄露、毀損以及非法利用、非法出境的風(fēng)險;
(六)上市存在關(guān)鍵信息基礎(chǔ)設(shè)施、核心數(shù)據(jù)、重要數(shù)據(jù)或者大量個人信息被外國政府影響、控制、惡意利用的風(fēng)險,以及網(wǎng)絡(luò)信息安全風(fēng)險;
(七)其他可能危害關(guān)鍵信息基礎(chǔ)設(shè)施安全、網(wǎng)絡(luò)安全和數(shù)據(jù)安全的因素。
? 《網(wǎng)絡(luò)產(chǎn)品安全漏洞管理規(guī)定》對于網(wǎng)絡(luò)產(chǎn)品提供者、網(wǎng)絡(luò)運營者和網(wǎng)絡(luò)產(chǎn)品安全漏洞收集平臺的漏洞發(fā)行、報告、修補和發(fā)布行為進行規(guī)定。其中,網(wǎng)絡(luò)產(chǎn)品提供者是指中華人民共和國境內(nèi)的網(wǎng)絡(luò)產(chǎn)品(含硬件、軟件)提供者。我們對于《網(wǎng)絡(luò)產(chǎn)品安全漏洞管理規(guī)定》規(guī)定的網(wǎng)絡(luò)產(chǎn)品提供者和網(wǎng)絡(luò)運營者分別應(yīng)承擔(dān)的網(wǎng)絡(luò)產(chǎn)品安全漏洞管理義務(wù)梳理如下:
| 主體類型 |
網(wǎng)絡(luò)產(chǎn)品安全漏洞管理義務(wù) |
| 網(wǎng)絡(luò)產(chǎn)品提供者 |
? 建立健全網(wǎng)絡(luò)產(chǎn)品安全漏洞信息接收渠道并保持暢通,留存網(wǎng)絡(luò)產(chǎn)品安全漏洞信息接收日志不少于6個月; ? 發(fā)現(xiàn)或者獲知所提供網(wǎng)絡(luò)產(chǎn)品存在安全漏洞后,應(yīng)當(dāng)立即采取措施并組織對安全漏洞進行驗證,評估安全漏洞的危害程度和影響范圍;對屬于其上游產(chǎn)品或者組件存在的安全漏洞,應(yīng)當(dāng)立即通知相關(guān)產(chǎn)品提供者; ? 應(yīng)當(dāng)在2日內(nèi)向工業(yè)和信息化部網(wǎng)絡(luò)安全威脅和漏洞信息共享平臺報送相關(guān)漏洞信息。報送內(nèi)容應(yīng)當(dāng)包括存在網(wǎng)絡(luò)產(chǎn)品安全漏洞的產(chǎn)品名稱、型號、版本以及漏洞的技術(shù)特點、危害和影響范圍等; ? 應(yīng)當(dāng)及時組織對網(wǎng)絡(luò)產(chǎn)品安全漏洞進行修補,對于需要產(chǎn)品用戶(含下游廠商)采取軟件、固件升級等措施的,應(yīng)當(dāng)及時將網(wǎng)絡(luò)產(chǎn)品安全漏洞風(fēng)險及修補方式告知可能受影響的產(chǎn)品用戶,并提供必要的技術(shù)支持。 |
| 網(wǎng)絡(luò)運營者 |
? 建立健全網(wǎng)絡(luò)產(chǎn)品安全漏洞信息接收渠道并保持暢通,留存網(wǎng)絡(luò)產(chǎn)品安全漏洞信息接收日志不少于6個月; ? 發(fā)現(xiàn)或者獲知其網(wǎng)絡(luò)、信息系統(tǒng)及其設(shè)備存在安全漏洞后,應(yīng)當(dāng)立即采取措施,及時對安全漏洞進行驗證并完成修補。 |
綜上所述,AI產(chǎn)品的服務(wù)提供方以及技術(shù)支持方作為網(wǎng)絡(luò)運營者,應(yīng)當(dāng)履行《中華人民共和國網(wǎng)絡(luò)安全法》規(guī)定的一般網(wǎng)絡(luò)安全保護義務(wù),包括建立網(wǎng)絡(luò)安全等級保護制度,并按照網(wǎng)絡(luò)安全等級保護制度的要求,履行安全保護義務(wù),并履行個人信息保護義務(wù)(詳見下文數(shù)據(jù)安全部分的分析)。值得注意的是,作為實施網(wǎng)絡(luò)安全等級保護的程序性要求,AI產(chǎn)品的服務(wù)提供方以及技術(shù)支持方應(yīng)當(dāng)完成對象系統(tǒng)的定級、安全建設(shè)與整改、測評、備案等相關(guān)法定程序。特別地,AI產(chǎn)品的服務(wù)提供方以及技術(shù)支持方作為網(wǎng)絡(luò)產(chǎn)品提供者、網(wǎng)絡(luò)運營者,還應(yīng)履行《網(wǎng)絡(luò)產(chǎn)品安全漏洞管理規(guī)定》規(guī)定的網(wǎng)絡(luò)產(chǎn)品安全漏洞管理義務(wù)。此外,如AI產(chǎn)品的服務(wù)提供方、技術(shù)支持方自身涉及觸發(fā)網(wǎng)絡(luò)安全審查的情形(例如開展數(shù)據(jù)處理活動影響或者可能影響國家安全的、掌握超過100萬用戶個人信息的網(wǎng)絡(luò)平臺運營者赴國外上市),應(yīng)自查是否存在網(wǎng)絡(luò)安全審查重點評估的國家安全風(fēng)險因素,并且加強對于上游網(wǎng)絡(luò)產(chǎn)品和服務(wù)提供者的管理;如AI產(chǎn)品的服務(wù)提供方、技術(shù)支持方涉及向網(wǎng)絡(luò)安全審查對象(例如關(guān)鍵基礎(chǔ)設(shè)施運營者)提供網(wǎng)絡(luò)產(chǎn)品或服務(wù)的,應(yīng)當(dāng)配合網(wǎng)絡(luò)安全審查對象履行相應(yīng)的合規(guī)義務(wù)。
6. 數(shù)據(jù)安全
數(shù)據(jù)(含個人信息,下同)是AI的重要生產(chǎn)資料之一。數(shù)據(jù)安全(含個人信息安全與保護,下同)將直接影響AI的發(fā)展安全。
隨著《中華人民共和國網(wǎng)絡(luò)安全法》、《中華人民共和國數(shù)據(jù)安全法》 [13] 、《中華人民共和國個人信息保護法》 [14] 以及其他數(shù)據(jù)安全相關(guān)的法律法規(guī)、國家標(biāo)準(zhǔn)的陸續(xù)出臺,我國已基本形成了數(shù)據(jù)從收集、存儲、使用、加工、傳輸、提供、公開、刪除等全生命周期的合規(guī)體系。國家安全視角下的數(shù)據(jù)安全的合規(guī)重點,可參見后續(xù)我們關(guān)于國家安全視角下的網(wǎng)絡(luò)安全與數(shù)據(jù)安全的相關(guān)文章。
就AI治理而言,我國多部法律法規(guī)和相關(guān)規(guī)定重申了數(shù)據(jù)安全的基本要求,并結(jié)合AI的特點提出了有針對性的規(guī)范:
(1) 《算法推薦管理規(guī)定》要求算法推薦服務(wù)提供者應(yīng)當(dāng)落實數(shù)據(jù)安全管理制度和技術(shù)措施 [15] ;
(2) 《深度合成管理規(guī)定》重申了前述規(guī)定,并要求深度合成服務(wù)提供者和技術(shù)支持者應(yīng)當(dāng)加強訓(xùn)練數(shù)據(jù)管理,采取必要措施保障訓(xùn)練數(shù)據(jù)安全,以及訓(xùn)練數(shù)據(jù)包含個人信息的,應(yīng)當(dāng)遵守個人信息保護的有關(guān)規(guī)定 [16] ;
(3) 《AIGC暫行辦法》同樣強調(diào)提供生成式人工智能服務(wù)不得侵害他人隱私權(quán)和個人信息權(quán)益 [17] ,以及生成式人工智能服務(wù)提供者應(yīng)當(dāng)依法承擔(dān)個人信息處理者責(zé)任、履行個人信息保護義務(wù) [18] 。此外,關(guān)于AI預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等數(shù)據(jù)處理活動,《AIGC暫行辦法》強調(diào),生成式人工智能服務(wù)提供者應(yīng)使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型;采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性;涉及處理個人信息的,應(yīng)當(dāng)獲得個人同意或具備其他合法性基礎(chǔ) [19] ;以及
(4) 根據(jù)《科技倫理審查辦法(試行)》,AI科技活動是否符合數(shù)據(jù)安全的要求是科技倫理審查內(nèi)容之一。例如,對于涉及以人為研究參與者的AI科技活動,需審查個人隱私數(shù)據(jù)、生物特征信息等信息處理是否符合個人信息保護的有關(guān)規(guī)定;對于涉及數(shù)據(jù)和算法的AI科技活動,需審查數(shù)據(jù)的收集、存儲、加工、使用等處理活動以及研究開發(fā)數(shù)據(jù)新技術(shù)等是否符合國家數(shù)據(jù)安全等有關(guān)規(guī)定,以及數(shù)據(jù)安全風(fēng)險監(jiān)測及應(yīng)急處理方案是否得當(dāng) [20] 。
結(jié)合前述法律法規(guī)及AI產(chǎn)品的生命周期,需從AI模型訓(xùn)練、應(yīng)用和優(yōu)化三個階段分別關(guān)注各階段的數(shù)據(jù)安全重點,以及日常數(shù)據(jù)安全體系的搭建和管理:
(1) AI模型訓(xùn)練階段:模型訓(xùn)練階段主要涉及數(shù)據(jù)采集、數(shù)據(jù)清洗及數(shù)據(jù)標(biāo)注等活動。從數(shù)據(jù)安全的角度,該階段需重點關(guān)注訓(xùn)練數(shù)據(jù)來源合法合規(guī):訓(xùn)練數(shù)據(jù)中包含個人信息的,應(yīng)當(dāng)取得相關(guān)個人信息主體的知情同意或具備其他合法性基礎(chǔ),或者可在數(shù)據(jù)清洗階段對相關(guān)個人信息進行脫敏處理;針對非個人信息,需注意訓(xùn)練數(shù)據(jù)中是否可能包含國家秘密、核心數(shù)據(jù)或重要數(shù)據(jù)等可能關(guān)系國家安全、經(jīng)濟運行、社會穩(wěn)定、公共健康和安全等的數(shù)據(jù),若包含該等數(shù)據(jù)則需在數(shù)據(jù)清洗階段對其進行脫敏處理或采取其他必要的措施。
(2) AI模型應(yīng)用階段:模型應(yīng)用階段主要涉及用戶使用基于AI模型構(gòu)建的AI產(chǎn)品輸入內(nèi)容,AI產(chǎn)品相應(yīng)生成內(nèi)容(主要針對生成式AI)。從數(shù)據(jù)安全的角度,該階段需重點關(guān)注用戶輸入數(shù)據(jù)來源合法合規(guī)和AI生成內(nèi)容的數(shù)據(jù)泄露風(fēng)險,以及若AI產(chǎn)品的服務(wù)器在境外,還需關(guān)注數(shù)據(jù)跨境傳輸?shù)娘L(fēng)險及相關(guān)合規(guī)要求(包括取得相關(guān)個人信息主體的知情單獨同意、個人信息保護影響評估及視情況完成安全評估、備案或認(rèn)證等)。
(3) AI模型優(yōu)化階段:模型優(yōu)化階段主要涉及將AI模型應(yīng)用階段采集的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)進一步優(yōu)化AI模型。從數(shù)據(jù)安全的角度,該階段需重點關(guān)注就使用用戶輸入數(shù)據(jù)進一步優(yōu)化模型時注意用戶輸入數(shù)據(jù)中是否包含涉及國家安全、經(jīng)濟運行、社會穩(wěn)定、公共健康和安全等的敏感數(shù)據(jù),并在涉及個人信息時確保合規(guī)。
(4) 日常數(shù)據(jù)安全體系的搭建和管理:需注意落實數(shù)據(jù)安全管理制度和技術(shù)措施,依法承擔(dān)數(shù)據(jù)保護義務(wù)。此外,在針對AI科技活動開展科技倫理審查時,需關(guān)注該等科技活動是否符合數(shù)據(jù)安全的要求。
7. 技術(shù)出口安全
一般來講,我國根據(jù)出口技術(shù)是否具有特殊屬性,分別制定了兩套不同的出口管控法律制度:
(1) 管制技術(shù):國家對兩用物項、軍品、核以及其他與維護國家安全和利益、履行防擴散等國際義務(wù)相關(guān)的貨物、技術(shù)、服務(wù)等物項(統(tǒng)稱“管制物項”)的出口活動專門制定了出口管制法律法規(guī)。其中,與企業(yè)經(jīng)營活動關(guān)系較為密切的就是兩用技術(shù)。涉及兩用技術(shù)出口管制相關(guān)法律制度主要包括《中華人民共和國出口管制法》 [21] 以及《兩用物項和技術(shù)進出口許可證管理目錄》 [22] (下稱“兩用物項目錄”)等。另外,商務(wù)部自2022年4月22日發(fā)布的《兩用物項出口管制條例(征求意見稿)》預(yù)計即將成法落地,建議企業(yè)予以關(guān)注;
(2) 民用技術(shù):針對一般民用技術(shù)的出口管控法規(guī)主要包括《中華人民共和國技術(shù)進出口管理條例》 [23] 、《禁止出口限制出口技術(shù)管理辦法》 [24] 以及《中國禁止出口限制出口技術(shù)目錄》 [25] 等。
根據(jù)初步篩查結(jié)果,未見2024年度兩用物項目錄中列出人工智能相關(guān)的物項或技術(shù)。與此同時,經(jīng)查詢《禁止出口限制出口技術(shù)目錄》,在該目錄第十五類“計算機服務(wù)業(yè)”和第十六類“軟件業(yè)”的限制出口技術(shù)項下新增的多項與人工智能相關(guān)的技術(shù),如語音合成技術(shù)、語音識別技術(shù)、交互理解技術(shù)、印刷體掃描識別技術(shù)、手寫體掃描識別技術(shù)、拍照識別技術(shù)、中英文作文批改技術(shù),特別是基于數(shù)據(jù)分析的個性化信息推送服務(wù)技術(shù)等。此外,還新增了多項與網(wǎng)絡(luò)安全相關(guān)的技術(shù),如密碼芯片設(shè)計和實現(xiàn)技術(shù)、量子密碼技術(shù)以及數(shù)據(jù)庫系統(tǒng)安全增強技術(shù)等。此外,目前與人工智能相關(guān)的技術(shù)沒有被列入禁止出口的技術(shù)目錄,因此,人工智能相關(guān)的民用技術(shù)目前屬于自由出口的技術(shù)或者限制出口的技術(shù)。由于《禁止出口限制出口技術(shù)目錄》中表述較為寬泛,涉及人工智能技術(shù)出口的企業(yè)應(yīng)當(dāng)就具體的擬出口技術(shù)對照《禁止出口限制出口技術(shù)目錄》,分析其是否屬于限制出口的技術(shù)。如企業(yè)對于擬出口技術(shù)的分類存疑,可以向國家出口管制管理部門提出咨詢,由出口管制管理部門給出確定的意見。
對于自由出口的技術(shù),企業(yè)應(yīng)當(dāng)按照相關(guān)法律法規(guī)要求,向國務(wù)院外經(jīng)貿(mào)主管部門辦理登記;對于屬于限制出口的人工智能技術(shù),企業(yè)應(yīng)當(dāng)按照法律要求的時間期限,辦理《中華人民共和國技術(shù)出口許可證》。如果限制出口的技術(shù)的出口經(jīng)營者在沒有取得前述出口許可的情況下擅自出口相關(guān)技術(shù),可能被判定為刑法下的走私罪、非法經(jīng)營罪等,從而被追究刑事責(zé)任;尚不夠刑事處罰的,將根據(jù)海關(guān)法的規(guī)定進行處罰,或由國務(wù)院外經(jīng)貿(mào)主管部門給予警告、罰款、撤銷外貿(mào)易經(jīng)營許可等行政處罰。
綜合上述法律規(guī)定,我們結(jié)合實務(wù)中的經(jīng)驗,對擬出口人工智能技術(shù)的企業(yè)提出以下建議:
(1) 全面梳理跨境技術(shù)合作、投資并購、培訓(xùn)交流、內(nèi)部技術(shù)轉(zhuǎn)移等可能涉及技術(shù)出境的風(fēng)險場景,將技術(shù)受控情況納入境外投資前的立項研究和分析,在審批流程中加入關(guān)于技術(shù)出境情況和受控情況判斷的環(huán)節(jié)。
(2) 由于《禁止出口限制出口技術(shù)目錄》中對于人工智能相關(guān)的技術(shù)表述較為寬泛,需要企業(yè)將擬向境外傳輸?shù)娜斯ぶ悄芗夹g(shù)與前述目錄中的技術(shù)描述進行對比分析,判斷擬向境外傳輸?shù)募夹g(shù)是否屬于限制出口的技術(shù)。
(3) 對于經(jīng)過前述評估分析認(rèn)為擬出口的技術(shù)可能屬于涉密技術(shù)或限制出口的技術(shù),應(yīng)當(dāng)按照法律規(guī)定,在法律要求的時間節(jié)點及時向有關(guān)部門進行申報,申請必要的出口許可。
(4) 由于人工智能技術(shù)的發(fā)展速度較快,對國家安全的影響在不斷變化,未來國家可能會在人工智能技術(shù)的受控情況方面進行政策或法律的變更或調(diào)整,企業(yè)應(yīng)密切關(guān)注相關(guān)出口管制限制以及中國反制政策的變化,動態(tài)調(diào)整企業(yè)對于受限技術(shù)的出口管理。
三. AI安全前瞻性合規(guī)風(fēng)險預(yù)測
除前述現(xiàn)行有效的法律法規(guī)和相關(guān)規(guī)定項下的合規(guī)要點以外,隨著我國對于AI產(chǎn)品研發(fā)、設(shè)計、部署、運行等各階段進行約束的法律法規(guī)和國家標(biāo)準(zhǔn)體系逐步完善,我們對于AI安全前瞻性合規(guī)風(fēng)險預(yù)測如下:
? 在生成式人工智能領(lǐng)域,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會于2023年10月發(fā)布《生成式人工智能服務(wù)安全基本要求(征求意見稿)》(“《AIGC安全基本要求草案》”),該草案以《中華人民共和國網(wǎng)絡(luò)安全法》、《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》、《AIGC暫行辦法》、《信息安全技術(shù) 個人信息安全規(guī)范》(GB/T35273)、《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南——生成式人工智能服務(wù)內(nèi)容識別方法》等法律法規(guī)和相關(guān)規(guī)定以及國家標(biāo)準(zhǔn)為基礎(chǔ),對于生成式人工智能服務(wù)的基本安全要求予以規(guī)定,包括語料(即訓(xùn)練數(shù)據(jù))安全、模型安全等方面的具體要求、人工智能服務(wù)提供者應(yīng)遵循的相應(yīng)安全措施以及安全評估的程序和內(nèi)容。值得注意的是,《AIGC安全基本要求草案》明確要求生成式人工智能服務(wù)提供者在進行算法備案申請前,應(yīng)先行進行安全性評估,并在算法備案時提交內(nèi)部評估結(jié)果以及證明材料;在安全評估的程序和內(nèi)容方面,《AIGC安全基本要求草案》規(guī)定了語料安全、生成內(nèi)容安全和問題拒答的評估方法,要求安全評估的內(nèi)容應(yīng)覆蓋《AIGC安全基本要求草案》的所有條款,且每個條款應(yīng)形成單獨的評估結(jié)論,并與相關(guān)證明、支撐材料形成最終的評估報告。在《AIGC安全基本要求草案》定稿后,其中有關(guān)安全評估的要求將彌補我國目前在“雙新評估”具體流程和要求方面的立法空白,為AI領(lǐng)域的企業(yè)提高AI產(chǎn)品的安全水平以及相關(guān)主管部門評價AI產(chǎn)品的安全水平提供參考。
? 在軍事國防安全領(lǐng)域,2017年,國務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,指出人工智能在國防建設(shè)領(lǐng)域得到廣泛應(yīng)用。未來,人工智能將有力提升情報、偵察、通訊、后勤等軍事裝備的自主性與智能化,并廣泛應(yīng)用于信息情報搜集和分析、戰(zhàn)略設(shè)計、實施精準(zhǔn)打擊等,但與此同時,人工智能可能會觸發(fā)各國人工智能軍備競賽,使未來戰(zhàn)爭的精準(zhǔn)度和破壞力大大提升,增加了新型軍事安全威脅。
? 在航空安全領(lǐng)域,國務(wù)院和中央軍事委員會發(fā)布的《無人駕駛航空器飛行管理暫行條例》(2024年1月1日實施)第五條規(guī)定,“國家鼓勵無人駕駛航空器科研創(chuàng)新及其成果的推廣應(yīng)用,促進無人駕駛航空器與大數(shù)據(jù)、人工智能等新技術(shù)融合創(chuàng)新”。人工智能技術(shù)在航空領(lǐng)域的應(yīng)用可能會對航空安全管理以及應(yīng)急事件處置提出新的課題和挑戰(zhàn)。此外,人工智能技術(shù)在火箭以及衛(wèi)星行業(yè)的應(yīng)用將大大提升衛(wèi)星的通信能力以及數(shù)據(jù)收集和處理能力,而依據(jù)衛(wèi)星收集的精確數(shù)據(jù)可以針對特定行業(yè),如氣象、水利等,進行深度分析,此類分析結(jié)論可能對國家安全產(chǎn)生潛在的影響。
四. AI合規(guī)體系及搭建指引
綜合上述內(nèi)容,當(dāng)前我國的實踐中,AI領(lǐng)域的企業(yè)應(yīng)當(dāng)考慮搭建相應(yīng)的AI安全與合規(guī)體系從而對于AI的安全與合規(guī)問題形成系統(tǒng)性保障,例如:
1. 內(nèi)部合規(guī)管理體系及制度
為滿足我國法律法規(guī)和相關(guān)規(guī)定以及國家標(biāo)準(zhǔn)項下關(guān)于AI安全的要求,建議AI領(lǐng)域企業(yè)結(jié)合其所開展的活動以及可能涉及的AI安全領(lǐng)域,建立相應(yīng)的內(nèi)部合規(guī)管理體系及制度。其中,就資質(zhì)證照而言,除了增值電信業(yè)務(wù)經(jīng)營許可證/ICP備案、公安聯(lián)網(wǎng)備案、算法備案、安全評估等基礎(chǔ)性資質(zhì)外,AI領(lǐng)域企業(yè)還應(yīng)根據(jù)自身的業(yè)務(wù)模式綜合判斷是否需要辦理特殊業(yè)務(wù)領(lǐng)域的資質(zhì)證照,例如網(wǎng)絡(luò)文化經(jīng)營許可證、網(wǎng)絡(luò)出版許可證、信息網(wǎng)絡(luò)傳播視聽節(jié)目許可證。除此之外,AI領(lǐng)域企業(yè)還應(yīng)結(jié)合自身的業(yè)務(wù)定位建立相應(yīng)的內(nèi)控制度,例如科技倫理審查制度(關(guān)于科技倫理治理以及科技倫理(審查)委員會的設(shè)立,請見《人工智能(AI):科技倫理治理走起》、《科技倫理(審查)委員會:如何設(shè)立?》)、AI內(nèi)容安全基礎(chǔ)審查制度(包括AI語料安全審查制度、AI模型安全制度等)、數(shù)據(jù)安全制度(包括數(shù)據(jù)采集合規(guī)制度、數(shù)據(jù)處理合規(guī)制度、算法安全及倫理合規(guī)制度等)、內(nèi)容生態(tài)治理制度、用戶權(quán)益保護制度等。關(guān)于AI合規(guī)制度的設(shè)立,請見《AIGC:合規(guī)引領(lǐng)探索之路》。
2. 外部合作層面
AI領(lǐng)域的企業(yè)在對外合作過程中還會與諸多合作方簽署不同的商業(yè)合作協(xié)議。該等商業(yè)合作協(xié)議根據(jù)AI領(lǐng)域的企業(yè)自身的性質(zhì)與合作事項的不同包括AI模型開發(fā)/許可協(xié)議、數(shù)據(jù)交易協(xié)議等諸多類型,AI領(lǐng)域的企業(yè)需要根據(jù)不同的協(xié)議類型以及自身的商業(yè)安排與合作方就各自的權(quán)利義務(wù)達成一致,在此過程中應(yīng)當(dāng)考慮AI安全方面的要求。例如,如企業(yè)自身屬于網(wǎng)絡(luò)安全審查的對象,為加強對于上游網(wǎng)絡(luò)產(chǎn)品或服務(wù)提供者的管理,企業(yè)應(yīng)當(dāng)在與該等上游網(wǎng)絡(luò)產(chǎn)品或服務(wù)提供者簽署的商業(yè)合作協(xié)議中對于上游網(wǎng)絡(luò)產(chǎn)品或服務(wù)提供者的配合網(wǎng)絡(luò)安全審查義務(wù)、保密義務(wù)、安全保護義務(wù)等進行明確約定。
3. 互聯(lián)網(wǎng)應(yīng)用層面
倘若AI領(lǐng)域企業(yè)的業(yè)務(wù)涉及AIGC平臺等互聯(lián)網(wǎng)應(yīng)用,還應(yīng)當(dāng)考慮到AIGC平臺對于信息安全、數(shù)據(jù)安全造成的風(fēng)險,結(jié)合AI業(yè)務(wù)的具體情況,針對用戶協(xié)議、隱私政策、平臺治理規(guī)則等文件進行修訂。例如,為治理違法和不良信息,AIGC平臺的運營方可在用戶協(xié)議中明確約定,用戶需要為其所輸入的內(nèi)容承擔(dān)相應(yīng)的責(zé)任,如保證不侵犯第三方權(quán)利,保證不得含有違反法律法規(guī)或公序良俗的信息,并且不得通過大量的負(fù)面數(shù)據(jù)輸入企圖扭曲模型的輸出等,并制定相應(yīng)的處置措施,例如警告、終止服務(wù)等等。
結(jié)語
AI技術(shù)在金融、醫(yī)療、教育等日常生活領(lǐng)域以及生物、醫(yī)學(xué)、材料科學(xué)等學(xué)科的學(xué)術(shù)研究領(lǐng)域的廣泛應(yīng)用,為AI領(lǐng)域的企業(yè)創(chuàng)造了巨大機遇,但同時也蘊含著不容忽視的風(fēng)險,如《布萊切利宣言》中所述,人工智能可能表現(xiàn)出的造成安全問題的能力可與當(dāng)今最先進的模型相提并論甚至可能超越它們。因此,無論企業(yè)屬于AI產(chǎn)品的研究開發(fā)者、設(shè)計制造者還是部署應(yīng)用者,必須高度關(guān)注AI安全,通過搭建AI安全與合規(guī)體系,履行保障AI安全的義務(wù)和責(zé)任,共同維護國家安全的新疆域。
[1] https://www.stcn.com/article/detail/884259.html。
[2] 2015年7月1日發(fā)布并實施。
[3] 國家新一代人工智能治理專業(yè)委員會制定,2021年9月25日發(fā)布并實施。
[4] 全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會秘書處制定,2021年1月5日發(fā)布并實施。
[5] 2023年7月10日發(fā)布,2023年8月15日實施。
[6] 2018年11月15日發(fā)布,2018年11月30日實施。
[7] 2019年11月18日發(fā)布,2020年1月1日實施。
[8] 根據(jù)《深度合成管理規(guī)定》第十七條,具有生成或者顯著改變信息內(nèi)容功能的服務(wù)包括:(一)智能對話、智能寫作等模擬自然人進行文本的生成或者編輯服務(wù);(二)合成人聲、仿聲等語音生成或者顯著改變個人身份特征的編輯服務(wù);(三)人臉生成、人臉替換、人臉操控、姿態(tài)操控等人物圖像、視頻生成或者顯著改變個人身份特征的編輯服務(wù);(四)沉浸式擬真場景等生成或者編輯服務(wù);(五)其他具有生成或者顯著改變信息內(nèi)容功能的服務(wù)。
[9] 2019年12月15日發(fā)布,2020年3月1日實施。
[10] 2016年11月7日發(fā)布并實施。
[11] 2021年12月28日發(fā)布,2022年2月15日實施。
[12] 2021年7月12日發(fā)布,2021年9月1日實施。
[13] 2021年6月10日發(fā)布,2021年9月1日實施。
[14] 2021年8月20日發(fā)布,2021年11月1日實施。
[15] 《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第7條。
[16] 《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第14條。
[17] 《生成式人工智能服務(wù)管理暫行辦法》第4條。
[18] 《生成式人工智能服務(wù)管理暫行辦法》第9條、第11條。
[19] 《生成式人工智能服務(wù)管理暫行辦法》第7條。
[20] 《科技倫理審查辦法(試行)》第15條。
[21] 2020年10月17日發(fā)布,2020年12月1日實施。
[22] 2023年12月29 日發(fā),2024年1月1日實施。
[23] 2020年11月29日發(fā)布并實施。
[24] 2009年4月20日發(fā)布,2009年5月20日實施。
[25] 2023年12月21日發(fā)布并實施。




