引言
2023年10月18日,國家互聯網信息辦公室(“網信辦”)發布《全球人工智能治理倡議》,重申各國應在人工智能治理中加強信息交流和技術合作,共同做好風險防范,形成具有廣泛共識的人工智能治理框架和標準規范,不斷提升人工智能技術的安全性、可靠性、可控性、公平性。2023年11月1日,中國、美國、歐盟、英國在內的二十余個主要國家和地區在英國主辦的首屆人工智能安全全球峰會上共同簽署了《布萊切利宣言》(The Bletchley Declaration),承諾以安全可靠、以人為本、可信賴及負責的方式設計、開發、部署并使用AI。2023年11月8日,習近平主席在2023年世界互聯網大會烏鎮峰會開幕式發表的視頻致辭中指出,愿同各方攜手落實《全球人工智能治理倡議》,促進人工智能安全發展。由此可見,人工智能已成為維護國家安全的新疆域,人工智能安全是我國政府一貫密切關注的重要議題。人工智能作為全球戰略性與變革性信息技術,在對經濟社會發展和人類文明進步產生深遠影響的同時,也在網絡安全、數據安全、算法安全、信息安全等領域引發新型國家安全風險。為防范上述風險,各國必將逐步健全和完善人工智能治理相關的法律法規。我們在此前與上海人工智能研究院、華為技術有限公司、上海昇思AI框架&大模型創新中心共同編制的《大模型合規白皮書》中,對于美國、歐盟以及我國在大模型及人工智能方面的法律監管現狀進行梳理,本文作為“國家安全法律專題”系列文章的第二篇,將重點圍繞人工智能安全這一主題,為企業等制定和實施人工智能安全治理措施提供參考。
一. AI安全與合規要點概覽
前述《全球人工智能治理倡議》、《布萊切利宣言》以及美國、歐盟、英國等主要國家和地區人工智能治理相關監管規則中均提出有關人工智能安全的要求。其中,我國《全球人工智能治理倡議》以及美國總統拜登于2023年10月簽署的《關于安全、可靠和值得信賴的人工智能的行政命令》特別提出了針對國家安全風險的防范措施:
? 根據《全球人工智能治理倡議》,面向他國提供人工智能產品和服務時,應尊重他國主權,嚴格遵守他國法律,接受他國法律管轄;反對利用人工智能技術優勢操縱輿論、傳播虛假信息,干涉他國內政、社會制度及社會秩序,危害他國主權;此外,發展人工智能應堅持“智能向善”的宗旨,遵守適用的國際法,符合和平、發展、公平、正義、民主、自由的全人類共同價值,共同防范和打擊恐怖主義、極端勢力和跨國有組織犯罪集團對人工智能技術的惡用濫用,各國尤其是大國對在軍事領域研發和使用人工智能技術應該采取慎重負責的態度。
? 根據《關于安全、可靠和值得信賴的人工智能的行政命令》(Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence),開發任何對國家安全、國家經濟安全或國家公共健康和安全構成嚴重風險的基礎模型的公司在訓練模型時必須通知聯邦政府,并且必須共享所有紅隊安全測試的結果;美國國家標準與技術研究院、國土安全部、能源部將負責一系列標準、工具和測試,幫助確保人工智能系統安全、可靠和可信;國家安全委員會和白宮辦公廳主任將制定一份國家安全備忘錄,指導有關人工智能和安全的進一步行動,以確保美國軍方和情報界在執行任務時安全、合乎道德和有效地使用人工智能,并將指導采取行動,打擊對手在軍事上使用人工智能。
我們理解人工智能安全涉及國家安全的多個領域,如軍事安全、政治安全、社會安全、經濟安全、信息安全、算法安全、數據安全、網絡安全等,具體而言:
1. 軍事安全與政治安全
AI在軍事作戰、社會輿情等領域的應用可能會影響一國的軍事安全和政治安全。一方面,AI可能通過基于收集用戶畫像進行深度引導并傳播政治主張,對不同的政治信仰、國家、種族、團體進行有失公平的區別對待,在具有復雜歷史背景的問題上與開發者立場保持一致等途徑影響公眾政治意識形態,間接威脅國家的軍事與政治安全。另一方面,AI可用于構建新型軍事打擊力量,例如提供最新的戰場態勢和戰術建議、智能分析情報、協助武器智能化,從而提升戰斗能力,直接威脅國家安全。
2. 社會安全
AI的運用與發展對社會安全有著直觀的影響。AI的發展滋生了多種新型違法犯罪,例如利用生成式AI定制個性化詐騙話術行使詐騙敲詐、利用AI合成虛假的私人視頻或色情視頻進行侮辱誹謗、利用AI“刷單”“造粉”制造沖突、操控輿論以制造或推動網絡暴力等。此外,高度自治的AI系統,如無人駕駛汽車、醫療機器人等,一旦出現數據泄露、網絡連通性差等問題可能會直接危害人類身體健康甚至生命安全。同時,受到訓練數據或決策算法有偏見、AI產品缺乏道德約束、與AI相關的安全事件追責難等因素的影響,AI產品可能會對社會現有倫理道德體系造成強烈沖擊。
我國《全球人工智能治理倡議》、美國《關于安全、可靠和值得信賴的人工智能的行政命令》以及歐盟《人工智能法案》(Artificial Intelligence Act,“AI法案”)均強調了AI在社會安全方面引發的風險:
? 《全球人工智能治理倡議》提出,堅持公平性和非歧視性原則,避免在數據獲取、算法設計、技術開發、產品研發與應用過程中,產生針對不同或特定民族、信仰、國別、性別等偏見和歧視。同時,堅持倫理先行,建立并完善人工智能倫理準則、規范及問責機制,形成人工智能倫理指南,建立科技倫理審查和監管制度,明確人工智能相關主體的責任和權力邊界,充分尊重并保障各群體合法權益,及時回應國內和國際相關倫理關切。
? 《關于安全、可靠和值得信賴的人工智能的行政命令》提出,美國將基于《人工智能權利法案藍圖》以及以一系列行政命令,指示各機構打擊算法歧視,同時執行現有授權以保護人們的權利和安全,確保人工智能促進公平和公民權利;衛生與公眾服務部還將制定一項安全計劃,接收涉及人工智能的傷害或不安全醫療行為的報告,并采取行動予以補救。
? AI法案提出,采用潛意識技術或有目的的操縱或欺騙技術、利用個人或社會群體的弱點(例如已知的人格特征或社會經濟狀況、年齡、身體精神能力)、利用人的社會行為或人格特征進行社會評分的AI系統均屬于存在不可接受風險的AI系統,嚴厲禁止使用。針對高風險AI系統,AI系統部署方必須進行基本權利影響評估,并向國家當局通報評估結果;此外,高風險AI系統必須在技術上具有穩健性,以確保技術適用于其目的,并且虛假的正面/負面結果不會對受保護群體(例如種族或民族起源、性別、年齡等)產生不成比例的影響,同時需要使用足夠具有代表性的數據集進行訓練和測試,以最小化模型中潛在的不公平偏見風險,并確保可以通過適當的偏見檢測、糾正和其他緩解措施來解決這些問題。
3. 經濟安全
AI可能會給國家經濟安全帶來諸多風險,例如結構性失業、行業寡頭壟斷等等。在結構性失業方面,在AI與傳統行業融合的過程中,AI從替代人類的手足和體力發展到替代人類的大腦,使得重復體力勞動者、簡單腦力從業者、咨詢分析等知識型行業甚至藝術行業等都可能面臨下崗威脅,可能會導致結構性失業。在行業寡頭壟斷方面,AI產品對算法、算力和數據的高度依賴,可能導致科技企業的寡頭壟斷,例如,目前生成式AI平臺和應用系統大部分由國外互聯網巨頭及其參股或控股公司研發而成,這些企業可以根據自身積累的數據優勢、建立“數據壁壘”,可能導致AI初創企業入局難。
我國《全球人工智能治理倡議》、美國《關于安全、可靠和值得信賴的人工智能的行政命令》也關注到了AI對經濟安全造成的風險:
? 《全球人工智能治理倡議》提出,發展人工智能應堅持相互尊重、平等互利的原則,各國無論大小、強弱,無論社會制度如何,都有平等發展和利用人工智能的權利。鼓勵全球共同推動人工智能健康發展,共享人工智能知識成果,開源人工智能技術。反對以意識形態劃線或構建排他性集團,惡意阻撓他國人工智能發展。反對利用技術壟斷和單邊強制措施制造發展壁壘,惡意阻斷全球人工智能供應鏈。
? 《關于安全、可靠和值得信賴的人工智能的行政命令》提出,為了降低人工智能帶來的工作場所監控增加、偏見和工作流失等風險,支持工人集體談判的能力,并投資于所有人都能獲得的勞動力培訓和發展,美國將制定原則和最佳實踐,通過解決工作轉移、勞動標準、工作場所公平、健康和安全以及數據收集等問題,減少人工智能對工人的傷害,最大限度地提高人工智能對工人的益處,這些原則和最佳實踐也將為工人提供指導,防止雇主對工人的補償不足、對求職申請的評估不公或影響工人的組織能力,從而使工人受益;此外,美國還將促進公平、開放和有競爭力的人工智能生態系統,為小型開發者和企業家提供獲得技術援助和資源的機會,幫助小型企業將人工智能突破商業化。
4. 信息安全
AI信息安全主要包括AI技術應用于信息傳播以及AI產品輸出的信息內容安全問題。在信息傳播方面,以融合了AI技術的智能推薦為例,智能推薦能夠根據用戶的瀏覽記錄、交易信息等數據對用戶興趣愛好、行為習慣進行分析與預測,并根據用戶偏好推薦信息內容,不法分子可能會借助智能推薦將虛假信息、涉黃涉恐、違規言論、釣魚郵寄等不良信息內容精準地投放給易攻擊目標人群,增加了不良信息傳播的針對性、有效性和隱蔽性。在輸出內容方面,AI技術可能被用來制作虛假信息內容,用以實施詐騙等不法活動,例如通過AI合成能夠以假亂真的聲音、圖像,基于二維圖片合成三維模型并根據聲音片段修改視頻內人物表情和嘴部動作,從而生成口型一致的視頻合成內容實施詐騙。
《布萊切利宣言》、美國《關于安全、可靠和值得信賴的人工智能的行政命令》以及歐盟均關注到了利用AI技術生成欺騙性內容、虛假信息的風險:
? 《布萊切利宣言》提出,人工智能系統操縱內容或生成欺騙性內容的能力可能會帶來不可預見的風險,前沿人工智能系統可能放大虛假信息等風險問題;
? 《關于安全、可靠和值得信賴的人工智能的行政命令》提出,美國將通過建立檢測人工智能生成內容和認證官方內容的標準和最佳實踐,保護美國人免受人工智能帶來的欺詐和欺騙;
? 為打擊虛假信息,2023年6月,歐盟委員會副主席喬羅娃(Vera Jourova)向谷歌、抖音國際版、微軟、Facebook和Instagram母公司Meta等超過40家科技企業要求,檢測人工智能(AI)生成的圖片、視頻和文本,向用戶提供明確的標記 [1] ;同時,《AI法案》中亦要求生成深度合成內容的AI系統使用者需要對外告知該等內容是由AI生成或操縱的,而并非真實內容。
5. 算法安全
AI算法安全涉及算法設計或實施與預期不符、算法潛藏偏見與歧視、算法黑箱可解釋性差等問題。算法設計與實施中可能存在的錯誤設計目標函數、計算成本過高的目標函數導致無法實際運行或者選用算法模型表達能力與實際情況不匹配等問題會導致算法無法實現設計者的預設目標,最終導致決策偏離甚至出現傷害性結果。由于算法的設計目的、模型選擇、數據使用等是設計者和開發者的主觀選擇,且訓練數據作為社會現實的反映本身具有歧視性,訓練得出的算法模型也會天然潛藏歧視和偏見。盡管AI本身擅長決策,但由于公司或個人主張商業秘密或私人財產、公眾無法理解決策算法源代碼、決策算法復雜度高等原因導致的AI算法黑箱或不透明,使得相關監督與審查陷入困境。
為確保算法的安全性、解決算法黑箱問題,歐盟《AI法案》要求針對高風險的AI系統在系統全生命周期落實透明度要求,并且要求AI系統提供方向下游AI系統部署方、分銷商等披露特定信息。
6. 數據安全
AI帶來的數據安全問題包括數據泄露、數據跨境傳輸等,其中數據泄露問題包括內部泄露和其挖掘分析能力帶來的個人信息或隱私暴露。一方面,AI在與用戶交互過程中可能收集許多私密或敏感數據,這些數據也會被AI公司用于進一步訓練模型,但在訓練后的模型中很難刪除相關數據。如果這些數據沒有得到充分的保護,就可能被不法分子獲取,導致個人信息或隱私數據泄露的風險增加。另一方面,AI可基于其采集到無數個看似不相關的數據片段,通過深度挖掘分析得到更多與用戶個人信息或隱私相關的信息,導致現行的數據匿名化等安全保護措施無效。同時,根據部分AI產品的運作原理,用戶在對話框進行交互時,相關問答數據可能會被傳輸到位于境外的產品開發公司,其間數據的跨境流動可能會引發數據跨境安全問題。
我國、美國以及歐盟等國家和地區均將數據安全視為AI安全方面最為重要的問題之一:
? 我國《全球人工智能治理倡議》提出逐步建立健全法律和規章制度,保障人工智能研發和應用中的個人隱私與數據安全,反對竊取、篡改、泄露和其他非法收集利用個人信息的行為;
? 美國《關于安全、可靠和值得信賴的人工智能的行政命令》呼吁國會通過兩黨數據隱私立法以保護所有美國人的隱私,要求聯邦優先支持加快開發和使用保護隱私的技術,提出將制定評估隱私保護技術有效性的指導方針;
? 歐盟《AI法案》要求AI系統的提供方以及部署方均按照《通用數據保護條例》的要求履行數據保護的義務,其中,AI系統的提供方需對AI系統進行數據保護影響評估并發布摘要,以及提供輸入數據或所使用的數據集的任何其他相關信息的說明。
7. 網絡安全
AI學習框架和組件存在的安全漏洞可能會引發系統安全問題。目前,國內AI產品和應用的研發往往基于國內外科技巨頭發布的AI學習框架和組件展開,該等框架和組件很有可能未經嚴格測試管理和安全認證從而可能存在漏洞和后門等安全風險,一旦被攻擊者惡意利用,就有可能會危及AI產品和應用的完整性和可用性。同時,AI技術也可能被用來提升網絡攻擊效率與破壞能力。AI產品自動生成代碼的能力使得黑客更為便捷地設計、編寫和執行惡意代碼與指令以生成網絡攻擊工具,且攻擊方將利用AI更快、更準地發現漏洞,發起更隱秘的攻擊。
為應對AI模型被廣泛使用而帶來的網絡風險,歐盟《AI法案》要求具有系統性風險的AI模型(即使用總計計算能力超過10^25 FLOPs訓練的通用人工智能模型)提供方履行進行風險評估、減輕風險、報告嚴重事件、進行尖端測試和模型評估、確保網絡安全等一系列合規義務。此外,根據歐盟的現行要求,前述具有系統性風險的AI模型的標準可能會根據技術進展進行更新,并在特定情況下基于其他標準(例如用戶數量或模型的自治程度)判定AI模型為具有系統性風險的AI模型。
二. 當前中國新國家安全格局下的AI安全實踐
結合上述主要國家和地區在AI安全方面的關注重點以及AI安全在中國的實踐,我們理解企業構建AI安全體系時,至少應該將下述要點納入考量:
1. 國家安全角度的整體要求
根據《中華人民共和國國家安全法》 [2] 對于國家安全的定義,國家安全是指國家政權、主權、統一和領土完整、人民福祉、經濟社會可持續發展和國家其他重大利益相對處于沒有危險和不受內外威脅的狀態,以及保障持續安全狀態的能力。這就意味著,國家安全的目標是追求一個相對穩定的低風險狀態,而國家安全法的立法目的是實現針對國家安全的沖擊和威脅的治理。
如前文所述,作為具有顛覆性意義的通用目的技術(General Purpose Technology),AI技術的發展將對國家社會經濟生活產生重大影響,因此,應當從國家安全角度對AI技術進行重點規制。結合前述AI安全的要點,以及《中華人民共和國國家安全法》等法律法規,我們理解,AI產品的全生命周期都應當遵守《中華人民共和國國家安全法》在政治安全、軍事安全、經濟安全、文化安全、社會安全、科技安全、網絡安全等國家安全領域的原則性要求。倘若AI產品涉及《中華人民共和國國家安全法》第五十九條規定影響或者可能影響國家安全的外商投資、特定物項和關鍵技術、網絡信息技術產品和服務、涉及國家安全事項的建設項目,還需按照我國國家安全審查和監管的制度和機制進行相應的國家安全審查。
2. 科技倫理安全
如前文所述,社會安全是AI安全的要點之一,而倫理安全是實現社會安全的基礎。在我國,2017年,國務院印發《新一代人工智能發展規劃》并在該規劃中提出了制定促進人工智能發展的法律法規和倫理規范的要求,之后《中華人民共和國科學技術進步法》、《互聯網信息服務算法推薦管理規定》、《互聯網信息服務深度合成管理規定》、《生成式人工智能服務管理暫行辦法》、《網絡安全標準實踐指南—人工智能倫理安全風險防范指引》等一系列法律法規和相關規定相繼對于AI倫理治理的要求予以規定。2022年中共中央辦公廳、國務院辦公廳發布了《關于加強科技倫理治理的意見》,該意見是我國首個國家層面的、專門針對科技倫理治理的指導性文件,提出了科技倫理治理原則以及基本要求。2023年10月新發布的《科技倫理審查辦法(試行)》對于科技倫理審查的基本程序、標準、條件等提出統一要求,標志著我國AI倫理治理監管體系建設進入了新階段。我們在下表中梳理了我國與AI倫理治理相關的法律法規及其主要內容:
| 序號 |
名稱 |
生效日期 |
AI倫理治理相關要求 |
| 1. |
《中華人民共和國科學技術進步法》
|
2022.01.01 |
要求科學技術研究開發機構、高等學校、企業事業單位等應當履行科技倫理管理主體責任,按照國家有關規定建立健全科技倫理審查機制,對科學技術活動開展科技倫理審查,禁止危害國家安全、損害社會公共利益、危害人體健康、違背科研誠信和科技倫理的科學技術研究開發和應用活動,否則相關單位、直接負責的主管人員和其他直接責任人員將受到行政處罰。
|
| 2. |
《新一代人工智能發展規劃》
|
2023.08.15 |
提出人工智能倫理規范和政策法規建設的戰略目標,以及制定促進人工智能發展的法律法規和倫理規范的要求。
|
| 3. |
《互聯網信息服務算法推薦管理規定》
|
2022.03.01 |
算法推薦服務提供者應當落實算法安全主體責任,建立健全算法機制機理審核、科技倫理審查、用戶注冊、信息發布審核、數據安全和個人信息保護、反電信網絡詐騙、安全評估監測、安全事件應急處置等管理制度和技術措施,制定并公開算法推薦服務相關規則,配備與算法推薦服務規模相適應的專業人員和技術支撐;此外,還應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫理道德的算法模型。
|
| 4. |
《互聯網信息服務深度合成管理規定》
|
2023.01.10 |
深度合成服務提供者應當落實信息安全主體責任,建立健全用戶注冊、算法機制機理審核、科技倫理審查、信息發布審核、數據安全、個人信息保護、反電信網絡詐騙、應急處置等管理制度,具有安全可控的技術保障措施。
|
| 5. |
《科技倫理審查辦法(試行)》
|
2023.12.01 |
對于涉及以人為研究參與者的科技活動,包括利用人類生物樣本、個人信息數據等的科技活動,或不直接涉及人或實驗動物,但可能在生命健康、生態環境、公共秩序、可持續發展等方面帶來倫理風險挑戰的科技活動進行的科技倫理審查和監管做出了明確的規定。 |
| 6. |
《網絡安全標準實踐指南—人工智能倫理安全風險防范指引》
|
2021.01.05 |
將AI倫理安全風險總結為以下五大方面:(1)失控性風險:如AI的行為與影響超出服務提供者預設、理解和可控的范圍,對社會價值等產生負面影響;(2)社會性風險:不合理使用AI而對社會價值等方面產生負面影響;(3)侵權性風險:AI對人的基本權利,包括人身、隱私、侵權性風險財產等造成侵害或產生負面影響;(4)歧視性風險:AI對人類特定群體具有主觀或客觀偏見,影響公平公正、造成權利侵害或負面影響;(5)責任性風險:AI相關各方行為失當、責任界定不清,對社會信任、社會價值等方面產生負面影響。
|
| 7. |
《關于加強科技倫理治理的意見》
|
2022.03.20 |
提出“科技倫理是開展科學研究、技術開發等科技活動需要遵循的價值理念和行為規范,是促進科技事業健康發展的重要保障”,并明確了以下五大類科技倫理原則:增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險和保持公開透明。
|
基于上述法律法規和相關規定的要求,AI領域的企業應當承擔相應AI倫理治理責任,具體而言:
? 在程序層面,如AI領域的企業涉及開展《科技倫理審查辦法(試行)》適用范圍內的科技活動,需自行設立科技倫理(審查)委員會或委托其他單位的科技倫理(審查)委員會對于所涉科技活動進行科技倫理審查,如涉及“具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發”、“面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統的研發”,還需報請所在地方或相關行業主管部門組織開展專家復核,亦即,對于特定領域,科技倫理審查將成為算法備案以及安全評估以外AI產品上線前的另一前置程序。
? 在實體層面,目前尚未出臺法律法規對于AI倫理治理細則予以規定,盡管如此,一方面,目前《互聯網信息服務算法推薦管理規定》、《互聯網信息服務深度合成管理規定》、《生成式人工智能服務管理暫行辦法》均要求大模型服務提供者履行倫理治理方面的合規義務;另一方面,《新一代人工智能倫理規范》 [3] 、《網絡安全標準實踐指南—人工智能倫理安全風險防范指引》 [4] 等與AI倫理治理相關的國家標準均已發布,其他相關國家標準、團體標準以及行業標準亦均在制定過程中。因此,AI領域的企業可以參照前述國家標準,進行自我定位,明確自身的AI倫理治理責任。
3. 算法安全
網信辦等九部門于2021年聯合發布的《關于加強互聯網信息服務算法綜合治理的指導意見》以算法安全可信、高質量、創新性發展為導向,對健全算法安全治理機制、構建算法安全監管體系提出建議,包括加強算法治理規范、積極開展算法安全評估。為了解決算法設計或實施與預期不符、算法潛藏偏見與歧視、算法黑箱可解釋性差等算法安全問題,《互聯網信息服務算法推薦管理規定》(“《算法推薦管理規定》”)、《互聯網信息服務深度合成管理規定》(“《深度合成管理規定》”)、《生成式人工智能服務管理暫行辦法》 [5] (“《AIGC暫行辦法》”)、《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》 [6] (“《安全評估規定》”)等法律法規對算法備案、安全評估、算法公開、算法管理等進行規定,以實現算法的透明性、公平性、可控性,具體而言:
? 在算法備案方面,《算法推薦管理規定》、《深度合成管理規定》、《AIGC暫行辦法》都對算法推薦服務、深度合成服務、生成式人工智能服務提出了算法備案要求。根據《算法推薦管理規定》,具有輿論屬性或者社會動員能力的算法推薦服務提供者應當在提供服務之日起十個工作日內通過互聯網信息服務算法備案系統填報服務提供者的名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示內容等信息,履行備案手續。
? 在安全評估方面,《算法推薦管理規定》、《深度合成管理規定》、《AIGC暫行辦法》要求對于具有輿論屬性或社會動員能力的算法推薦服務、深度合成服務、生成式人工智能服務按照《安全評估規定》通過全國互聯網安全管理服務平臺完成安全評估。根據《安全評估規定》,下述類型的互聯網信息服務提供者需按《安全評估規定》自行進行安全評估:(i)開辦論壇、博客、微博客、聊天室、通訊群組、公眾賬號、短視頻、網絡直播、信息分享、小程序等信息服務或者附設相應功能;(ii)開辦提供公眾輿論表達渠道或者具有發動社會公眾從事特定活動能力的其他互聯網信息服務。在此基礎上,《安全評估規定》規定了互聯網信息服務提供者應自行進行安全評估的具體情形。除進行自行安全評估的義務以外,《安全評估規定》還要求前述互聯網信息服務提供者應履行消除安全隱患、形成安全評估報告、提交安全評估報告等各項義務。除前述安全評估以外,《AIGC暫行辦法》還特別要求深度合成服務提供者和技術支持者提供具有以下功能的模型、模板等工具的,應當依法自行或者委托專業機構開展安全評估:(一)生成或者編輯人臉、人聲等生物識別信息的;(二)生成或者編輯可能涉及國家安全、國家形象、國家利益和社會公共利益的特殊物體、場景等非生物識別信息的。
? 在算法公開方面,《算法推薦管理規定》要求算法推薦服務提供者優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性,以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。《AIGC暫行辦法》要求生成式人工智能服務提供者應當基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性;明確并公開其服務的適用人群、場合、用途;如有關主管部門依據職責對生成式人工智能服務開展監督檢查,生成式人工智能服務提供者應當依法予以配合,按要求對訓練數據來源、規模、類型、標注規則、算法機制機理等予以說明。
? 在算法管理方面,《算法推薦管理規定》要求算法推薦服務提供者應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫理道德的算法模型。《AIGC暫行辦法》要求生成式人工智能服務不得生成民族歧視內容,且在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,應采取有效措施防止產生民族、信仰、國別、地域、性別、年齡、職業、健康等歧視。
基于上述法律法規和相關規定的要求,我們理解針對AI產品,需要履行算法備案、安全評估等監管手續,此外還需遵守前述算法公開、算法管理等要求。值得注意的是,在算法備案方面,在選擇“生成合成類(深度合成)算法”這一算法類型進行算法備案時需要區分備案主體身份(“深度合成服務技術支持者”或“深度合成服務提供者”),即AI產品的服務提供方和技術支持方需要作為不同的備案主體對同一算法進行備案,二者在算法備案項下的義務相互獨立而不可互相替代。在安全評估方面,除需要對AI產品按照《安全評估規定》通過全國互聯網安全管理服務平臺完成安全評估以外,還需進行新技術新應用安全評估(“雙新評估”),而關于雙新評估的具體流程以及要求仍有待監管部門進一步公開。
4. 信息安全
我國法律法規和相關規定主要規定了內容標識以及內容治理等方面的要求,以防范深度合成技術、生成式人工智能服務以及其他新技術新應用對信息的生成和傳播造成的風險,具體而言:
? 在內容標識方面,《網絡音視頻信息服務管理規定》 [7] 、《深度合成管理規定》、《AIGC暫行辦法》對使用深度合成服務、生成式人工智能服務、基于深度學習/虛擬現實等新技術新應用生成的內容標識要求進行規定,其中,《深度合成管理規定》規定了內容標識的具體要求。根據《深度合成管理規定》,深度合成服務提供者應根據深度合成服務的類型對使用其服務生成或者編輯的信息內容進行標識:(1)使用一般深度合成服務生成或者編輯的信息內容,應當添加不影響用戶使用的標識;(2)使用具有生成或者顯著改變信息內容功能的深度合成服務 [8] 生成或者編輯的信息內容,且可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識。此外,為貫徹落實《AIGC暫行辦法》有關內容標識的要求,指導生成式人工智能服務提供者等有關單位做好內容標識工作,全國信息安全標準化技術委員會秘書編制了《網絡安全標準實踐指南——生成式人工智能服務內容標識方法》(TC260-PG-20233A)并于2023年8月發布,該指南圍繞文本、圖片、音頻、視頻四類生成內容給出了具體的內容標識方法,包括添加顯示區域標識、提示文字標識、隱藏水印標識、文件元數據標識、提示語音標識。
? 內容治理方面,《網絡音視頻信息服務管理規定》要求網絡音視頻信息服務提供者和網絡音視頻信息服務使用者不得利用基于深度學習、虛擬現實等的新技術新應用制作、發布、傳播虛假新聞信息;網絡音視頻信息服務提供者應當建立健全辟謠機制,發現網絡音視頻信息服務使用者利用基于深度學習、虛擬現實等的虛假圖像、音視頻生成技術制作、發布、傳播謠言的,應當及時采取相應的辟謠措施,并將相關信息報網信、文化和旅游、廣播電視等部門備案。《深度合成管理規定》要求深度合成服務提供者應當建立健全違法和不良信息識別特征庫,并對發現的違法和不良信息依法采取處置措施、記錄網絡日志并及時向網信部門和有關主管部門報告。《AIGC暫行辦法》要求生成式人工智能服務提供者應當依法承擔網絡信息內容生產者責任,履行網絡信息安全義務;根據《網絡信息內容生態治理規定》 [9] ,網絡信息內容生產者是指制作、復制、發布網絡信息內容的組織或者個人;網絡信息內容生產者責任包括不得制作、復制、發布違法信息,且應當采取措施,防范和抵制制作、復制、發布不良信息。
根據前述法律法規和相關要求,針對利用AI技術生成的內容,服務提供者應根據AI技術類型以及內容類型進行不同形式的標識,以與其他內容進行區分。此外,為了防范利用AI技術生成的違法和不良信息的傳播,服務提供者應建立健全違法和不良信息識別特征庫,避免生成違法和不良信息,并對發現的違法和不良信息依法采取處置措施、記錄網絡日志并及時向網信部門和有關主管部門報告。為了防范利用AI技術生成的虛假信息的傳播,服務提供者不得生成虛假新聞內容,并應建立健全辟謠機制,對發現的謠言及時采取相應的辟謠措施并將相關信息報網信、文化和旅游、廣播電視等部門備案。
5. 網絡安全
我國網絡安全法律體系以《中華人民共和國網絡安全法》 [10] 為基礎,并通過《網絡安全審查辦法》 [11] 、《網絡產品安全漏洞管理規定》 [12] 等配套法規對于《中華人民共和國網絡安全法》中的原則性規定予以細化,具體而言:
? 《中華人民共和國網絡安全法》規定了網絡運營者應當履行的網絡安全保護義務。網絡運營者,是指由計算機或者其他信息終端及相關設備組成的按照一定的規則和程序對信息進行收集、存儲、傳輸、交換、處理的系統的所有者、管理者和網絡服務提供者。網絡運營者的網絡安全保護義務涉及網絡運行安全、網絡信息安全等兩個方面。從網絡運行安全的角度出發,網絡運營者應當按照網絡安全等級保護制度的要求,履行下列安全保護義務,保障網絡免受干擾、破壞或者未經授權的訪問,防止網絡數據泄露或者被竊取、篡改:制定內部安全管理制度和操作規程,采取防范危害網絡安全行為、監測記錄網絡安全事件等的技術措施,制定網絡安全事件應急預案應對危害網絡安全的事件,并在發生相應事件時向有關主管部門報告。從網絡信息安全的角度出發,網絡運營者應當設立用戶信息保護制度,并采取技術措施和其他必要措施確保其收集的個人信息安全,防止信息泄露、毀損、丟失。
? 《網絡安全審查辦法》要求關鍵信息基礎設施運營者采購網絡產品和服務,網絡平臺運營者開展數據處理活動,影響或者可能影響國家安全的,應當進行網絡安全審查。此外,掌握超過100萬用戶個人信息的網絡平臺運營者赴國外上市,必須向網絡安全審查辦公室申報網絡安全審查。網絡安全審查將重點評估相關對象或者情形的以下國家安全風險因素:
(一)產品和服務使用后帶來的關鍵信息基礎設施被非法控制、遭受干擾或者破壞的風險;
(二)產品和服務供應中斷對關鍵信息基礎設施業務連續性的危害;
(三)產品和服務的安全性、開放性、透明性、來源的多樣性,供應渠道的可靠性以及因為政治、外交、貿易等因素導致供應中斷的風險;
(四)產品和服務提供者遵守中國法律、行政法規、部門規章情況;
(五)核心數據、重要數據或者大量個人信息被竊取、泄露、毀損以及非法利用、非法出境的風險;
(六)上市存在關鍵信息基礎設施、核心數據、重要數據或者大量個人信息被外國政府影響、控制、惡意利用的風險,以及網絡信息安全風險;
(七)其他可能危害關鍵信息基礎設施安全、網絡安全和數據安全的因素。
? 《網絡產品安全漏洞管理規定》對于網絡產品提供者、網絡運營者和網絡產品安全漏洞收集平臺的漏洞發行、報告、修補和發布行為進行規定。其中,網絡產品提供者是指中華人民共和國境內的網絡產品(含硬件、軟件)提供者。我們對于《網絡產品安全漏洞管理規定》規定的網絡產品提供者和網絡運營者分別應承擔的網絡產品安全漏洞管理義務梳理如下:
| 主體類型 |
網絡產品安全漏洞管理義務 |
| 網絡產品提供者 |
? 建立健全網絡產品安全漏洞信息接收渠道并保持暢通,留存網絡產品安全漏洞信息接收日志不少于6個月; ? 發現或者獲知所提供網絡產品存在安全漏洞后,應當立即采取措施并組織對安全漏洞進行驗證,評估安全漏洞的危害程度和影響范圍;對屬于其上游產品或者組件存在的安全漏洞,應當立即通知相關產品提供者; ? 應當在2日內向工業和信息化部網絡安全威脅和漏洞信息共享平臺報送相關漏洞信息。報送內容應當包括存在網絡產品安全漏洞的產品名稱、型號、版本以及漏洞的技術特點、危害和影響范圍等; ? 應當及時組織對網絡產品安全漏洞進行修補,對于需要產品用戶(含下游廠商)采取軟件、固件升級等措施的,應當及時將網絡產品安全漏洞風險及修補方式告知可能受影響的產品用戶,并提供必要的技術支持。 |
| 網絡運營者 |
? 建立健全網絡產品安全漏洞信息接收渠道并保持暢通,留存網絡產品安全漏洞信息接收日志不少于6個月; ? 發現或者獲知其網絡、信息系統及其設備存在安全漏洞后,應當立即采取措施,及時對安全漏洞進行驗證并完成修補。 |
綜上所述,AI產品的服務提供方以及技術支持方作為網絡運營者,應當履行《中華人民共和國網絡安全法》規定的一般網絡安全保護義務,包括建立網絡安全等級保護制度,并按照網絡安全等級保護制度的要求,履行安全保護義務,并履行個人信息保護義務(詳見下文數據安全部分的分析)。值得注意的是,作為實施網絡安全等級保護的程序性要求,AI產品的服務提供方以及技術支持方應當完成對象系統的定級、安全建設與整改、測評、備案等相關法定程序。特別地,AI產品的服務提供方以及技術支持方作為網絡產品提供者、網絡運營者,還應履行《網絡產品安全漏洞管理規定》規定的網絡產品安全漏洞管理義務。此外,如AI產品的服務提供方、技術支持方自身涉及觸發網絡安全審查的情形(例如開展數據處理活動影響或者可能影響國家安全的、掌握超過100萬用戶個人信息的網絡平臺運營者赴國外上市),應自查是否存在網絡安全審查重點評估的國家安全風險因素,并且加強對于上游網絡產品和服務提供者的管理;如AI產品的服務提供方、技術支持方涉及向網絡安全審查對象(例如關鍵基礎設施運營者)提供網絡產品或服務的,應當配合網絡安全審查對象履行相應的合規義務。
6. 數據安全
數據(含個人信息,下同)是AI的重要生產資料之一。數據安全(含個人信息安全與保護,下同)將直接影響AI的發展安全。
隨著《中華人民共和國網絡安全法》、《中華人民共和國數據安全法》 [13] 、《中華人民共和國個人信息保護法》 [14] 以及其他數據安全相關的法律法規、國家標準的陸續出臺,我國已基本形成了數據從收集、存儲、使用、加工、傳輸、提供、公開、刪除等全生命周期的合規體系。國家安全視角下的數據安全的合規重點,可參見后續我們關于國家安全視角下的網絡安全與數據安全的相關文章。
就AI治理而言,我國多部法律法規和相關規定重申了數據安全的基本要求,并結合AI的特點提出了有針對性的規范:
(1) 《算法推薦管理規定》要求算法推薦服務提供者應當落實數據安全管理制度和技術措施 [15] ;
(2) 《深度合成管理規定》重申了前述規定,并要求深度合成服務提供者和技術支持者應當加強訓練數據管理,采取必要措施保障訓練數據安全,以及訓練數據包含個人信息的,應當遵守個人信息保護的有關規定 [16] ;
(3) 《AIGC暫行辦法》同樣強調提供生成式人工智能服務不得侵害他人隱私權和個人信息權益 [17] ,以及生成式人工智能服務提供者應當依法承擔個人信息處理者責任、履行個人信息保護義務 [18] 。此外,關于AI預訓練、優化訓練等數據處理活動,《AIGC暫行辦法》強調,生成式人工智能服務提供者應使用具有合法來源的數據和基礎模型;采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性;涉及處理個人信息的,應當獲得個人同意或具備其他合法性基礎 [19] ;以及
(4) 根據《科技倫理審查辦法(試行)》,AI科技活動是否符合數據安全的要求是科技倫理審查內容之一。例如,對于涉及以人為研究參與者的AI科技活動,需審查個人隱私數據、生物特征信息等信息處理是否符合個人信息保護的有關規定;對于涉及數據和算法的AI科技活動,需審查數據的收集、存儲、加工、使用等處理活動以及研究開發數據新技術等是否符合國家數據安全等有關規定,以及數據安全風險監測及應急處理方案是否得當 [20] 。
結合前述法律法規及AI產品的生命周期,需從AI模型訓練、應用和優化三個階段分別關注各階段的數據安全重點,以及日常數據安全體系的搭建和管理:
(1) AI模型訓練階段:模型訓練階段主要涉及數據采集、數據清洗及數據標注等活動。從數據安全的角度,該階段需重點關注訓練數據來源合法合規:訓練數據中包含個人信息的,應當取得相關個人信息主體的知情同意或具備其他合法性基礎,或者可在數據清洗階段對相關個人信息進行脫敏處理;針對非個人信息,需注意訓練數據中是否可能包含國家秘密、核心數據或重要數據等可能關系國家安全、經濟運行、社會穩定、公共健康和安全等的數據,若包含該等數據則需在數據清洗階段對其進行脫敏處理或采取其他必要的措施。
(2) AI模型應用階段:模型應用階段主要涉及用戶使用基于AI模型構建的AI產品輸入內容,AI產品相應生成內容(主要針對生成式AI)。從數據安全的角度,該階段需重點關注用戶輸入數據來源合法合規和AI生成內容的數據泄露風險,以及若AI產品的服務器在境外,還需關注數據跨境傳輸的風險及相關合規要求(包括取得相關個人信息主體的知情單獨同意、個人信息保護影響評估及視情況完成安全評估、備案或認證等)。
(3) AI模型優化階段:模型優化階段主要涉及將AI模型應用階段采集的數據作為訓練數據進一步優化AI模型。從數據安全的角度,該階段需重點關注就使用用戶輸入數據進一步優化模型時注意用戶輸入數據中是否包含涉及國家安全、經濟運行、社會穩定、公共健康和安全等的敏感數據,并在涉及個人信息時確保合規。
(4) 日常數據安全體系的搭建和管理:需注意落實數據安全管理制度和技術措施,依法承擔數據保護義務。此外,在針對AI科技活動開展科技倫理審查時,需關注該等科技活動是否符合數據安全的要求。
7. 技術出口安全
一般來講,我國根據出口技術是否具有特殊屬性,分別制定了兩套不同的出口管控法律制度:
(1) 管制技術:國家對兩用物項、軍品、核以及其他與維護國家安全和利益、履行防擴散等國際義務相關的貨物、技術、服務等物項(統稱“管制物項”)的出口活動專門制定了出口管制法律法規。其中,與企業經營活動關系較為密切的就是兩用技術。涉及兩用技術出口管制相關法律制度主要包括《中華人民共和國出口管制法》 [21] 以及《兩用物項和技術進出口許可證管理目錄》 [22] (下稱“兩用物項目錄”)等。另外,商務部自2022年4月22日發布的《兩用物項出口管制條例(征求意見稿)》預計即將成法落地,建議企業予以關注;
(2) 民用技術:針對一般民用技術的出口管控法規主要包括《中華人民共和國技術進出口管理條例》 [23] 、《禁止出口限制出口技術管理辦法》 [24] 以及《中國禁止出口限制出口技術目錄》 [25] 等。
根據初步篩查結果,未見2024年度兩用物項目錄中列出人工智能相關的物項或技術。與此同時,經查詢《禁止出口限制出口技術目錄》,在該目錄第十五類“計算機服務業”和第十六類“軟件業”的限制出口技術項下新增的多項與人工智能相關的技術,如語音合成技術、語音識別技術、交互理解技術、印刷體掃描識別技術、手寫體掃描識別技術、拍照識別技術、中英文作文批改技術,特別是基于數據分析的個性化信息推送服務技術等。此外,還新增了多項與網絡安全相關的技術,如密碼芯片設計和實現技術、量子密碼技術以及數據庫系統安全增強技術等。此外,目前與人工智能相關的技術沒有被列入禁止出口的技術目錄,因此,人工智能相關的民用技術目前屬于自由出口的技術或者限制出口的技術。由于《禁止出口限制出口技術目錄》中表述較為寬泛,涉及人工智能技術出口的企業應當就具體的擬出口技術對照《禁止出口限制出口技術目錄》,分析其是否屬于限制出口的技術。如企業對于擬出口技術的分類存疑,可以向國家出口管制管理部門提出咨詢,由出口管制管理部門給出確定的意見。
對于自由出口的技術,企業應當按照相關法律法規要求,向國務院外經貿主管部門辦理登記;對于屬于限制出口的人工智能技術,企業應當按照法律要求的時間期限,辦理《中華人民共和國技術出口許可證》。如果限制出口的技術的出口經營者在沒有取得前述出口許可的情況下擅自出口相關技術,可能被判定為刑法下的走私罪、非法經營罪等,從而被追究刑事責任;尚不夠刑事處罰的,將根據海關法的規定進行處罰,或由國務院外經貿主管部門給予警告、罰款、撤銷外貿易經營許可等行政處罰。
綜合上述法律規定,我們結合實務中的經驗,對擬出口人工智能技術的企業提出以下建議:
(1) 全面梳理跨境技術合作、投資并購、培訓交流、內部技術轉移等可能涉及技術出境的風險場景,將技術受控情況納入境外投資前的立項研究和分析,在審批流程中加入關于技術出境情況和受控情況判斷的環節。
(2) 由于《禁止出口限制出口技術目錄》中對于人工智能相關的技術表述較為寬泛,需要企業將擬向境外傳輸的人工智能技術與前述目錄中的技術描述進行對比分析,判斷擬向境外傳輸的技術是否屬于限制出口的技術。
(3) 對于經過前述評估分析認為擬出口的技術可能屬于涉密技術或限制出口的技術,應當按照法律規定,在法律要求的時間節點及時向有關部門進行申報,申請必要的出口許可。
(4) 由于人工智能技術的發展速度較快,對國家安全的影響在不斷變化,未來國家可能會在人工智能技術的受控情況方面進行政策或法律的變更或調整,企業應密切關注相關出口管制限制以及中國反制政策的變化,動態調整企業對于受限技術的出口管理。
三. AI安全前瞻性合規風險預測
除前述現行有效的法律法規和相關規定項下的合規要點以外,隨著我國對于AI產品研發、設計、部署、運行等各階段進行約束的法律法規和國家標準體系逐步完善,我們對于AI安全前瞻性合規風險預測如下:
? 在生成式人工智能領域,全國信息安全標準化技術委員會于2023年10月發布《生成式人工智能服務安全基本要求(征求意見稿)》(“《AIGC安全基本要求草案》”),該草案以《中華人民共和國網絡安全法》、《網絡信息內容生態治理規定》、《AIGC暫行辦法》、《信息安全技術 個人信息安全規范》(GB/T35273)、《網絡安全標準實踐指南——生成式人工智能服務內容識別方法》等法律法規和相關規定以及國家標準為基礎,對于生成式人工智能服務的基本安全要求予以規定,包括語料(即訓練數據)安全、模型安全等方面的具體要求、人工智能服務提供者應遵循的相應安全措施以及安全評估的程序和內容。值得注意的是,《AIGC安全基本要求草案》明確要求生成式人工智能服務提供者在進行算法備案申請前,應先行進行安全性評估,并在算法備案時提交內部評估結果以及證明材料;在安全評估的程序和內容方面,《AIGC安全基本要求草案》規定了語料安全、生成內容安全和問題拒答的評估方法,要求安全評估的內容應覆蓋《AIGC安全基本要求草案》的所有條款,且每個條款應形成單獨的評估結論,并與相關證明、支撐材料形成最終的評估報告。在《AIGC安全基本要求草案》定稿后,其中有關安全評估的要求將彌補我國目前在“雙新評估”具體流程和要求方面的立法空白,為AI領域的企業提高AI產品的安全水平以及相關主管部門評價AI產品的安全水平提供參考。
? 在軍事國防安全領域,2017年,國務院印發了《新一代人工智能發展規劃》,指出人工智能在國防建設領域得到廣泛應用。未來,人工智能將有力提升情報、偵察、通訊、后勤等軍事裝備的自主性與智能化,并廣泛應用于信息情報搜集和分析、戰略設計、實施精準打擊等,但與此同時,人工智能可能會觸發各國人工智能軍備競賽,使未來戰爭的精準度和破壞力大大提升,增加了新型軍事安全威脅。
? 在航空安全領域,國務院和中央軍事委員會發布的《無人駕駛航空器飛行管理暫行條例》(2024年1月1日實施)第五條規定,“國家鼓勵無人駕駛航空器科研創新及其成果的推廣應用,促進無人駕駛航空器與大數據、人工智能等新技術融合創新”。人工智能技術在航空領域的應用可能會對航空安全管理以及應急事件處置提出新的課題和挑戰。此外,人工智能技術在火箭以及衛星行業的應用將大大提升衛星的通信能力以及數據收集和處理能力,而依據衛星收集的精確數據可以針對特定行業,如氣象、水利等,進行深度分析,此類分析結論可能對國家安全產生潛在的影響。
四. AI合規體系及搭建指引
綜合上述內容,當前我國的實踐中,AI領域的企業應當考慮搭建相應的AI安全與合規體系從而對于AI的安全與合規問題形成系統性保障,例如:
1. 內部合規管理體系及制度
為滿足我國法律法規和相關規定以及國家標準項下關于AI安全的要求,建議AI領域企業結合其所開展的活動以及可能涉及的AI安全領域,建立相應的內部合規管理體系及制度。其中,就資質證照而言,除了增值電信業務經營許可證/ICP備案、公安聯網備案、算法備案、安全評估等基礎性資質外,AI領域企業還應根據自身的業務模式綜合判斷是否需要辦理特殊業務領域的資質證照,例如網絡文化經營許可證、網絡出版許可證、信息網絡傳播視聽節目許可證。除此之外,AI領域企業還應結合自身的業務定位建立相應的內控制度,例如科技倫理審查制度(關于科技倫理治理以及科技倫理(審查)委員會的設立,請見《人工智能(AI):科技倫理治理走起》、《科技倫理(審查)委員會:如何設立?》)、AI內容安全基礎審查制度(包括AI語料安全審查制度、AI模型安全制度等)、數據安全制度(包括數據采集合規制度、數據處理合規制度、算法安全及倫理合規制度等)、內容生態治理制度、用戶權益保護制度等。關于AI合規制度的設立,請見《AIGC:合規引領探索之路》。
2. 外部合作層面
AI領域的企業在對外合作過程中還會與諸多合作方簽署不同的商業合作協議。該等商業合作協議根據AI領域的企業自身的性質與合作事項的不同包括AI模型開發/許可協議、數據交易協議等諸多類型,AI領域的企業需要根據不同的協議類型以及自身的商業安排與合作方就各自的權利義務達成一致,在此過程中應當考慮AI安全方面的要求。例如,如企業自身屬于網絡安全審查的對象,為加強對于上游網絡產品或服務提供者的管理,企業應當在與該等上游網絡產品或服務提供者簽署的商業合作協議中對于上游網絡產品或服務提供者的配合網絡安全審查義務、保密義務、安全保護義務等進行明確約定。
3. 互聯網應用層面
倘若AI領域企業的業務涉及AIGC平臺等互聯網應用,還應當考慮到AIGC平臺對于信息安全、數據安全造成的風險,結合AI業務的具體情況,針對用戶協議、隱私政策、平臺治理規則等文件進行修訂。例如,為治理違法和不良信息,AIGC平臺的運營方可在用戶協議中明確約定,用戶需要為其所輸入的內容承擔相應的責任,如保證不侵犯第三方權利,保證不得含有違反法律法規或公序良俗的信息,并且不得通過大量的負面數據輸入企圖扭曲模型的輸出等,并制定相應的處置措施,例如警告、終止服務等等。
結語
AI技術在金融、醫療、教育等日常生活領域以及生物、醫學、材料科學等學科的學術研究領域的廣泛應用,為AI領域的企業創造了巨大機遇,但同時也蘊含著不容忽視的風險,如《布萊切利宣言》中所述,人工智能可能表現出的造成安全問題的能力可與當今最先進的模型相提并論甚至可能超越它們。因此,無論企業屬于AI產品的研究開發者、設計制造者還是部署應用者,必須高度關注AI安全,通過搭建AI安全與合規體系,履行保障AI安全的義務和責任,共同維護國家安全的新疆域。
[1] https://www.stcn.com/article/detail/884259.html。
[2] 2015年7月1日發布并實施。
[3] 國家新一代人工智能治理專業委員會制定,2021年9月25日發布并實施。
[4] 全國信息安全標準化技術委員會秘書處制定,2021年1月5日發布并實施。
[5] 2023年7月10日發布,2023年8月15日實施。
[6] 2018年11月15日發布,2018年11月30日實施。
[7] 2019年11月18日發布,2020年1月1日實施。
[8] 根據《深度合成管理規定》第十七條,具有生成或者顯著改變信息內容功能的服務包括:(一)智能對話、智能寫作等模擬自然人進行文本的生成或者編輯服務;(二)合成人聲、仿聲等語音生成或者顯著改變個人身份特征的編輯服務;(三)人臉生成、人臉替換、人臉操控、姿態操控等人物圖像、視頻生成或者顯著改變個人身份特征的編輯服務;(四)沉浸式擬真場景等生成或者編輯服務;(五)其他具有生成或者顯著改變信息內容功能的服務。
[9] 2019年12月15日發布,2020年3月1日實施。
[10] 2016年11月7日發布并實施。
[11] 2021年12月28日發布,2022年2月15日實施。
[12] 2021年7月12日發布,2021年9月1日實施。
[13] 2021年6月10日發布,2021年9月1日實施。
[14] 2021年8月20日發布,2021年11月1日實施。
[15] 《互聯網信息服務算法推薦管理規定》第7條。
[16] 《互聯網信息服務深度合成管理規定》第14條。
[17] 《生成式人工智能服務管理暫行辦法》第4條。
[18] 《生成式人工智能服務管理暫行辦法》第9條、第11條。
[19] 《生成式人工智能服務管理暫行辦法》第7條。
[20] 《科技倫理審查辦法(試行)》第15條。
[21] 2020年10月17日發布,2020年12月1日實施。
[22] 2023年12月29 日發,2024年1月1日實施。
[23] 2020年11月29日發布并實施。
[24] 2009年4月20日發布,2009年5月20日實施。
[25] 2023年12月21日發布并實施。




