日本一区二区不卡视频,高清成人免费视频,日日碰日日摸,国产精品夜间视频香蕉,免费观看在线黄色网,国产成人97精品免费看片,综合色在线视频

申請實習證 兩公律師轉社會律師申請 注銷人員證明申請入口 結業人員實習鑒定表申請入口 網上投稿 《上海律師》 切換新版
當前位置: 首頁 >> 業務研究大廳 >> 專業委員會 >> 數字科技與人工智能專業委員會 >> 專業論文

《大數據與人工智能導論》之人工智能倫理問題的應對

    日期:2025-12-15     作者:張逸瑞(數字科技與人工智能專業委員會、北京市金杜律師事務所上海分所)、馮寶寶(北京市金杜律師事務所上海分所)

1.1  人工智能倫理治理原則

人工智能風險種類多,在不同階段均可能涉及,傳統倫理規范道德和現有法律法規的規制已難以應對當今復雜的智能社會發展局面,需通過針對性的機制和制度對于人工智能倫理進行治理,以應對人工智能倫理問題,避免人工智能倫理風險成為人工智能發展的阻礙。根據中國信息通信研究院、中國人工智能產業發展聯盟于20209月發布的《人工智能治理白皮書》 [] 中對于人工智能治理的定義,人工智能治理是指國際組織、國家、行業組織、企業等多主體對人工智能研究、開發、生產和應用中出現的公共安全、道德倫理等問題進行協調、處理、監管和規范。結合聯合國教育、科學及文化組織于20211124日通過《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence,簡稱《建議書》)提出的人工智能系統生命周期的所有行為者應尊重的價值觀和原則,對人工智能倫理治理要堅持下述基本原則:以人為本、公平公正、安全可控、責任擔當、多方協作、多元共培。

1.   以人為本

以人為本是指人工智能發展的根本目的是實現人類利益,其發展應符合人類的價值觀和倫理道德,應通過政策、法律、規范和教育等方式防止人工智能被誤用、濫用以及做出有違社會倫理道德的決策,構建和諧的人工智能社會發展環境,促進人類文明進步。

2.   公平公正

公平公正是指人工智能在發展和使用的過程中,應切實保護利益相關者的合法權益,促進社會公平正義和機會均等,防范各類群體歧視,關心和幫助弱勢群體、特殊群體。

3.   安全可控

安全可控是指人工智能研發、設計制造和部署應用要充分保障人類的自主決策權,以及用戶和利益相關者的選擇權、知情權、隱私權。

4.   責任擔當

責任擔當是指人類是最終責任主體,相關主體要勇于擔責,社會要根據不同領域的人工智能風險程度建立相應的保險制度,建立權利責任一致的責任體系,建立人工智能審查制度和問責機制。

5.   多方協作

多方協作是指在尊重包容的基礎上,政府、政府間組織、學術界、企業、行業組織等利益相關者應當共同協作,加強對于人工智能倫理治理議題的深入研討,分享人工智能倫理實踐,形成人工智能倫理治理合作生態。

6.   多元共培

多元共培是指政府、政府間組織、學術界、企業、行業組織等應當面向公眾進行倫理教育,提高公眾對人工智能技術帶來的倫理風險的意識,形成全社會參與人工智能倫理治理的氛圍,倡導公眾合理正確使用人工智能產品和服務。

1.2  現有人工智能倫理治理監管體系

《建議書》建議會員國在自愿基礎上適用《建議書》的各項規定,根據本國的憲法實踐和治理結構,依照國際人權法在內的國際法,采取適當步驟,包括進行必要的立法。目前,中國、美國和英國以及歐盟等國家和組織均已出臺了一系列監管規則。

1.我國人工智能倫理治理監管體系概述

1)法律法規和相關規定

我國國務院于2017年印發《新一代人工智能發展規劃》,提出了制定促進人工智能發展的法律法規和倫理規范的要求。在此之后,《關于加強互聯網信息服務算法綜合治理的指導意見》、《中華人民共和國科學技術進步法》、《互聯網信息服務算法推薦管理規定》、《關于加強科技倫理治理的意見》、《互聯網信息服務深度合成管理規定》和《生成式人工智能服務管理暫行辦法》等一系列法律法規和相關規定相繼對于人工智能倫理治理的要求予以規定。其中,中共中央辦公廳、國務院辦公廳于2022年發布的《關于加強科技倫理治理的意見》是我國首個國家層面的、專門針對科技倫理治理的指導性文件,提出了科技倫理治理原則以及基本要求。202310月,我國科學技術部、工業和信息化部等十部門聯合發布的《科技倫理審查辦法(試行)》對于科技倫理審查的基本程序、標準、條件等提出統一要求,標志著我國人工智能倫理治理監管體系建設進入了新階段。下面對我國與人工智能倫理治理相關的法律法規和相關規定及其主要內容進行梳理。

1)《新一代人工智能發展規劃》

2017720日,國務院發布的《新一代人工智能發展規劃》提出人工智能倫理規范和政策法規建設的戰略目標,以及制定促進人工智能發展的法律法規和倫理規范的要求,其中明確指出要妥善應對人工智能可能帶來的挑戰,形成適應人工智能發展的制度安排,構建開放包容的國際化環境,夯實人工智能發展的社會基礎,并提出了一系列相應保障措施,包括制定促進人工智能發展的法律法規和倫理規范,具體而言:在總體戰略上,要研究制定促進人工智能發展的法律法規和倫理規范,建立保障人工智能健康發展的法律法規和倫理道德框架;在法律層面,要建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等,在一些重點領域將制定相關安全管理法規,圍繞自動駕駛、服務機器人等應用基礎較好的細分領域,加快研究制定相關安全管理法規,為新技術的快速應用奠定法律基礎;在倫理規范方面,建立倫理道德多層次判斷結構及人機協作的倫理框架,制定人工智能產品研發設計人員的道德規范和行為守則,加強對人工智能潛在危害與收益的評估,構建人工智能復雜場景下突發事件的解決方案;在全球合作方面,積極參與人工智能全球治理,加強機器人異化和安全監管等人工智能重大國際共性問題研究,深化在人工智能法律法規、國際規則等方面的國際合作,共同應對全球性挑戰。

2)《關于加強互聯網信息服務算法綜合治理的指導意見》

2021917日,國家互聯網信息辦公室、中央宣傳部、教育部、科學技術部、工業和信息化部、公安部、文化和旅游部、國家市場監督管理總局、國家廣播電視總局聯合制定發布了《關于加強互聯網信息服務算法綜合治理的指導意見》。針對算法治理,該指導意見提出要強調堅持正確導向,強化科技倫理意識、安全意識和底線思維,充分發揮算法服務正能量傳播作用,營造風清氣正的網絡空間。此外,該指導意見還提出要利用三年左右時間,逐步建立治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局,具體而言:在健全算法安全治理機制方面,制定完善互聯網信息服務算法安全治理政策法規,算法安全治理的主體權責明確,治理結構高效運行,形成有法可依、多元協同、多方參與的治理機制;在構建算法安全監管體系方面,創新性地構建形成算法安全風險監測、算法安全評估、科技倫理審查、算法備案管理和涉算法違法違規行為處置等多維一體的監管體系;在促進算法生態規范發展方面,算法導向正確、正能量充沛,算法應用公平公正、公開透明,算法發展安全可控、自主創新,有效防范算法濫用帶來的風險隱患。

3)《中華人民共和國科學技術進步法》

20211224日,全國人民代表大會常務委員會通過了《中華人民共和國科學技術進步法》(簡稱《科學技術進步法》),該規定于202211日起施行。《科學技術進步法》要求科學技術研究開發機構、高等學校、企業事業單位等應當履行科技倫理管理主體責任,按照國家有關規定建立健全科技倫理審查機制,對科學技術活動開展科技倫理審查,禁止危害國家安全、損害社會公共利益、危害人體健康、違背科研誠信和科技倫理的科學技術研究開發和應用活動,否則相關單位、直接負責的主管人員和其他直接責任人員將受到行政處罰。

4)《互聯網信息服務算法推薦管理規定》

20211231日,國家互聯網信息辦公室、工業和信息化部、公安部和國家市場監督管理總局聯合發布《互聯網信息服務算法推薦管理規定》(簡稱《算法推薦管理規定》),該規定于202231日起施行。《算法推薦管理規定》的適用范圍是在中華人民共和國境內應用算法推薦技術提供互聯網信息服務的情形。《算法推薦管理規定》要求提供算法推薦服務,應當遵守法律法規,尊重社會公德和倫理,遵守商業道德和職業道德,遵循公正公平、公開透明、科學合理和誠實信用的原則。此外,《算法推薦管理規定》要求算法推薦服務提供者應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫理道德的算法模型。

5)《關于加強科技倫理治理的意見》

20223月,中共中央辦公廳、國務院辦公廳印發了《關于加強科技倫理治理的意見》,提出科技倫理是開展科學研究、技術開發等科技活動需要遵循的價值理念和行為規范,是促進科技事業健康發展的重要保障。該意見確立我國科技倫理治理的指導思想,即堅持促進創新與防范風險相統一、制度規范與自我約束相結合,強化底線思維和風險意識,建立完善符合我國國情、與國際接軌的科技倫理制度,塑造科技向善的文化理念和保障機制,努力實現科技創新高質量發展與高水平安全良性互動,促進我國科技事業健康發展,為增進人類福祉、推動構建人類命運共同體提供有力科技支撐。該意見提出了科技倫理治理的五項基本要求,即倫理先行、依法依規、敏捷治理、立足國情、開放合作,同時明確了開展科技活動應當遵循的五大科技倫理原則,即增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明。該意見要求政府、高等學校、科研機構、醫療衛生機構、企業等創新主體,相關學會、協會、研究會等科技類社會團體以及科技人員共同參與健全科技倫理治理體制,并通過加強科技倫理治理制度保障、強化科技倫理審查和監管、深入開展科技倫理教育和宣傳等方式健全科技倫理體系,有效防范科技倫理風險。

6)《互聯網信息服務深度合成管理規定》

20221125日,國家互聯網信息辦公室、工業和信息化部、公安部聯合發布《互聯網信息服務深度合成管理規定》(簡稱《深度合成管理規定》),該規定于2023110日起施行。《深度合成管理規定》是我國第一部針對深度合成服務治理的專門性部門規章,主要針對應用生成合成類算法的互聯網信息服務進行了規范,明確了生成合成類算法治理的對象和基本原則,強化了深度合成服務提供者和技術支持者的主體責任,并鼓勵相關行業組織通過加強行業自律推動生成合成類算法的合規發展。《深度合成管理規定》適用于在中華人民共和國境內應用深度合成技術提供互聯網信息服務的情形,深度合成服務提供者和技術支持者是主要的責任主體,二者均有義務遵守法律法規,尊重社會公德和倫理道德,堅持正確政治方向、輿論導向、價值取向,促進深度合成服務向上向善,并落實信息安全主體責任,建立健全用戶注冊、算法機制機理審核科技倫理審查、信息發布審核數據安全、個人信息保護、反電信網絡詐騙、應急處置等管理制度,具有安全可控的技術保障措施。

7)《生成式人工智能服務管理暫行辦法》

2023710日,國家互聯網信息辦公室、國家發展和改革委員會、教育部、科學技術部、工業和信息化部、公安部、國家廣播電視總局聯合發布《生成式人工智能服務管理暫行辦法》(簡稱《AIGC暫行辦法》),該辦法于2023815日起生效。為促進生成式人工智能健康發展和規范應用,《AIGC暫行辦法》規定,任何利用生成式人工智能技術為中國境內公眾提供生成文本、圖片、音頻、視頻等內容的服務都適用該辦法。這意味著,境內外人工智能生成內容(Artificial Intelligence Generated ContentAIGC)服務提供者,無論其提供的服務是在模型層還是在應用層,亦無論是直接提供服務或通過API接口或其他方式間接提供服務,倘若其提供服務的對象是中國境內公眾,都應當遵守《AIGC暫行辦法》。《AIGC暫行辦法》要求提供和使用生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,包括:堅持社會主義核心價值觀,不得生成煽動顛覆國家政權、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統一和社會穩定,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規禁止的內容;在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,采取有效措施防止產生民族、信仰、國別、地域、性別、年齡、職業、健康等歧視;尊重知識產權、商業道德,保守商業秘密,不得利用算法、數據、平臺等優勢,實施壟斷和不正當競爭行為;尊重他人合法權益,不得危害他人身心健康,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益;基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性。

8)《科技倫理審查辦法(試行)》

2023108日,科學技術部、教育部、工業和信息化部等多部門聯合發布《科技倫理審查辦法(試行)》(簡稱《科技倫理審查辦法》),該辦法于2023121日起正式實施。該辦法對于涉及以人為研究參與者的科技活動,包括利用人類生物樣本、個人信息數據等的科技活動,或不直接涉及人或實驗動物但可能在生命健康、生態環境、公共秩序、可持續發展等方面帶來倫理風險挑戰的科技活動進行的科技倫理審查和監管做出了明確的規定,由此可見,該辦法的適用范圍幾乎涵蓋所有科技活動,包括人工智能相關的科技活動。

在審查主體方面,該辦法明確要求從事生命科學、醫學、人工智能等科技活動的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會。其他有倫理審查需求的單位可根據實際情況設立科技倫理(審查)委員會。

在審查流程方面,《科技倫理審查辦法》規定由科技活動負責人向科技倫理(審查)委員會申請科技倫理審查;科技倫理(審查)委員會應根據科技倫理審查申請材料決定是否受理申請并通知申請人,依據科技活動倫理風險發生的可能性和嚴重、緊急程度采用一般/簡易/應急程序進行科技倫理審查并做出審查決定,如申請人對審查決定有異議的,可向做出決定的科技倫理(審查)委員會提出書面申訴;科技倫理(審查)委員會還應對審查批準的科技活動開展倫理跟蹤審查。

在審查內容及標準方面,《科技倫理審查辦法》針對所有需要依法進行科技倫理審查的科技活動規定了審查的重點內容和標準,以及針對涉及人類研究參與者以及數據和算法的科技活動就審查的重點內容和標準進行特殊規定。對于所有需要依法進行科技倫理審查的科技活動而言,審查的重點內容和標準包括:擬開展的科技活動應符合增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明的科技倫理原則,參與科技活動的科技人員資質、研究基礎及設施條件等符合相關要求;擬開展的科技活動具有科學價值和社會價值,其研究目標的實現對增進人類福祉、實現社會可持續發展等具有積極作用;科技活動的風險收益合理,倫理風險控制方案及應急預案科學恰當、具有可操作性;所制定的利益沖突申明和管理方案合理。對于涉及人類研究參與者以及數據和算法的科技活動而言,審查內容和標準還包括以下兩個方面:一方面,數據的收集、存儲、加工、使用等處理活動以及研究開發數據新技術等符合國家數據安全和個人信息保護等有關規定,數據安全風險監測及應急處理方案得當;另一方面,算法、模型和系統的設計、實現、應用等遵守公平、公正、透明、可靠、可控等原則,符合國家有關要求,倫理風險評估審核和應急處置方案合理,用戶權益保護措施全面得當。

2)行業規范

除前述法律法規和相關規定以外,在《新一代人工智能發展規劃》等政策指引下,各機構、行業也積極響應,陸續發布了一系列人工智能倫理治理相關的行業規范,包括國家新一代人工智能治理專業委員會制定的《新一代人工智能治理原則——發展負責任的人工智能》、《新一代人工智能倫理規范》、全國信息安全標準化技術委員會秘書處制定的《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》、同濟大學上海市人工智能社會治理協同創新中心研究團隊編制的《人工智能大模型倫理規范操作指引》、中國社會科學院國情調研重大項目《我國人工智能倫理審查和監管制度建設狀況調研》課題組編制的《人工智能法示范法1.0(專家建議稿)》,提供了相關行業的人工智能倫理治理建議。下文將對我國與人工智能倫理治理相關的行業規范及其主要內容進行梳理。

1)《新一代人工智能治理原則——發展負責任的人工智能》

20196月,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,提出了人工智能治理的框架和行動指南,旨在更好地規范人工智能發展與治理的關系,確保人工智能安全可控可靠,推動經濟、社會及生態可持續發展,共建人類命運共同體。治理原則突出了發展負責任的人工智能這一主題,并提出了八大原則,分別為和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理。

和諧友好原則是指人工智能發展應以增進人類共同福祉為目標;應符合人類的價值觀和倫理道德,促進人機和諧,服務人類文明進步;應以保障社會安全、尊重人類權益為前提,避免誤用,禁止濫用、惡用。

公平公正原則是指人工智能發展應促進公平公正,保障利益相關者的權益,促進機會均等。通過持續提高技術水平、改善管理方式,在數據獲取、算法設計、技術開發、產品研發和應用過程中消除偏見和歧視。

包容共享原則是指人工智能應促進綠色發展,符合環境友好、資源節約的要求;應促進協調發展,推動各行各業轉型升級,縮小區域差距;應促進包容發展,加強人工智能教育及科普,提升弱勢群體適應性,努力消除數字鴻溝;應促進共享發展,避免數據與平臺壟斷,鼓勵開放有序競爭。

尊重隱私原則是指人工智能發展應尊重和保護個人隱私,充分保障個人的知情權和選擇權。在個人信息的收集、存儲、處理、使用等各環節應設置邊界,建立規范。完善個人數據授權撤銷機制,反對任何竊取、篡改、泄露和其他非法收集利用個人信息的行為。

安全可控原則是指人工智能系統應不斷提升透明性、可解釋性、可靠性、可控性,逐步實現可審核、可監督、可追溯、可信賴。高度關注人工智能系統的安全,提高人工智能魯棒性及抗干擾性,形成人工智能安全評估和管控能力。

共擔責任原則是指人工智能研發者、使用者及其他相關方應具有高度的社會責任感和自律意識,嚴格遵守法律法規、倫理道德和標準規范。建立人工智能問責機制,明確研發者、使用者和受用者等的責任。人工智能應用過程中應確保人類知情權,告知可能產生的風險和影響。防范利用人工智能進行非法活動。

開放協作原則是指鼓勵跨學科、跨領域、跨地區、跨國界的交流合作,推動國際組織、政府部門、科研機構、教育機構、企業、社會組織、公眾在人工智能發展與治理中的協調互動。開展國際對話與合作,在充分尊重各國人工智能治理原則和實踐的前提下,推動形成具有廣泛共識的國際人工智能治理框架和標準規范。

敏捷治理原則是指尊重人工智能發展規律,在推動人工智能創新發展、有序發展的同時,及時發現和解決可能引發的風險。不斷提升智能化技術手段,優化管理機制,完善治理體系,推動治理原則貫穿人工智能產品和服務的全生命周期。對未來更高級人工智能的潛在風險持續開展研究和預判,確保人工智能始終朝著有利于社會的方向發展。

2)《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》

20211月,全國信息安全標準化技術委員會秘書處組織制定和發布了《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》,該指引依據法律法規要求及社會價值觀,將人工智能倫理安全風險總結為失控性風險、社會性風險、侵權性風險、歧視性風險、責任性風險等。其中,失控性風險是指人工智能的行為與影響超出研究開發者、設計制造者、部署應用者所預設、理解、可控的范圍,對社會價值等方面產生負面影響;社會性風險是指人工智能使用不合理,包括濫用、誤用等,對社會價值等方面產生負面影響;侵權性風險是指人工智能對人的基本權利,包括人身、隱私、財產等造成侵害或產生負面影響;歧視性風險是指人工智能對人類特定群體的主觀或客觀偏見影響公平公正,造成權利侵害或負面影響;責任性風險是指人工智能相關各方行為失當、責任界定不清,對社會信任、社會價值等方面產生負面影響。該指引針對這些風險給出了安全風險防范措施,為相關組織或個人在各領域開展人工智能研究開發、設計制造、部署應用等活動提供參考。

3)《新一代人工智能倫理規范》

20219月,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》,該規范旨在將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題。《新一代人工智能倫理規范》的適用主體為從事人工智能管理、研發、供應、使用等相關活動的自然人、法人和其他相關機構。在此基礎上,《新一代人工智能倫理規范》明確了以下六項人工智能的基本倫理要求:增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養。

增進人類福祉是指堅持以人為本,遵循人類共同價值觀,尊重人權和人類根本利益訴求,遵守國家或地區倫理道德。堅持公共利益優先,促進人機和諧友好,改善民生,增強獲得感幸福感,推動經濟、社會及生態可持續發展,共建人類命運共同體。

促進公平公正是指堅持普惠性和包容性,切實保護各相關主體合法權益,推動全社會公平共享人工智能帶來的益處,促進社會公平正義和機會均等。在提供人工智能產品和服務時,應充分尊重和幫助弱勢群體、特殊群體,并根據需要提供相應替代方案。

保護隱私安全是指充分尊重個人信息知情、同意等權利,依照合法、正當、必要和誠信原則處理個人信息,保障個人隱私與數據安全,不得損害個人合法數據權益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權。

確保可控可信是指保障人類擁有充分自主決策權,有權選擇是否接受人工智能提供的服務,有權隨時退出與人工智能的交互,有權隨時中止人工智能系統的運行,確保人工智能始終處于人類控制之下。

強化責任擔當是指堅持人類是最終責任主體,明確利益相關者的責任,全面增強責任意識,在人工智能全生命周期各環節自省自律,建立人工智能問責機制,不回避責任審查,不逃避應負責任。

提升倫理素養是指積極學習和普及人工智能倫理知識,客觀認識倫理問題,不低估不夸大倫理風險。主動開展或參與人工智能倫理問題討論,深入推動人工智能倫理治理實踐,提升應對能力。

除了六項人工智能的基本倫理要求外,《新一代人工智能倫理規范》還對人工智能的管理、研發、供應、使用提出了具體的規范,為從事人工智能管理、研發、供應、使用等相關活動的自然人、法人和其他相關機構等提供指引。

4)《人工智能大模型倫理規范操作指引》

20237月,同濟大學上海市人工智能社會治理協同創新中心研究團隊編制的《人工智能大模型倫理規范操作指引》發布,該指引主要包括AI大模型全生命周期的技術與倫理要素、大模型的研發與應用的倫理原則、大模型技術研發的倫理實踐指南三部分內容,提出了尊重人的自主權、保護個人隱私、保障公平公正、提升透明度和可解釋性、負責任的創新等五項大模型倫理原則,以及公平性、透明性、隱私、安全性、責任、人類的監督與控制、可持續性等七項大模型倫理實踐指南。

5)《人工智能法示范法1.0(專家建議稿)》

20238月,中國社會科學院國情調研重大項目“我國人工智能倫理審查和監管制度建設狀況調研”課題組組織多方專家團隊,經多次調研、討論、修改,起草形成《人工智能法示范法1.0(專家建議稿)》(簡稱《人工智能示范法建議稿》)。《人工智能示范法建議稿》共分為六章。

第一章(總則)闡釋了人工智能發展的基本原則,如治理、人類自主、安全、透明與可解釋性、公平等原則。基于這些原則,該建議稿后續章節對相關問題展開了詳細討論,并與相關條文相呼應;

第二章(人工智能支持與促進)聚焦于推進技術發展這一關鍵,從基礎設施、人才培養、技術創新和體制機制支持等方面提出規范,并結合行業實際,通過有效措施激勵人工智能的創新。此外,還強調國家機關應率先采用人工智能以促進其廣泛應用。

第三章(人工智能管理制度)沿用了近年來實踐證明較為可行的風險分類管理方法,對人工智能的研發和應用活動進行規定。考慮到人工智能技術的快速迭代和巨大的發展潛力,監管應適當放寬,避免過重的義務和限制,因此,該章節采用了負面清單管理方式進行風險控制:負面清單內的研發、提供活動采取許可機制,實行事前監管;負面清單外的研發、提供活動則采取備案機制,實行事后監管。這一設計旨在減輕審查和許可的負擔,同時有效預防風險并允許創新發展。

第四章(人工智能研發者、提供者義務)明確了人工智能研發者和提供者應承擔的合規義務,并將安全責任貫穿于人工智能活動的整個生命周期。根據產業鏈中不同主體的特點,該章節中對主體進行區分,并分配了相應的責任。結合前述的負面清單制度,進一步規定了清單內人工智能活動的義務類型,確保義務與風險相匹配。

第五章(綜合治理機制)延續了總則的規定,明確了國家人工智能主管機關的職責。此外,還提出了創新監管和協同監管機制,以提高監管效率和治理效果,加強多元主體之間的溝通與合作。

第六章(法律責任)根據人工智能的風險活動設計了相應的法律責任。同時,考慮到發展導向,明確了盡職免責等制度,為人工智能的創新活動提供了寬松的政策環境。

課題組在1.0版發布后,參照各方反饋并結合行業動態對文本進行了修訂,并于20239月發布《人工智能示范法1.1(專家建議稿)》,主要調整了違法罰款數額、風險評估記錄保存日期等,并新增行政救濟、人工智能提供者備案豁免等條款。

2. 其他主要國家與組織人工智能倫理治理監管體系概述

目前,美國、英國和歐盟等國家與組織均已出臺了與人工智能相關的監管規則,人工智能倫理治理是其中的重點。以下將對美國、英國和歐盟在人工智能倫理治理領域的實踐進行介紹。

1)歐盟

20194月,歐盟人工智能高級專家組發布《可信人工智能倫理指南》(Ethics guidelines for trustworthy Al),提出了可信AI系統應滿足的七個關鍵要求,包括確保人類監督、魯棒性和安全性、隱私和數據治理、透明度、多樣性、社會和環境福利、問責性。202312月,歐洲理事會、歐洲議會就《人工智能法案》(Artificial Intelligence Act)達成臨時協議。作為歐盟首部有關人工智能的綜合性立法,該法案以人工智能的風險分級管理為制度抓手,以人工智能產業鏈上的不同責任主體為規范對象,以對人工智能的合格評估以及問責機制為治理工具,從人工監管、隱私、透明度、安全、非歧視、環境友好等全方位監管人工智能的開發和使用,詳細規定了人工智能市場中各參與者的義務。在倫理治理方面,《人工智能法案》強調,人工智能應該是一種以人為本的技術,不應該取代人類的自主性,也不應該導致個人自由的喪失,而應該主要服務于社會需求和共同利益,因此應提供保障措施,以確保開發和使用尊重歐盟價值觀和《歐洲聯盟基本權利憲章》(Charter of Fundamental Rights of the European Union)的道德嵌入式人工智能。對于AI系統的風險分級標準,(人工智能法案》將倫理風險作為考量因素,將下述類型的AI系統歸為存在不可接受風險的AI系統,在歐盟成員國內將完全禁止該等AI系統投入市場或者交付使用:采用潛意識技術或有目的的操縱或欺騙技術;利用個人或社會群體的弱點(例如已知的人格特征或社會經濟狀況、年齡、身體、精神能力);利用人的社會行為或人格特征進行社會評分;公眾場所的實時(包括即時和短時延遲)遠程生物識別系統;此外,在評估AI系統是否屬于受到嚴格的管控的高風險AI系統時,《人工智能法案》要求考量AI系統對《歐洲歐盟基本權利憲章》所保護的基本權利造成的不利影響的程度,基本權利包括人的尊嚴、尊重私人和家庭生活、保護個人數據、言論和信息自由、集會和結社自由以及不受歧視的權利、受教育權、消費者保護、工人權利、殘疾人權利、性別平等、知識產權、獲得有效補救和公平審判的權利、辯護權和無罪推定、良好管理的權利。

2)美國

美國在聯邦層面目前尚未通過一部完整且專門的針對AI系統的法案,而是試圖通過調整政府機構的權力,在現有的立法框架及監管規則內對人工智能進行規制。在倫理治理方面,目前聯邦層面的合規重點主要涉及反歧視、保護數據隱私等要求。20222月,美國眾議院頒布了《2022年算法問責法案》(Algorithmic Accountability Act of 2022),要求使用自動化決策系統做出關鍵決策的企業研究并報告這些系統對消費者的影響,包括是否會因為消費者的種族、性別、年齡等生成對消費者有偏見或歧視性的自動決策等;20226月,美國參眾兩院共同發布了《美國數據隱私和保護法案》(the American Data Privacy and Protection Act),對隱私影響評估、隱私政策的告知與退出機制、反偏見等內容作出了規定;202210月,美國白宮科技政策辦公室頒布了《人工智能權利法案藍圖》(Blueprint for an Al Bill of Right),提出了指導人工智能的設計、使用和部署的五項原則,即技術的安全性和有效性、防止算法歧視、保護數據隱私、告知及解釋義務以及人類參與決策;202310月,時任美國總統拜登頒布《關于安全、可靠、值得信賴地開發和使用人工智能的行政命令》Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),確立了包括安全可靠、促進公平、保護隱私和自由等在內的倫理要求。

3)英國

20215月,英國中央數字與數據辦公室、人工智能辦公室與內閣辦公室聯合發布了《自動決策系統的倫理、透明度與責任框架》(Ethics, Transparency and Accountability Framework for Automated Decision-MakingETAF),對人工智能涉及的算法和自動化決策的倫理治理要求進行規定。ETAF強調,算法和自動化決策在上線之前應該進行嚴格的、受控的和分階段的測試。在整個原型和測試過程中,需要人類的專業知識和監督來確保技術上的彈性和安全,以及準確和可靠。測試時,需要考慮自動化決策系統的準確性、安全性、可靠性、公平性和可解釋性。ETAF規定,企業必須對算法或自動決策系統進行平等影響評估,使用高質量和多樣化的數據集,發現并抵制所使用數據中明顯的偏見和歧視。同時,ETAF支出算法和自動化及其相關結果的責任和可問責性應該被明確, 組織和個人應該被問責以確保人工智能的正常運行。

1.3  人工智能倫理問題科學應對策略

我國人工智能創新快速發展,但面對的倫理風險日益增多,公眾對于人工智能未來發展的憂慮使得人工智能的發展面臨巨大壓力。結合前面所述的人工智能倫理治理原則,基于現有人工智能倫理治理監管體系,為科學應對人工智能倫理問題,應在法律法規和倫理規范、技術、管理、教育、國際合作等層面落實人工智能倫理治理,將倫理要求融入人工智能的研究開發、設計制造、部署應用和使用階段,促進人工智能技術創新與倫理協調發展,實現負責任的創新。

1.法律法規和倫理規范層面

目前我國以《科學技術進步法》、《關于加強科技倫理治理的意見》、《科技倫理審查辦法》和《新一代人工智能倫理規范》等法律法規和相關規定以及行業規范為基礎,已初步形成人工智能治理法律法規和倫理規范體系。但整體上,前述法律法規和倫理規范體系的構建尚處于探索階段,無論是內容和可操作性,還需進一步加強和完善,例如,倫理風險相關的責任承擔仍存在諸多盲點,需要進一步研究并進行完善。另外,結合我國人工智能治理法律法規和倫理規范體系的現狀,在構建法律法規和倫理規范體系的過程中,應尤其關注倫理審查制度的建立與完善、人工智能倫理治理相關標準化體系的構建。

1)倫理審查制度的建立與完善

倫理審查制度是科技治理活動的基礎制度性安排,是將倫理治理問題落到實處的重要制度。在工作機制方面,20197月,中央全面深化改革委員會第九次會議審議通過《國家科技倫理委員會組建方案》;201910月,中共中央辦公廳、國務院辦公廳印發通知,成立國家科技倫理委員會負責指導推進我國科技倫理治理各項工作,科學技術部按照《國家科技倫理委員會組建方案》,先后成立了人工智能、生命科學、醫學三個分委員會,推動相關部門成立科技倫理專業委員會,指導各地方結合工作實際,建立或者籌建地方科技倫理委員會 [] 在制度安排方面,《科技倫理審查辦法》為科技倫理(審查)委員會的組建和運行提供了較為清晰完整的框架和指導。盡管如此,對于許多人工智能領域的企業而言,科技倫理(審查)委員會的設立并非易事;同時,開展科技倫理審查所依托的實體性規范仍有待有關行業的主管部門、社會團體進行研究和制定。因此,需進一步完善我國的倫理審查制度,明確倫理審查介入時機和標準,在確保審查程序高效進行的同時不影響人工智能創新活動的發展,保證審查活動的獨立性和主體廣泛性。

2)人工智能倫理治理相關標準化體系的構建

目前我國有關人工智能倫理治理相關標準化體系還比較缺乏,在實務中存在人工智能倫理治理無操作性規范和標準可依的挑戰。因此,還需要進一步加快建設和完善人工智能倫理治理相關標準化體系,進一步制定有針對性、時效性、可操作性的實施細則。根據國家人工智能標準化總體組、全國信標委人工智能分委會聯合發布的《人工智能倫理治理標準化指南(2023版)》,一方面,為了改善目前人工智能倫理準則過于宏觀、不易實操落地問題,需要統一政產學研用各界及不同國家地區、不同人群等對于人工智能倫理的看法和要求,進一步明確人工智能倫理觀的范圍,豐富其內涵,拓展其外延,對現有準則進行完善和細化,發展更接地氣的人工智能倫理準則;另一方面,為適應我國人工智能發展的特殊需求,更好地幫助我國各界規范人工智能倫理問題,應秉持求同存異的理念,在國際共識的基礎上,融入我國傳統文化價值觀并根據人工智能產業發展的現狀和需求,發展有中國特色的人工智能倫理準則 []

2.技術層面

1)將倫理規則融入技術研發和設計中

人工智能的研究開發、設計制造、部署應用和使用階段都可能存在倫理風險,應通過人工智能全生命周期管理,將風險控制在最小范圍之內。采用技術手段將倫理規則融入產品的研發和設計中,通過技術標準、評估測試來控制倫理風險是較好方案。將一些人工智能關鍵技術標準化,完善平臺、產品和應用相關的安全標準,有利于提高人工智能的安全性,例如,機器學習綁定的涉及用戶隱私有關的大量數據,可通過制定相應技術標準,將數據安全傳輸、數據存儲、數據交換、人機交互、傳感器接口等技術標準化,確保數據安全交換,同時保障用戶對數據擁有的權益,而不被平臺違規綁定。同時,要研究可測量的指標和可量化的評價系統,科學評價人工智能產品在收集個人、生物或者其它特征數據時的安全性。在人工智能產品投入使用前,要求按照相關標準進行研發、設計和制造,對一些對人類安全和生命安全有嚴重影響的人工智能產品,強行要求按要求進行評估,促使在研發、設計和制造階段,盡可能生產能夠降低風險或易于進行風險監測的產品。

2)建立高危人工智能風險預警機制

一些特殊領域人工智能技術、產品和應用具有較高倫理風險,應建立一種風險預警機制,便于風險識別、安全評估和應急處理。首先,要對高危倫理風險技術、產品和應用形成目錄,并自動更新,便于分級分類進行管理;其次,要形成一套安全風險管理標準體系,并在此基礎上形成風險預警機制,能夠快速識別人工智能的高危風險,并及時予以評估和響應。

3.管理層面

如前文所述,人工智能的研究開發、設計制造、部署應用和使用階段均存在倫理風險問題,因此,應通過政府主導、多方共同參與的內外部監管模式,建立并完善全生命周期的人工智能監管體系。

1)內部監管

從內部看,負責人工智能研究開發、設計制造、部署應用的相關單位是科技倫理管理主體責任單位,它是人工智能倫理內部監督管理的主體,應通過建立人工智能審查和監督工作機制,加強常態化管理,及時發現和化解本單位研究開發、設計制造、部署應用等活動中存在的倫理風險,引導人工智能從業人員開展負責人的科技創新。相關單位可以從以下角度出發,建立其內部倫理風險管理框架及流程。

1)風險管理框架

相關單位在設計風險管理框架時,應遵循下列原則:重視事前控制,尤其是單位管理層需要認識到人工智能的倫理風險,并提前對該倫理風險做出整體性部署;設立倫理風險應對部門與倫理風險監督部門,該部門領導可以主要由人工智能研發部負責人、法務和/或合規部負責人等人員擔任,負責制定倫理風險管理政策、進行倫理審查等工作,同時需確保該政策貫穿人工智能產品或服務的全生命周期;建立單位內部溝通和咨詢渠道,確保各個業務部門與倫理風險應對部門之間溝通順暢,并確保應對部門及時掌握單位的倫理風險; 建立商業合作伙伴倫理風險審查機制,在合作或投資前,先行評估該業務的倫理風險,例如數據來源是否可靠,并針對評估結果對企業進行有針對性的盡職調查。

2)風險管理流程

相關單位應當建立健全管理流程,并將其作為單位管理、決策的重要組成部分。具體而言,風險管理流程包括確定風險管理活動范圍、背景及標準、風險評估、風險應對、持續監控及審查、記錄及回報等五個環節。其中,風險評估包括風險識別、風險分析和風險評價三個部分:風險識別是指單位在面對具體的人工智能產品或服務時,單位首先需要識別出可能涉及的倫理風險,進行特征分析與初步評價;風險分析是指單位應結合前述倫理風險的不確定性、風險源與可能帶來的后果詳細分析該風險;風險評價是單位應將風險分析的結果與既有風險管理準則比較,結合現在與未來可能涉及的多方利益主體,決策采用何種應對方式。

3)相關人員培訓

相關單位應建立員工風險倫理培訓制度,對培訓人員、培訓內容與培訓效果記錄在檔。單位的培訓內容通常可以包括本單位倫理風險管理組織機構的設置與職能、相關政策與制度、單位一般涉及的相關倫理風險以及典型風險倫理管理案例等。同時,單位應當根據員工的工作內容、人員職級進行有針對性的培訓,并采取確定方式檢驗員工培訓效果,以確保員工準確理解單位倫理風險管理制度。

4)定期風險評估

相關單位應當定期進行倫理風險評估。單位可以通過審閱相關管理政策與制度、對人工智能開發抽樣檢測、與員工面談或發放調查問卷等形式,并視情況聘請外部專家,定期評估單位面臨的倫理風險與相應措施的有效性。 []
2)外部監管

從外部看,監管主體包括政府、行業協會、學術團體、人工智能研發、設計、制造和應用的相關單位設立的人工智能倫理審查委員會、民眾等。政府在人工智能倫理治理中享有主導權,組建專門的治理機構,負責指導和統籌協調推進科技倫理治理體系建設、科技倫理規范制定、審查監管、宣傳教育等相關工作。行業協會是同業企業和組織自愿組成、實行行業服務和自律管理的行業性組織,對維護行業正當競爭秩序,促進人工智能行業健康發展起到非常重要的作用,通過行規行約,實現對人工智能企業有違科技倫理的行為進行監督管理。學術團體的整體倫理道德水平直接影響人工智能產品體現出的倫理道德觀,因而學術團體也要做好監督工作,及時發現和防止人工智能領域出現道德倫理問題,使人工智能發展不偏離健康的發展道路。人工智能倫理問題的治理要落到實處,需要人工智能研發、設計、制造和應用的相關單位設立的人工智能倫理審查委員會的參與,在人工智能全生命周期里負責倫理審查,其人員組成應有廣泛代表性,包括專業人員、法律人員和倫理專家;其審查活動應保持獨立性。民眾作為人工智能產品的使用者或者利益相關者,直接接觸人工智能產品、親身經歷人工智能自動決策,可以直觀感受其技術的優劣,反饋發現的人工智能倫理問題,進而有效發揮其監督作用。 

4.教育層面

1)樹立以人為本的理念,彰顯人性尊嚴的價值

人工智能發展最終要以人為根本出發點和目標,在教育層面應樹立以人為本的理念,確立人性尊嚴的價值。當前,一些領域在評價人才機制上,功利主義色彩較重,這種單純以功利為導向的評價機制,極易鼓勵人工智能相關從業人員突破倫理道德界限,忽視人工智能隱藏的可能給人類文明和人類尊嚴帶來的不利后果。因而,對人工智能相關從業人員進行培養教育,樹立以人為本的理念,彰顯人性尊嚴的價值非常重要。對于研發和設計人員,應培養他們正確的科研創新價值觀,使他們在人工智能創新活動中始終保持正確的倫理觀,以負責人態度對待研發和設計,避免急功近利、唯利是圖的思想,真正做到負責任創新。對于部署應用人員和使用者,也要培養他們正確的倫理價值觀和是非曲直的倫理判斷標準。

2)專業素質和人文素養培養并重

人工智能無論是算力、存儲能力還是壽命都有比人更大的優勢,未來是人工智能時代,人工智能研發者、設計制造者、部署應用者、管理者需要了解人工智能專業知識,公眾也要接受人工智能通識教育。人工智能與生產生活息息相關,只有了解其核心內容、原理、方法以及背后的邏輯,才能更好地使用人工智能,而且未來人工智能的發展,也需要大批的專業人才,這些都需要教育的支撐和保障。無論是專業人員,還是公眾,有關人工智能的專業素質培養和人文素養培養同等重要,只有提高對人工智能技術的理解、掌握一些人工智能專業知識,才能更好地研發、設計、制造、部署、維護、管理、使用人工智能,只有通過人本精神的教育和熏陶,樹立理想信念,提高自己的思想認識水平和公德意識,把握人生真諦,尊重人的尊嚴,負責任地和人工智能打交道,才能有效地將倫理要求融入人工智能系統,真正構建和諧的人工智能健康環境。

5.國際合作層面

1)積極參與全球人工智能倫理治理倡議

近年來,我國不僅著力于加強人工智能技術的創新研發,也在積極參與全球人工智能倫理治理。20238月,金磚國家領導人第十五次會晤上,金磚國家已經同意盡快啟動人工智能研究組工作;我國在該會議上提出,要充分發揮研究組作用,進一步拓展人工智能合作,加強信息交流和技術合作,共同做好風險防范,形成具有廣泛共識的人工智能治理框架和標準規范,不斷提升人工智能技術的安全性、可靠性、可控性、公平性。202310月,我國發布《全球人工智能治理倡議》,圍繞人工智能發展、安全、治理三方面系統闡述了人工智能治理中國方案,并在倡議中提出:堅持相互尊重、平等互利;推動建立風險等級測試評估體系;推動建立風險等級測試評估體系,不斷提升人工智能技術的安全性、可靠性、可控性、公平性;在充分尊重各國政策和實踐基礎上,形成具有廣泛共識的全球人工智能治理框架和標準規范。202310月,我國兩名專家入選聯合國高級別人工智能咨詢機構(High Level Advisory Body on AI),致力于就人工智能的治理進行多利益攸關方共同參與、多學科共治的全球性對話將來,我國應當進一步積極參與聯合國等多邊機構的人工智能倫理治理交流合作,切實推動人工智能倫理公示,深入參與國際標準的研討制定。

2)鼓勵國內企業和專家學者參與國際人工智能倫理治理交流合作

在我國參與全球人工智能倫理治理交流合作的同時,企業、專家學者也應積極分享國內人工智能倫理治理實踐經驗,推動產業界與學術界加強與域外機構對人工智能倫理治理議題的深入研討,形成全球人工智能倫理治理合作生態。一方面,企業在國際舞臺分享國內人工智能倫理治理的實踐經驗,有利于企業與其他國家的企業和機構建立聯系,促進國際合作與交流,以推動行業國際倫理標準的制定和實施;另一方面,專家學者積極參與人工智能倫理治理交流合作,可以促進政策對話,為政策制定者提供科學依據和建議,有利于構建國際人工智能倫理治理框架與治理規則。

 


[] 中國信息通信研究院,中國人工智能產業發展聯盟. 人工智能治理白皮書[EB/OL]. (2020-09-28] [2024-01-01]. http://www.caict.ac.cn/kxyj/qwfb/bps/202009/t20200928_347546.htm.

[] 科學技術部. 《關于加強科技倫理治理的意見》新聞發布會[EB/OL]. (2022-03-24] [2024-01-01]. https://www.most.gov.cn/xwzx/twzb/fbh22032301/twzbwzsl/202203/t20220324_179977.html.

[] 國家人工智能標準化總體組,全國信標委人工智能分委會. 人工智能倫理治理標準化指南(2023版)[EB/OL]. [2023-03-20]. http://www.jianshen.cas.cn/zgkxykjllwyhbgs/zdgf/xxjsyrgznly/xygf/202310/P020231019382162308610.pdf.

[] 國家人工智能標準化總體組.人工智能倫理風險分析報告[EB/OL].2019-03-25[2024-01-01].https://www.cesi.cn/images/editor/20190425/20190425142632634001.pdf.