1.1 人工智能倫理治理原則
人工智能風險種類多,在不同階段均可能涉及,傳統(tǒng)倫理規(guī)范道德和現(xiàn)有法律法規(guī)的規(guī)制已難以應(yīng)對當今復雜的智能社會發(fā)展局面,需通過針對性的機制和制度對于人工智能倫理進行治理,以應(yīng)對人工智能倫理問題,避免人工智能倫理風險成為人工智能發(fā)展的阻礙。根據(jù)中國信息通信研究院、中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟于2020年9月發(fā)布的《人工智能治理白皮書》 [①] 中對于“人工智能治理”的定義,人工智能治理是指國際組織、國家、行業(yè)組織、企業(yè)等多主體對人工智能研究、開發(fā)、生產(chǎn)和應(yīng)用中出現(xiàn)的公共安全、道德倫理等問題進行協(xié)調(diào)、處理、監(jiān)管和規(guī)范。結(jié)合聯(lián)合國教育、科學及文化組織于2021年11月24日通過《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence,簡稱《建議書》)提出的人工智能系統(tǒng)生命周期的所有行為者應(yīng)尊重的價值觀和原則,對人工智能倫理治理要堅持下述基本原則:以人為本、公平公正、安全可控、責任擔當、多方協(xié)作、多元共培。
1. 以人為本
以人為本是指人工智能發(fā)展的根本目的是實現(xiàn)人類利益,其發(fā)展應(yīng)符合人類的價值觀和倫理道德,應(yīng)通過政策、法律、規(guī)范和教育等方式防止人工智能被誤用、濫用以及做出有違社會倫理道德的決策,構(gòu)建和諧的人工智能社會發(fā)展環(huán)境,促進人類文明進步。
2. 公平公正
公平公正是指人工智能在發(fā)展和使用的過程中,應(yīng)切實保護利益相關(guān)者的合法權(quán)益,促進社會公平正義和機會均等,防范各類群體歧視,關(guān)心和幫助弱勢群體、特殊群體。
3. 安全可控
安全可控是指人工智能研發(fā)、設(shè)計制造和部署應(yīng)用要充分保障人類的自主決策權(quán),以及用戶和利益相關(guān)者的選擇權(quán)、知情權(quán)、隱私權(quán)。
4. 責任擔當
責任擔當是指人類是最終責任主體,相關(guān)主體要勇于擔責,社會要根據(jù)不同領(lǐng)域的人工智能風險程度建立相應(yīng)的保險制度,建立權(quán)利責任一致的責任體系,建立人工智能審查制度和問責機制。
5. 多方協(xié)作
多方協(xié)作是指在尊重包容的基礎(chǔ)上,政府、政府間組織、學術(shù)界、企業(yè)、行業(yè)組織等利益相關(guān)者應(yīng)當共同協(xié)作,加強對于人工智能倫理治理議題的深入研討,分享人工智能倫理實踐,形成人工智能倫理治理合作生態(tài)。
6. 多元共培
多元共培是指政府、政府間組織、學術(shù)界、企業(yè)、行業(yè)組織等應(yīng)當面向公眾進行倫理教育,提高公眾對人工智能技術(shù)帶來的倫理風險的意識,形成全社會參與人工智能倫理治理的氛圍,倡導公眾合理正確使用人工智能產(chǎn)品和服務(wù)。
1.2 現(xiàn)有人工智能倫理治理監(jiān)管體系
《建議書》建議會員國在自愿基礎(chǔ)上適用《建議書》的各項規(guī)定,根據(jù)本國的憲法實踐和治理結(jié)構(gòu),依照國際人權(quán)法在內(nèi)的國際法,采取適當步驟,包括進行必要的立法。目前,中國、美國和英國以及歐盟等國家和組織均已出臺了一系列監(jiān)管規(guī)則。
1.我國人工智能倫理治理監(jiān)管體系概述
1)法律法規(guī)和相關(guān)規(guī)定
我國國務(wù)院于2017年印發(fā)《新一代人工智能發(fā)展規(guī)劃》,提出了制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范的要求。在此之后,《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導意見》、《中華人民共和國科學技術(shù)進步法》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、《關(guān)于加強科技倫理治理的意見》、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》和《生成式人工智能服務(wù)管理暫行辦法》等一系列法律法規(guī)和相關(guān)規(guī)定相繼對于人工智能倫理治理的要求予以規(guī)定。其中,中共中央辦公廳、國務(wù)院辦公廳于2022年發(fā)布的《關(guān)于加強科技倫理治理的意見》是我國首個國家層面的、專門針對科技倫理治理的指導性文件,提出了科技倫理治理原則以及基本要求。2023年10月,我國科學技術(shù)部、工業(yè)和信息化部等十部門聯(lián)合發(fā)布的《科技倫理審查辦法(試行)》對于科技倫理審查的基本程序、標準、條件等提出統(tǒng)一要求,標志著我國人工智能倫理治理監(jiān)管體系建設(shè)進入了新階段。下面對我國與人工智能倫理治理相關(guān)的法律法規(guī)和相關(guān)規(guī)定及其主要內(nèi)容進行梳理。
(1)《新一代人工智能發(fā)展規(guī)劃》
2017年7月20日,國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》提出人工智能倫理規(guī)范和政策法規(guī)建設(shè)的戰(zhàn)略目標,以及制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范的要求,其中明確指出要妥善應(yīng)對人工智能可能帶來的挑戰(zhàn),形成適應(yīng)人工智能發(fā)展的制度安排,構(gòu)建開放包容的國際化環(huán)境,夯實人工智能發(fā)展的社會基礎(chǔ),并提出了一系列相應(yīng)保障措施,包括制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范,具體而言:在總體戰(zhàn)略上,要研究制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架;在法律層面,要建立追溯和問責制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責任等,在一些重點領(lǐng)域?qū)⒅贫ㄏ嚓P(guān)安全管理法規(guī),圍繞自動駕駛、服務(wù)機器人等應(yīng)用基礎(chǔ)較好的細分領(lǐng)域,加快研究制定相關(guān)安全管理法規(guī),為新技術(shù)的快速應(yīng)用奠定法律基礎(chǔ);在倫理規(guī)范方面,建立倫理道德多層次判斷結(jié)構(gòu)及人機協(xié)作的倫理框架,制定人工智能產(chǎn)品研發(fā)設(shè)計人員的道德規(guī)范和行為守則,加強對人工智能潛在危害與收益的評估,構(gòu)建人工智能復雜場景下突發(fā)事件的解決方案;在全球合作方面,積極參與人工智能全球治理,加強機器人異化和安全監(jiān)管等人工智能重大國際共性問題研究,深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,共同應(yīng)對全球性挑戰(zhàn)。
(2)《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導意見》
2021年9月17日,國家互聯(lián)網(wǎng)信息辦公室、中央宣傳部、教育部、科學技術(shù)部、工業(yè)和信息化部、公安部、文化和旅游部、國家市場監(jiān)督管理總局、國家廣播電視總局聯(lián)合制定發(fā)布了《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導意見》。針對算法治理,該指導意見提出要強調(diào)堅持正確導向,強化科技倫理意識、安全意識和底線思維,充分發(fā)揮算法服務(wù)正能量傳播作用,營造風清氣正的網(wǎng)絡(luò)空間。此外,該指導意見還提出要利用三年左右時間,逐步建立治理機制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局,具體而言:在健全算法安全治理機制方面,制定完善互聯(lián)網(wǎng)信息服務(wù)算法安全治理政策法規(guī),算法安全治理的主體權(quán)責明確,治理結(jié)構(gòu)高效運行,形成有法可依、多元協(xié)同、多方參與的治理機制;在構(gòu)建算法安全監(jiān)管體系方面,創(chuàng)新性地構(gòu)建形成算法安全風險監(jiān)測、算法安全評估、科技倫理審查、算法備案管理和涉算法違法違規(guī)行為處置等多維一體的監(jiān)管體系;在促進算法生態(tài)規(guī)范發(fā)展方面,算法導向正確、正能量充沛,算法應(yīng)用公平公正、公開透明,算法發(fā)展安全可控、自主創(chuàng)新,有效防范算法濫用帶來的風險隱患。
(3)《中華人民共和國科學技術(shù)進步法》
2021年12月24日,全國人民代表大會常務(wù)委員會通過了《中華人民共和國科學技術(shù)進步法》(簡稱《科學技術(shù)進步法》),該規(guī)定于2022年1月1日起施行。《科學技術(shù)進步法》要求科學技術(shù)研究開發(fā)機構(gòu)、高等學校、企業(yè)事業(yè)單位等應(yīng)當履行科技倫理管理主體責任,按照國家有關(guān)規(guī)定建立健全科技倫理審查機制,對科學技術(shù)活動開展科技倫理審查,禁止危害國家安全、損害社會公共利益、危害人體健康、違背科研誠信和科技倫理的科學技術(shù)研究開發(fā)和應(yīng)用活動,否則相關(guān)單位、直接負責的主管人員和其他直接責任人員將受到行政處罰。
(4)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》
2021年12月31日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部和國家市場監(jiān)督管理總局聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(簡稱《算法推薦管理規(guī)定》),該規(guī)定于2022年3月1日起施行。《算法推薦管理規(guī)定》的適用范圍是在中華人民共和國境內(nèi)應(yīng)用算法推薦技術(shù)提供互聯(lián)網(wǎng)信息服務(wù)的情形。《算法推薦管理規(guī)定》要求提供算法推薦服務(wù),應(yīng)當遵守法律法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德,遵循公正公平、公開透明、科學合理和誠實信用的原則。此外,《算法推薦管理規(guī)定》要求算法推薦服務(wù)提供者應(yīng)當定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導用戶沉迷、過度消費等違反法律法規(guī)或者違背倫理道德的算法模型。
(5)《關(guān)于加強科技倫理治理的意見》
2022年3月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)了《關(guān)于加強科技倫理治理的意見》,提出科技倫理是開展科學研究、技術(shù)開發(fā)等科技活動需要遵循的價值理念和行為規(guī)范,是促進科技事業(yè)健康發(fā)展的重要保障。該意見確立我國科技倫理治理的指導思想,即堅持促進創(chuàng)新與防范風險相統(tǒng)一、制度規(guī)范與自我約束相結(jié)合,強化底線思維和風險意識,建立完善符合我國國情、與國際接軌的科技倫理制度,塑造科技向善的文化理念和保障機制,努力實現(xiàn)科技創(chuàng)新高質(zhì)量發(fā)展與高水平安全良性互動,促進我國科技事業(yè)健康發(fā)展,為增進人類福祉、推動構(gòu)建人類命運共同體提供有力科技支撐。該意見提出了科技倫理治理的五項基本要求,即倫理先行、依法依規(guī)、敏捷治理、立足國情、開放合作,同時明確了開展科技活動應(yīng)當遵循的五大科技倫理原則,即增進人類福祉、尊重生命權(quán)利、堅持公平公正、合理控制風險、保持公開透明。該意見要求政府、高等學校、科研機構(gòu)、醫(yī)療衛(wèi)生機構(gòu)、企業(yè)等創(chuàng)新主體,相關(guān)學會、協(xié)會、研究會等科技類社會團體以及科技人員共同參與健全科技倫理治理體制,并通過加強科技倫理治理制度保障、強化科技倫理審查和監(jiān)管、深入開展科技倫理教育和宣傳等方式健全科技倫理體系,有效防范科技倫理風險。
(6)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》
2022年11月25日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(簡稱《深度合成管理規(guī)定》),該規(guī)定于2023年1月10日起施行。《深度合成管理規(guī)定》是我國第一部針對深度合成服務(wù)治理的專門性部門規(guī)章,主要針對應(yīng)用生成合成類算法的互聯(lián)網(wǎng)信息服務(wù)進行了規(guī)范,明確了生成合成類算法治理的對象和基本原則,強化了深度合成服務(wù)提供者和技術(shù)支持者的主體責任,并鼓勵相關(guān)行業(yè)組織通過加強行業(yè)自律推動生成合成類算法的合規(guī)發(fā)展?!渡疃群铣晒芾硪?guī)定》適用于在中華人民共和國境內(nèi)應(yīng)用深度合成技術(shù)提供互聯(lián)網(wǎng)信息服務(wù)的情形,深度合成服務(wù)提供者和技術(shù)支持者是主要的責任主體,二者均有義務(wù)遵守法律法規(guī),尊重社會公德和倫理道德,堅持正確政治方向、輿論導向、價值取向,促進深度合成服務(wù)向上向善,并落實信息安全主體責任,建立健全用戶注冊、算法機制機理審核科技倫理審查、信息發(fā)布審核數(shù)據(jù)安全、個人信息保護、反電信網(wǎng)絡(luò)詐騙、應(yīng)急處置等管理制度,具有安全可控的技術(shù)保障措施。
(7)《生成式人工智能服務(wù)管理暫行辦法》
2023年7月10日,國家互聯(lián)網(wǎng)信息辦公室、國家發(fā)展和改革委員會、教育部、科學技術(shù)部、工業(yè)和信息化部、公安部、國家廣播電視總局聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》(簡稱《AIGC暫行辦法》),該辦法于2023年8月15日起生效。為促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,《AIGC暫行辦法》規(guī)定,任何利用生成式人工智能技術(shù)為中國境內(nèi)公眾提供生成文本、圖片、音頻、視頻等內(nèi)容的服務(wù)都適用該辦法。這意味著,境內(nèi)外人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)服務(wù)提供者,無論其提供的服務(wù)是在模型層還是在應(yīng)用層,亦無論是直接提供服務(wù)或通過API接口或其他方式間接提供服務(wù),倘若其提供服務(wù)的對象是中國境內(nèi)公眾,都應(yīng)當遵守《AIGC暫行辦法》。《AIGC暫行辦法》要求提供和使用生成式人工智能服務(wù),應(yīng)當遵守法律、行政法規(guī),尊重社會公德和倫理道德,包括:①堅持社會主義核心價值觀,不得生成煽動顛覆國家政權(quán)、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統(tǒng)一和社會穩(wěn)定,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容;②在算法設(shè)計、訓練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視;③尊重知識產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢,實施壟斷和不正當競爭行為;④尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人肖像權(quán)、名譽權(quán)、榮譽權(quán)、隱私權(quán)和個人信息權(quán)益;⑤基于服務(wù)類型特點,采取有效措施,提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準確性和可靠性。
(8)《科技倫理審查辦法(試行)》
2023年10月8日,科學技術(shù)部、教育部、工業(yè)和信息化部等多部門聯(lián)合發(fā)布《科技倫理審查辦法(試行)》(簡稱《科技倫理審查辦法》),該辦法于2023年12月1日起正式實施。該辦法對于涉及以人為研究參與者的科技活動,包括利用人類生物樣本、個人信息數(shù)據(jù)等的科技活動,或不直接涉及人或?qū)嶒瀯游锏赡茉谏】怠⑸鷳B(tài)環(huán)境、公共秩序、可持續(xù)發(fā)展等方面帶來倫理風險挑戰(zhàn)的科技活動進行的科技倫理審查和監(jiān)管做出了明確的規(guī)定,由此可見,該辦法的適用范圍幾乎涵蓋所有科技活動,包括人工智能相關(guān)的科技活動。
在審查主體方面,該辦法明確要求從事生命科學、醫(yī)學、人工智能等科技活動的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會。其他有倫理審查需求的單位可根據(jù)實際情況設(shè)立科技倫理(審查)委員會。
在審查流程方面,《科技倫理審查辦法》規(guī)定由科技活動負責人向科技倫理(審查)委員會申請科技倫理審查;科技倫理(審查)委員會應(yīng)根據(jù)科技倫理審查申請材料決定是否受理申請并通知申請人,依據(jù)科技活動倫理風險發(fā)生的可能性和嚴重、緊急程度采用一般/簡易/應(yīng)急程序進行科技倫理審查并做出審查決定,如申請人對審查決定有異議的,可向做出決定的科技倫理(審查)委員會提出書面申訴;科技倫理(審查)委員會還應(yīng)對審查批準的科技活動開展倫理跟蹤審查。
在審查內(nèi)容及標準方面,《科技倫理審查辦法》針對所有需要依法進行科技倫理審查的科技活動規(guī)定了審查的重點內(nèi)容和標準,以及針對涉及人類研究參與者以及數(shù)據(jù)和算法的科技活動就審查的重點內(nèi)容和標準進行特殊規(guī)定。對于所有需要依法進行科技倫理審查的科技活動而言,審查的重點內(nèi)容和標準包括:擬開展的科技活動應(yīng)符合增進人類福祉、尊重生命權(quán)利、堅持公平公正、合理控制風險、保持公開透明的科技倫理原則,參與科技活動的科技人員資質(zhì)、研究基礎(chǔ)及設(shè)施條件等符合相關(guān)要求;擬開展的科技活動具有科學價值和社會價值,其研究目標的實現(xiàn)對增進人類福祉、實現(xiàn)社會可持續(xù)發(fā)展等具有積極作用;科技活動的風險收益合理,倫理風險控制方案及應(yīng)急預(yù)案科學恰當、具有可操作性;所制定的利益沖突申明和管理方案合理。對于涉及人類研究參與者以及數(shù)據(jù)和算法的科技活動而言,審查內(nèi)容和標準還包括以下兩個方面:一方面,數(shù)據(jù)的收集、存儲、加工、使用等處理活動以及研究開發(fā)數(shù)據(jù)新技術(shù)等符合國家數(shù)據(jù)安全和個人信息保護等有關(guān)規(guī)定,數(shù)據(jù)安全風險監(jiān)測及應(yīng)急處理方案得當;另一方面,算法、模型和系統(tǒng)的設(shè)計、實現(xiàn)、應(yīng)用等遵守公平、公正、透明、可靠、可控等原則,符合國家有關(guān)要求,倫理風險評估審核和應(yīng)急處置方案合理,用戶權(quán)益保護措施全面得當。
2)行業(yè)規(guī)范
除前述法律法規(guī)和相關(guān)規(guī)定以外,在《新一代人工智能發(fā)展規(guī)劃》等政策指引下,各機構(gòu)、行業(yè)也積極響應(yīng),陸續(xù)發(fā)布了一系列人工智能倫理治理相關(guān)的行業(yè)規(guī)范,包括國家新一代人工智能治理專業(yè)委員會制定的《新一代人工智能治理原則——發(fā)展負責任的人工智能》、《新一代人工智能倫理規(guī)范》、全國信息安全標準化技術(shù)委員會秘書處制定的《網(wǎng)絡(luò)安全標準實踐指南——人工智能倫理安全風險防范指引》、同濟大學上海市人工智能社會治理協(xié)同創(chuàng)新中心研究團隊編制的《人工智能大模型倫理規(guī)范操作指引》、中國社會科學院國情調(diào)研重大項目《我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組編制的《人工智能法示范法1.0(專家建議稿)》,提供了相關(guān)行業(yè)的人工智能倫理治理建議。下文將對我國與人工智能倫理治理相關(guān)的行業(yè)規(guī)范及其主要內(nèi)容進行梳理。
(1)《新一代人工智能治理原則——發(fā)展負責任的人工智能》
2019年6月,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出了人工智能治理的框架和行動指南,旨在更好地規(guī)范人工智能發(fā)展與治理的關(guān)系,確保人工智能安全可控可靠,推動經(jīng)濟、社會及生態(tài)可持續(xù)發(fā)展,共建人類命運共同體。治理原則突出了“發(fā)展負責任的人工智能”這一主題,并提出了八大原則,分別為和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理。
①和諧友好原則是指人工智能發(fā)展應(yīng)以增進人類共同福祉為目標;應(yīng)符合人類的價值觀和倫理道德,促進人機和諧,服務(wù)人類文明進步;應(yīng)以保障社會安全、尊重人類權(quán)益為前提,避免誤用,禁止濫用、惡用。
②公平公正原則是指人工智能發(fā)展應(yīng)促進公平公正,保障利益相關(guān)者的權(quán)益,促進機會均等。通過持續(xù)提高技術(shù)水平、改善管理方式,在數(shù)據(jù)獲取、算法設(shè)計、技術(shù)開發(fā)、產(chǎn)品研發(fā)和應(yīng)用過程中消除偏見和歧視。
③包容共享原則是指人工智能應(yīng)促進綠色發(fā)展,符合環(huán)境友好、資源節(jié)約的要求;應(yīng)促進協(xié)調(diào)發(fā)展,推動各行各業(yè)轉(zhuǎn)型升級,縮小區(qū)域差距;應(yīng)促進包容發(fā)展,加強人工智能教育及科普,提升弱勢群體適應(yīng)性,努力消除數(shù)字鴻溝;應(yīng)促進共享發(fā)展,避免數(shù)據(jù)與平臺壟斷,鼓勵開放有序競爭。
④尊重隱私原則是指人工智能發(fā)展應(yīng)尊重和保護個人隱私,充分保障個人的知情權(quán)和選擇權(quán)。在個人信息的收集、存儲、處理、使用等各環(huán)節(jié)應(yīng)設(shè)置邊界,建立規(guī)范。完善個人數(shù)據(jù)授權(quán)撤銷機制,反對任何竊取、篡改、泄露和其他非法收集利用個人信息的行為。
⑤安全可控原則是指人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性,逐步實現(xiàn)可審核、可監(jiān)督、可追溯、可信賴。高度關(guān)注人工智能系統(tǒng)的安全,提高人工智能魯棒性及抗干擾性,形成人工智能安全評估和管控能力。
⑥共擔責任原則是指人工智能研發(fā)者、使用者及其他相關(guān)方應(yīng)具有高度的社會責任感和自律意識,嚴格遵守法律法規(guī)、倫理道德和標準規(guī)范。建立人工智能問責機制,明確研發(fā)者、使用者和受用者等的責任。人工智能應(yīng)用過程中應(yīng)確保人類知情權(quán),告知可能產(chǎn)生的風險和影響。防范利用人工智能進行非法活動。
⑦開放協(xié)作原則是指鼓勵跨學科、跨領(lǐng)域、跨地區(qū)、跨國界的交流合作,推動國際組織、政府部門、科研機構(gòu)、教育機構(gòu)、企業(yè)、社會組織、公眾在人工智能發(fā)展與治理中的協(xié)調(diào)互動。開展國際對話與合作,在充分尊重各國人工智能治理原則和實踐的前提下,推動形成具有廣泛共識的國際人工智能治理框架和標準規(guī)范。
⑧敏捷治理原則是指尊重人工智能發(fā)展規(guī)律,在推動人工智能創(chuàng)新發(fā)展、有序發(fā)展的同時,及時發(fā)現(xiàn)和解決可能引發(fā)的風險。不斷提升智能化技術(shù)手段,優(yōu)化管理機制,完善治理體系,推動治理原則貫穿人工智能產(chǎn)品和服務(wù)的全生命周期。對未來更高級人工智能的潛在風險持續(xù)開展研究和預(yù)判,確保人工智能始終朝著有利于社會的方向發(fā)展。
(2)《網(wǎng)絡(luò)安全標準實踐指南——人工智能倫理安全風險防范指引》
2021年1月,全國信息安全標準化技術(shù)委員會秘書處組織制定和發(fā)布了《網(wǎng)絡(luò)安全標準實踐指南——人工智能倫理安全風險防范指引》,該指引依據(jù)法律法規(guī)要求及社會價值觀,將人工智能倫理安全風險總結(jié)為失控性風險、社會性風險、侵權(quán)性風險、歧視性風險、責任性風險等。其中,失控性風險是指人工智能的行為與影響超出研究開發(fā)者、設(shè)計制造者、部署應(yīng)用者所預(yù)設(shè)、理解、可控的范圍,對社會價值等方面產(chǎn)生負面影響;社會性風險是指人工智能使用不合理,包括濫用、誤用等,對社會價值等方面產(chǎn)生負面影響;侵權(quán)性風險是指人工智能對人的基本權(quán)利,包括人身、隱私、財產(chǎn)等造成侵害或產(chǎn)生負面影響;歧視性風險是指人工智能對人類特定群體的主觀或客觀偏見影響公平公正,造成權(quán)利侵害或負面影響;責任性風險是指人工智能相關(guān)各方行為失當、責任界定不清,對社會信任、社會價值等方面產(chǎn)生負面影響。該指引針對這些風險給出了安全風險防范措施,為相關(guān)組織或個人在各領(lǐng)域開展人工智能研究開發(fā)、設(shè)計制造、部署應(yīng)用等活動提供參考。
(3)《新一代人工智能倫理規(guī)范》
2021年9月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,該規(guī)范旨在將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題?!缎乱淮斯ぶ悄軅惱硪?guī)范》的適用主體為從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動的自然人、法人和其他相關(guān)機構(gòu)。在此基礎(chǔ)上,《新一代人工智能倫理規(guī)范》明確了以下六項人工智能的基本倫理要求:增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚?、強化責任擔當、提升倫理素養(yǎng)。
①增進人類福祉是指堅持以人為本,遵循人類共同價值觀,尊重人權(quán)和人類根本利益訴求,遵守國家或地區(qū)倫理道德。堅持公共利益優(yōu)先,促進人機和諧友好,改善民生,增強獲得感幸福感,推動經(jīng)濟、社會及生態(tài)可持續(xù)發(fā)展,共建人類命運共同體。
②促進公平公正是指堅持普惠性和包容性,切實保護各相關(guān)主體合法權(quán)益,推動全社會公平共享人工智能帶來的益處,促進社會公平正義和機會均等。在提供人工智能產(chǎn)品和服務(wù)時,應(yīng)充分尊重和幫助弱勢群體、特殊群體,并根據(jù)需要提供相應(yīng)替代方案。
③保護隱私安全是指充分尊重個人信息知情、同意等權(quán)利,依照合法、正當、必要和誠信原則處理個人信息,保障個人隱私與數(shù)據(jù)安全,不得損害個人合法數(shù)據(jù)權(quán)益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權(quán)。
④確保可控可信是指保障人類擁有充分自主決策權(quán),有權(quán)選擇是否接受人工智能提供的服務(wù),有權(quán)隨時退出與人工智能的交互,有權(quán)隨時中止人工智能系統(tǒng)的運行,確保人工智能始終處于人類控制之下。
⑤強化責任擔當是指堅持人類是最終責任主體,明確利益相關(guān)者的責任,全面增強責任意識,在人工智能全生命周期各環(huán)節(jié)自省自律,建立人工智能問責機制,不回避責任審查,不逃避應(yīng)負責任。
⑥提升倫理素養(yǎng)是指積極學習和普及人工智能倫理知識,客觀認識倫理問題,不低估不夸大倫理風險。主動開展或參與人工智能倫理問題討論,深入推動人工智能倫理治理實踐,提升應(yīng)對能力。
除了六項人工智能的基本倫理要求外,《新一代人工智能倫理規(guī)范》還對人工智能的管理、研發(fā)、供應(yīng)、使用提出了具體的規(guī)范,為從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動的自然人、法人和其他相關(guān)機構(gòu)等提供指引。
(4)《人工智能大模型倫理規(guī)范操作指引》
2023年7月,同濟大學上海市人工智能社會治理協(xié)同創(chuàng)新中心研究團隊編制的《人工智能大模型倫理規(guī)范操作指引》發(fā)布,該指引主要包括AI大模型全生命周期的技術(shù)與倫理要素、大模型的研發(fā)與應(yīng)用的倫理原則、大模型技術(shù)研發(fā)的倫理實踐指南三部分內(nèi)容,提出了尊重人的自主權(quán)、保護個人隱私、保障公平公正、提升透明度和可解釋性、負責任的創(chuàng)新等五項大模型倫理原則,以及公平性、透明性、隱私、安全性、責任、人類的監(jiān)督與控制、可持續(xù)性等七項大模型倫理實踐指南。
(5)《人工智能法示范法1.0(專家建議稿)》
2023年8月,中國社會科學院國情調(diào)研重大項目“我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研”課題組組織多方專家團隊,經(jīng)多次調(diào)研、討論、修改,起草形成《人工智能法示范法1.0(專家建議稿)》(簡稱《人工智能示范法建議稿》)?!度斯ぶ悄苁痉斗ńㄗh稿》共分為六章。
第一章(總則)闡釋了人工智能發(fā)展的基本原則,如治理、人類自主、安全、透明與可解釋性、公平等原則?;谶@些原則,該建議稿后續(xù)章節(jié)對相關(guān)問題展開了詳細討論,并與相關(guān)條文相呼應(yīng);
第二章(人工智能支持與促進)聚焦于推進技術(shù)發(fā)展這一關(guān)鍵,從基礎(chǔ)設(shè)施、人才培養(yǎng)、技術(shù)創(chuàng)新和體制機制支持等方面提出規(guī)范,并結(jié)合行業(yè)實際,通過有效措施激勵人工智能的創(chuàng)新。此外,還強調(diào)國家機關(guān)應(yīng)率先采用人工智能以促進其廣泛應(yīng)用。
第三章(人工智能管理制度)沿用了近年來實踐證明較為可行的風險分類管理方法,對人工智能的研發(fā)和應(yīng)用活動進行規(guī)定。考慮到人工智能技術(shù)的快速迭代和巨大的發(fā)展?jié)摿?,監(jiān)管應(yīng)適當放寬,避免過重的義務(wù)和限制,因此,該章節(jié)采用了負面清單管理方式進行風險控制:負面清單內(nèi)的研發(fā)、提供活動采取許可機制,實行事前監(jiān)管;負面清單外的研發(fā)、提供活動則采取備案機制,實行事后監(jiān)管。這一設(shè)計旨在減輕審查和許可的負擔,同時有效預(yù)防風險并允許創(chuàng)新發(fā)展。
第四章(人工智能研發(fā)者、提供者義務(wù))明確了人工智能研發(fā)者和提供者應(yīng)承擔的合規(guī)義務(wù),并將安全責任貫穿于人工智能活動的整個生命周期。根據(jù)產(chǎn)業(yè)鏈中不同主體的特點,該章節(jié)中對主體進行區(qū)分,并分配了相應(yīng)的責任。結(jié)合前述的負面清單制度,進一步規(guī)定了清單內(nèi)人工智能活動的義務(wù)類型,確保義務(wù)與風險相匹配。
第五章(綜合治理機制)延續(xù)了總則的規(guī)定,明確了國家人工智能主管機關(guān)的職責。此外,還提出了創(chuàng)新監(jiān)管和協(xié)同監(jiān)管機制,以提高監(jiān)管效率和治理效果,加強多元主體之間的溝通與合作。
第六章(法律責任)根據(jù)人工智能的風險活動設(shè)計了相應(yīng)的法律責任。同時,考慮到發(fā)展導向,明確了盡職免責等制度,為人工智能的創(chuàng)新活動提供了寬松的政策環(huán)境。
課題組在1.0版發(fā)布后,參照各方反饋并結(jié)合行業(yè)動態(tài)對文本進行了修訂,并于2023年9月發(fā)布《人工智能示范法1.1(專家建議稿)》,主要調(diào)整了違法罰款數(shù)額、風險評估記錄保存日期等,并新增行政救濟、人工智能提供者備案豁免等條款。
2. 其他主要國家與組織人工智能倫理治理監(jiān)管體系概述
目前,美國、英國和歐盟等國家與組織均已出臺了與人工智能相關(guān)的監(jiān)管規(guī)則,人工智能倫理治理是其中的重點。以下將對美國、英國和歐盟在人工智能倫理治理領(lǐng)域的實踐進行介紹。
1)歐盟
2019年4月,歐盟人工智能高級專家組發(fā)布《可信人工智能倫理指南》(Ethics guidelines for trustworthy Al),提出了可信AI系統(tǒng)應(yīng)滿足的七個關(guān)鍵要求,包括確保人類監(jiān)督、魯棒性和安全性、隱私和數(shù)據(jù)治理、透明度、多樣性、社會和環(huán)境福利、問責性。2023年12月,歐洲理事會、歐洲議會就《人工智能法案》(Artificial Intelligence Act)達成臨時協(xié)議。作為歐盟首部有關(guān)人工智能的綜合性立法,該法案以人工智能的風險分級管理為制度抓手,以人工智能產(chǎn)業(yè)鏈上的不同責任主體為規(guī)范對象,以對人工智能的合格評估以及問責機制為治理工具,從人工監(jiān)管、隱私、透明度、安全、非歧視、環(huán)境友好等全方位監(jiān)管人工智能的開發(fā)和使用,詳細規(guī)定了人工智能市場中各參與者的義務(wù)。在倫理治理方面,《人工智能法案》強調(diào),人工智能應(yīng)該是一種以人為本的技術(shù),不應(yīng)該取代人類的自主性,也不應(yīng)該導致個人自由的喪失,而應(yīng)該主要服務(wù)于社會需求和共同利益,因此應(yīng)提供保障措施,以確保開發(fā)和使用尊重歐盟價值觀和《歐洲聯(lián)盟基本權(quán)利憲章》(Charter of Fundamental Rights of the European Union)的道德嵌入式人工智能。對于AI系統(tǒng)的風險分級標準,(人工智能法案》將倫理風險作為考量因素,將下述類型的AI系統(tǒng)歸為“存在不可接受風險的AI系統(tǒng)”,在歐盟成員國內(nèi)將完全禁止該等AI系統(tǒng)投入市場或者交付使用:①采用潛意識技術(shù)或有目的的操縱或欺騙技術(shù);②利用個人或社會群體的弱點(例如已知的人格特征或社會經(jīng)濟狀況、年齡、身體、精神能力);③利用人的社會行為或人格特征進行社會評分;④在公眾場所的“實時”(包括即時和短時延遲)遠程生物識別系統(tǒng);此外,在評估AI系統(tǒng)是否屬于受到嚴格的管控的“高風險AI系統(tǒng)”時,《人工智能法案》要求考量AI系統(tǒng)對《歐洲歐盟基本權(quán)利憲章》所保護的基本權(quán)利造成的不利影響的程度,基本權(quán)利包括人的尊嚴、尊重私人和家庭生活、保護個人數(shù)據(jù)、言論和信息自由、集會和結(jié)社自由以及不受歧視的權(quán)利、受教育權(quán)、消費者保護、工人權(quán)利、殘疾人權(quán)利、性別平等、知識產(chǎn)權(quán)、獲得有效補救和公平審判的權(quán)利、辯護權(quán)和無罪推定、良好管理的權(quán)利。
2)美國
美國在聯(lián)邦層面目前尚未通過一部完整且專門的針對AI系統(tǒng)的法案,而是試圖通過調(diào)整政府機構(gòu)的權(quán)力,在現(xiàn)有的立法框架及監(jiān)管規(guī)則內(nèi)對人工智能進行規(guī)制。在倫理治理方面,目前聯(lián)邦層面的合規(guī)重點主要涉及反歧視、保護數(shù)據(jù)隱私等要求。2022年2月,美國眾議院頒布了《2022年算法問責法案》(Algorithmic Accountability Act of 2022),要求使用自動化決策系統(tǒng)做出關(guān)鍵決策的企業(yè)研究并報告這些系統(tǒng)對消費者的影響,包括是否會因為消費者的種族、性別、年齡等生成對消費者有偏見或歧視性的自動決策等;2022年6月,美國參眾兩院共同發(fā)布了《美國數(shù)據(jù)隱私和保護法案》(the American Data Privacy and Protection Act),對隱私影響評估、隱私政策的告知與退出機制、反偏見等內(nèi)容作出了規(guī)定;2022年10月,美國白宮科技政策辦公室頒布了《人工智能權(quán)利法案藍圖》(Blueprint for an Al Bill of Right),提出了指導人工智能的設(shè)計、使用和部署的五項原則,即技術(shù)的安全性和有效性、防止算法歧視、保護數(shù)據(jù)隱私、告知及解釋義務(wù)以及人類參與決策;2023年10月,時任美國總統(tǒng)拜登頒布《關(guān)于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),確立了包括安全可靠、促進公平、保護隱私和自由等在內(nèi)的倫理要求。
3)英國
2021年5月,英國中央數(shù)字與數(shù)據(jù)辦公室、人工智能辦公室與內(nèi)閣辦公室聯(lián)合發(fā)布了《自動決策系統(tǒng)的倫理、透明度與責任框架》(Ethics, Transparency and Accountability Framework for Automated Decision-Making,ETAF),對人工智能涉及的算法和自動化決策的倫理治理要求進行規(guī)定。ETAF強調(diào),算法和自動化決策在上線之前應(yīng)該進行嚴格的、受控的和分階段的測試。在整個原型和測試過程中,需要人類的專業(yè)知識和監(jiān)督來確保技術(shù)上的彈性和安全,以及準確和可靠。測試時,需要考慮自動化決策系統(tǒng)的準確性、安全性、可靠性、公平性和可解釋性。ETAF規(guī)定,企業(yè)必須對算法或自動決策系統(tǒng)進行平等影響評估,使用高質(zhì)量和多樣化的數(shù)據(jù)集,發(fā)現(xiàn)并抵制所使用數(shù)據(jù)中明顯的偏見和歧視。同時,ETAF支出算法和自動化及其相關(guān)結(jié)果的責任和可問責性應(yīng)該被明確, 組織和個人應(yīng)該被問責以確保人工智能的正常運行。
1.3 人工智能倫理問題科學應(yīng)對策略
我國人工智能創(chuàng)新快速發(fā)展,但面對的倫理風險日益增多,公眾對于人工智能未來發(fā)展的憂慮使得人工智能的發(fā)展面臨巨大壓力。結(jié)合前面所述的人工智能倫理治理原則,基于現(xiàn)有人工智能倫理治理監(jiān)管體系,為科學應(yīng)對人工智能倫理問題,應(yīng)在法律法規(guī)和倫理規(guī)范、技術(shù)、管理、教育、國際合作等層面落實人工智能倫理治理,將倫理要求融入人工智能的研究開發(fā)、設(shè)計制造、部署應(yīng)用和使用階段,促進人工智能技術(shù)創(chuàng)新與倫理協(xié)調(diào)發(fā)展,實現(xiàn)負責任的創(chuàng)新。
1.法律法規(guī)和倫理規(guī)范層面
目前我國以《科學技術(shù)進步法》、《關(guān)于加強科技倫理治理的意見》、《科技倫理審查辦法》和《新一代人工智能倫理規(guī)范》等法律法規(guī)和相關(guān)規(guī)定以及行業(yè)規(guī)范為基礎(chǔ),已初步形成人工智能治理法律法規(guī)和倫理規(guī)范體系。但整體上,前述法律法規(guī)和倫理規(guī)范體系的構(gòu)建尚處于探索階段,無論是內(nèi)容和可操作性,還需進一步加強和完善,例如,倫理風險相關(guān)的責任承擔仍存在諸多盲點,需要進一步研究并進行完善。另外,結(jié)合我國人工智能治理法律法規(guī)和倫理規(guī)范體系的現(xiàn)狀,在構(gòu)建法律法規(guī)和倫理規(guī)范體系的過程中,應(yīng)尤其關(guān)注倫理審查制度的建立與完善、人工智能倫理治理相關(guān)標準化體系的構(gòu)建。
1)倫理審查制度的建立與完善
倫理審查制度是科技治理活動的基礎(chǔ)制度性安排,是將倫理治理問題落到實處的重要制度。在工作機制方面,2019年7月,中央全面深化改革委員會第九次會議審議通過《國家科技倫理委員會組建方案》;2019年10月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)通知,成立國家科技倫理委員會負責指導推進我國科技倫理治理各項工作,科學技術(shù)部按照《國家科技倫理委員會組建方案》,先后成立了人工智能、生命科學、醫(yī)學三個分委員會,推動相關(guān)部門成立科技倫理專業(yè)委員會,指導各地方結(jié)合工作實際,建立或者籌建地方科技倫理委員會 [②] ; 在制度安排方面,《科技倫理審查辦法》為科技倫理(審查)委員會的組建和運行提供了較為清晰完整的框架和指導。盡管如此,對于許多人工智能領(lǐng)域的企業(yè)而言,科技倫理(審查)委員會的設(shè)立并非易事;同時,開展科技倫理審查所依托的實體性規(guī)范仍有待有關(guān)行業(yè)的主管部門、社會團體進行研究和制定。因此,需進一步完善我國的倫理審查制度,明確倫理審查介入時機和標準,在確保審查程序高效進行的同時不影響人工智能創(chuàng)新活動的發(fā)展,保證審查活動的獨立性和主體廣泛性。
2)人工智能倫理治理相關(guān)標準化體系的構(gòu)建
目前我國有關(guān)人工智能倫理治理相關(guān)標準化體系還比較缺乏,在實務(wù)中存在人工智能倫理治理無操作性規(guī)范和標準可依的挑戰(zhàn)。因此,還需要進一步加快建設(shè)和完善人工智能倫理治理相關(guān)標準化體系,進一步制定有針對性、時效性、可操作性的實施細則。根據(jù)國家人工智能標準化總體組、全國信標委人工智能分委會聯(lián)合發(fā)布的《人工智能倫理治理標準化指南(2023版)》,一方面,為了改善目前人工智能倫理準則過于宏觀、不易實操落地問題,需要統(tǒng)一“政產(chǎn)學研用”各界及不同國家地區(qū)、不同人群等對于人工智能倫理的看法和要求,進一步明確人工智能倫理觀的范圍,豐富其內(nèi)涵,拓展其外延,對現(xiàn)有準則進行完善和細化,發(fā)展更“接地氣”的人工智能倫理準則;另一方面,為適應(yīng)我國人工智能發(fā)展的特殊需求,更好地幫助我國各界規(guī)范人工智能倫理問題,應(yīng)秉持“求同存異”的理念,在國際共識的基礎(chǔ)上,融入我國傳統(tǒng)文化價值觀并根據(jù)人工智能產(chǎn)業(yè)發(fā)展的現(xiàn)狀和需求,發(fā)展有中國特色的人工智能倫理準則 [③] 。
2.技術(shù)層面
1)將倫理規(guī)則融入技術(shù)研發(fā)和設(shè)計中
人工智能的研究開發(fā)、設(shè)計制造、部署應(yīng)用和使用階段都可能存在倫理風險,應(yīng)通過人工智能全生命周期管理,將風險控制在最小范圍之內(nèi)。采用技術(shù)手段將倫理規(guī)則融入產(chǎn)品的研發(fā)和設(shè)計中,通過技術(shù)標準、評估測試來控制倫理風險是較好方案。將一些人工智能關(guān)鍵技術(shù)標準化,完善平臺、產(chǎn)品和應(yīng)用相關(guān)的安全標準,有利于提高人工智能的安全性,例如,機器學習綁定的涉及用戶隱私有關(guān)的大量數(shù)據(jù),可通過制定相應(yīng)技術(shù)標準,將數(shù)據(jù)安全傳輸、數(shù)據(jù)存儲、數(shù)據(jù)交換、人機交互、傳感器接口等技術(shù)標準化,確保數(shù)據(jù)安全交換,同時保障用戶對數(shù)據(jù)擁有的權(quán)益,而不被平臺違規(guī)綁定。同時,要研究可測量的指標和可量化的評價系統(tǒng),科學評價人工智能產(chǎn)品在收集個人、生物或者其它特征數(shù)據(jù)時的安全性。在人工智能產(chǎn)品投入使用前,要求按照相關(guān)標準進行研發(fā)、設(shè)計和制造,對一些對人類安全和生命安全有嚴重影響的人工智能產(chǎn)品,強行要求按要求進行評估,促使在研發(fā)、設(shè)計和制造階段,盡可能生產(chǎn)能夠降低風險或易于進行風險監(jiān)測的產(chǎn)品。
2)建立高危人工智能風險預(yù)警機制
一些特殊領(lǐng)域人工智能技術(shù)、產(chǎn)品和應(yīng)用具有較高倫理風險,應(yīng)建立一種風險預(yù)警機制,便于風險識別、安全評估和應(yīng)急處理。首先,要對高危倫理風險技術(shù)、產(chǎn)品和應(yīng)用形成目錄,并自動更新,便于分級分類進行管理;其次,要形成一套安全風險管理標準體系,并在此基礎(chǔ)上形成風險預(yù)警機制,能夠快速識別人工智能的高危風險,并及時予以評估和響應(yīng)。
3.管理層面
如前文所述,人工智能的研究開發(fā)、設(shè)計制造、部署應(yīng)用和使用階段均存在倫理風險問題,因此,應(yīng)通過政府主導、多方共同參與的內(nèi)外部監(jiān)管模式,建立并完善全生命周期的人工智能監(jiān)管體系。
1)內(nèi)部監(jiān)管
從內(nèi)部看,負責人工智能研究開發(fā)、設(shè)計制造、部署應(yīng)用的相關(guān)單位是科技倫理管理主體責任單位,它是人工智能倫理內(nèi)部監(jiān)督管理的主體,應(yīng)通過建立人工智能審查和監(jiān)督工作機制,加強常態(tài)化管理,及時發(fā)現(xiàn)和化解本單位研究開發(fā)、設(shè)計制造、部署應(yīng)用等活動中存在的倫理風險,引導人工智能從業(yè)人員開展負責人的科技創(chuàng)新。相關(guān)單位可以從以下角度出發(fā),建立其內(nèi)部倫理風險管理框架及流程。
(1)風險管理框架
相關(guān)單位在設(shè)計風險管理框架時,應(yīng)遵循下列原則:①重視事前控制,尤其是單位管理層需要認識到人工智能的倫理風險,并提前對該倫理風險做出整體性部署;②設(shè)立倫理風險應(yīng)對部門與倫理風險監(jiān)督部門,該部門領(lǐng)導可以主要由人工智能研發(fā)部負責人、法務(wù)和/或合規(guī)部負責人等人員擔任,負責制定倫理風險管理政策、進行倫理審查等工作,同時需確保該政策貫穿人工智能產(chǎn)品或服務(wù)的全生命周期;③建立單位內(nèi)部溝通和咨詢渠道,確保各個業(yè)務(wù)部門與倫理風險應(yīng)對部門之間溝通順暢,并確保應(yīng)對部門及時掌握單位的倫理風險; ④ 建立商業(yè)合作伙伴倫理風險審查機制,在合作或投資前,先行評估該業(yè)務(wù)的倫理風險,例如數(shù)據(jù)來源是否可靠,并針對評估結(jié)果對企業(yè)進行有針對性的盡職調(diào)查。
(2)風險管理流程
相關(guān)單位應(yīng)當建立健全管理流程,并將其作為單位管理、決策的重要組成部分。具體而言,風險管理流程包括確定風險管理活動范圍、背景及標準、風險評估、風險應(yīng)對、持續(xù)監(jiān)控及審查、記錄及回報等五個環(huán)節(jié)。其中,風險評估包括風險識別、風險分析和風險評價三個部分:風險識別是指單位在面對具體的人工智能產(chǎn)品或服務(wù)時,單位首先需要識別出可能涉及的倫理風險,進行特征分析與初步評價;風險分析是指單位應(yīng)結(jié)合前述倫理風險的不確定性、風險源與可能帶來的后果詳細分析該風險;風險評價是單位應(yīng)將風險分析的結(jié)果與既有風險管理準則比較,結(jié)合現(xiàn)在與未來可能涉及的多方利益主體,決策采用何種應(yīng)對方式。
(3)相關(guān)人員培訓
相關(guān)單位應(yīng)建立員工風險倫理培訓制度,對培訓人員、培訓內(nèi)容與培訓效果記錄在檔。單位的培訓內(nèi)容通常可以包括本單位倫理風險管理組織機構(gòu)的設(shè)置與職能、相關(guān)政策與制度、單位一般涉及的相關(guān)倫理風險以及典型風險倫理管理案例等。同時,單位應(yīng)當根據(jù)員工的工作內(nèi)容、人員職級進行有針對性的培訓,并采取確定方式檢驗員工培訓效果,以確保員工準確理解單位倫理風險管理制度。
(4)定期風險評估
相關(guān)單位應(yīng)當定期進行倫理風險評估。單位可以通過審閱相關(guān)管理政策與制度、對人工智能開發(fā)抽樣檢測、與員工面談或發(fā)放調(diào)查問卷等形式,并視情況聘請外部專家,定期評估單位面臨的倫理風險與相應(yīng)措施的有效性。 [④]
2)外部監(jiān)管
從外部看,監(jiān)管主體包括政府、行業(yè)協(xié)會、學術(shù)團體、人工智能研發(fā)、設(shè)計、制造和應(yīng)用的相關(guān)單位設(shè)立的人工智能倫理審查委員會、民眾等。政府在人工智能倫理治理中享有主導權(quán),組建專門的治理機構(gòu),負責指導和統(tǒng)籌協(xié)調(diào)推進科技倫理治理體系建設(shè)、科技倫理規(guī)范制定、審查監(jiān)管、宣傳教育等相關(guān)工作。行業(yè)協(xié)會是同業(yè)企業(yè)和組織自愿組成、實行行業(yè)服務(wù)和自律管理的行業(yè)性組織,對維護行業(yè)正當競爭秩序,促進人工智能行業(yè)健康發(fā)展起到非常重要的作用,通過行規(guī)行約,實現(xiàn)對人工智能企業(yè)有違科技倫理的行為進行監(jiān)督管理。學術(shù)團體的整體倫理道德水平直接影響人工智能產(chǎn)品體現(xiàn)出的倫理道德觀,因而學術(shù)團體也要做好監(jiān)督工作,及時發(fā)現(xiàn)和防止人工智能領(lǐng)域出現(xiàn)道德倫理問題,使人工智能發(fā)展不偏離健康的發(fā)展道路。人工智能倫理問題的治理要落到實處,需要人工智能研發(fā)、設(shè)計、制造和應(yīng)用的相關(guān)單位設(shè)立的人工智能倫理審查委員會的參與,在人工智能全生命周期里負責倫理審查,其人員組成應(yīng)有廣泛代表性,包括專業(yè)人員、法律人員和倫理專家;其審查活動應(yīng)保持獨立性。民眾作為人工智能產(chǎn)品的使用者或者利益相關(guān)者,直接接觸人工智能產(chǎn)品、親身經(jīng)歷人工智能自動決策,可以直觀感受其技術(shù)的優(yōu)劣,反饋發(fā)現(xiàn)的人工智能倫理問題,進而有效發(fā)揮其監(jiān)督作用。
4.教育層面
1)樹立“以人為本”的理念,彰顯“人性尊嚴”的價值
人工智能發(fā)展最終要以人為根本出發(fā)點和目標,在教育層面應(yīng)樹立“以人為本”的理念,確立“人性尊嚴”的價值。當前,一些領(lǐng)域在評價人才機制上,功利主義色彩較重,這種單純以功利為導向的評價機制,極易鼓勵人工智能相關(guān)從業(yè)人員突破倫理道德界限,忽視人工智能隱藏的可能給人類文明和人類尊嚴帶來的不利后果。因而,對人工智能相關(guān)從業(yè)人員進行培養(yǎng)教育,樹立“以人為本”的理念,彰顯“人性尊嚴”的價值非常重要。對于研發(fā)和設(shè)計人員,應(yīng)培養(yǎng)他們正確的科研創(chuàng)新價值觀,使他們在人工智能創(chuàng)新活動中始終保持正確的倫理觀,以負責人態(tài)度對待研發(fā)和設(shè)計,避免急功近利、唯利是圖的思想,真正做到“負責任創(chuàng)新”。對于部署應(yīng)用人員和使用者,也要培養(yǎng)他們正確的倫理價值觀和是非曲直的倫理判斷標準。
2)專業(yè)素質(zhì)和人文素養(yǎng)培養(yǎng)并重
人工智能無論是算力、存儲能力還是壽命都有比人更大的優(yōu)勢,未來是人工智能時代,人工智能研發(fā)者、設(shè)計制造者、部署應(yīng)用者、管理者需要了解人工智能專業(yè)知識,公眾也要接受人工智能通識教育。人工智能與生產(chǎn)生活息息相關(guān),只有了解其核心內(nèi)容、原理、方法以及背后的邏輯,才能更好地使用人工智能,而且未來人工智能的發(fā)展,也需要大批的專業(yè)人才,這些都需要教育的支撐和保障。無論是專業(yè)人員,還是公眾,有關(guān)人工智能的專業(yè)素質(zhì)培養(yǎng)和人文素養(yǎng)培養(yǎng)同等重要,只有提高對人工智能技術(shù)的理解、掌握一些人工智能專業(yè)知識,才能更好地研發(fā)、設(shè)計、制造、部署、維護、管理、使用人工智能,只有通過人本精神的教育和熏陶,樹立理想信念,提高自己的思想認識水平和公德意識,把握人生真諦,尊重人的尊嚴,負責任地和人工智能打交道,才能有效地將倫理要求融入人工智能系統(tǒng),真正構(gòu)建和諧的人工智能健康環(huán)境。
5.國際合作層面
1)積極參與全球人工智能倫理治理倡議
近年來,我國不僅著力于加強人工智能技術(shù)的創(chuàng)新研發(fā),也在積極參與全球人工智能倫理治理。2023年8月,金磚國家領(lǐng)導人第十五次會晤上,金磚國家已經(jīng)同意盡快啟動人工智能研究組工作;我國在該會議上提出,要充分發(fā)揮研究組作用,進一步拓展人工智能合作,加強信息交流和技術(shù)合作,共同做好風險防范,形成具有廣泛共識的人工智能治理框架和標準規(guī)范,不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性。2023年10月,我國發(fā)布《全球人工智能治理倡議》,圍繞人工智能發(fā)展、安全、治理三方面系統(tǒng)闡述了人工智能治理中國方案,并在倡議中提出:堅持相互尊重、平等互利;推動建立風險等級測試評估體系;推動建立風險等級測試評估體系,不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性;在充分尊重各國政策和實踐基礎(chǔ)上,形成具有廣泛共識的全球人工智能治理框架和標準規(guī)范。2023年10月,我國兩名專家入選聯(lián)合國高級別人工智能咨詢機構(gòu)(High Level Advisory Body on AI),致力于“就人工智能的治理進行多利益攸關(guān)方共同參與、多學科共治的全球性對話”。將來,我國應(yīng)當進一步積極參與聯(lián)合國等多邊機構(gòu)的人工智能倫理治理交流合作,切實推動人工智能倫理公示,深入?yún)⑴c國際標準的研討制定。
2)鼓勵國內(nèi)企業(yè)和專家學者參與國際人工智能倫理治理交流合作
在我國參與全球人工智能倫理治理交流合作的同時,企業(yè)、專家學者也應(yīng)積極分享國內(nèi)人工智能倫理治理實踐經(jīng)驗,推動產(chǎn)業(yè)界與學術(shù)界加強與域外機構(gòu)對人工智能倫理治理議題的深入研討,形成全球人工智能倫理治理合作生態(tài)。一方面,企業(yè)在國際舞臺分享國內(nèi)人工智能倫理治理的實踐經(jīng)驗,有利于企業(yè)與其他國家的企業(yè)和機構(gòu)建立聯(lián)系,促進國際合作與交流,以推動行業(yè)國際倫理標準的制定和實施;另一方面,專家學者積極參與人工智能倫理治理交流合作,可以促進政策對話,為政策制定者提供科學依據(jù)和建議,有利于構(gòu)建國際人工智能倫理治理框架與治理規(guī)則。
[①] 中國信息通信研究院,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟. 人工智能治理白皮書[EB/OL]. (2020-09-28] [2024-01-01]. http://www.caict.ac.cn/kxyj/qwfb/bps/202009/t20200928_347546.htm.
[②] 科學技術(shù)部. 《關(guān)于加強科技倫理治理的意見》新聞發(fā)布會[EB/OL]. (2022-03-24] [2024-01-01]. https://www.most.gov.cn/xwzx/twzb/fbh22032301/twzbwzsl/202203/t20220324_179977.html.
[③] 國家人工智能標準化總體組,全國信標委人工智能分委會. 人工智能倫理治理標準化指南(2023版)[EB/OL]. [2023-03-20]. http://www.jianshen.cas.cn/zgkxykjllwyhbgs/zdgf/xxjsyrgznly/xygf/202310/P020231019382162308610.pdf.
[④] 國家人工智能標準化總體組.人工智能倫理風險分析報告[EB/OL].(2019-03-25)[2024-01-01].https://www.cesi.cn/images/editor/20190425/20190425142632634001.pdf.




