日本一区二区不卡视频,高清成人免费视频,日日碰日日摸,国产精品夜间视频香蕉,免费观看在线黄色网,国产成人97精品免费看片,综合色在线视频

申請實習證 兩公律師轉社會律師申請 注銷人員證明申請入口 結業人員實習鑒定表申請入口 網上投稿 《上海律師》 切換新版
當前位置: 首頁 >> 業務研究大廳 >> 專業論文

人工智能(AI):科技倫理治理走起

    日期:2025-12-15     作者:張逸瑞(數字科技與人工智能專業委員會、北京市金杜律師事務所上海分所)、馮寶寶(北京市金杜律師事務所上海分所)

引言 

隨著人工智能深度學習能力的不斷強化,人工智能技術大幅發展,ChatGPTBard等大模型的陸續推出,人工智能技術開始被廣泛地應用于人們日常生活的方方面面。不過,正如過去諸多科幻類作品所展示的那樣,現實中,人工智能的發展帶來的科技倫理問題也逐步顯現。例如,當人工智能使用的訓練數據本身存在虛假、錯誤信息時,或人工智能被用于炮制虛假、錯誤信息時,人工智能將助推虛假、錯誤信息的傳播。再如,盡管人工智能技術研發的初衷是使得人們得以從一些簡單重復的工作中脫離出來進而從事更具有創造性的工作,人工智能自動生成的繪畫、詩句、文章展現出的出乎人們意料的創造力,引發了社會對于人工智能取代人類的憂慮以及對就業市場的巨大沖擊。在近期的好萊塢編劇罷工事件中,為了避免被AI取代,好萊塢編劇們提出了AI生成的文學材料不得被視為人類撰寫的文學材料、禁止利用編劇的勞動成果來訓練AI等一系列訴求。再如,人工智能系統可能包含強化或固化歧視或偏見的應用程序和結果,這將加劇社會中已有的歧視、偏見與成見。此外,人類為使用人工智能提供的服務,也將涉及向人工智能提供生理信息、行為偏好、興趣偏好等個人隱私信息,如前述信息被不當收集和利用,人工智能將極有可能成為窺探個人隱私、侵擾個人生活的工具。 

為了應對上述人工智能帶來的倫理問題,聯合國教育、科學及文化組織于20211123日通過《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence《建議書》),提出了人工智能系統生命周期的所有行為者應尊重的價值觀和原則以及落實前述價值觀和原則的政策行動,建議會員國在自愿基礎上適用《建議書》的各項規定,根據本國的憲法實踐和治理結構并依照國際人權法在內的國際法采取適當步驟,包括進行必要的立法。目前,歐盟、美國和英國等國家和地區均已出臺了一系列監管規則,與此同時,我國科學技術部會同教育部、工業和信息化部、國家衛生健康委等十部門聯合印發的《科技倫理審查辦法(試行)》正式明確了我國的科技倫理審查體系。 

本文重點內容包括:

s   全球各地區的人工智能倫理治理體系的概述性介紹;

s   我國最新出臺的《科技倫理審查辦法(試行)》的要點解讀;

s   結合我國的監管要求,對于大模型服務提供者的人工智能倫理治理責任的梳理;

s   大模型服務提供者提供應對人工智能加速突破和應用所帶來的倫理風險與挑戰的可行路徑探索。 

一、 國外AI倫理治理監管體系概述 

目前歐盟、美國及英國均已出臺了與人工智能相關的監管規則,科技倫理的治理是其中的重點。具體如下: 

(一)     歐盟 

《人工智能法案》(Artificial Intelligence Act)作為歐盟人工智能監管體系的核心,在經歷了一系列修正之后,目前將進入歐盟委員會、議會和成員國三方談判協商的程序從而確定最終版本。《人工智能法案》是歐盟首部有關人工智能的綜合性立法,其以人工智能的概念作為體系原點,以人工智能的風險分級管理作為制度抓手,以人工智能產業鏈上的不同責任主體作為規范對象,以對人工智能的合格評估以及問責機制作為治理工具,從人工監管、隱私、透明度、安全、非歧視、環境友好等全方位監管人工智能的開發和使用,詳細規定了人工智能市場中各參與者的義務。 

在倫理治理方面,《人工智能法案》強調,人工智能應該是一種以人為本的技術,不應該取代人類的自主性,也不應該導致個人自由的喪失,而應該主要服務于社會需求和共同利益,因此應提供保障措施,以確保開發和使用尊重歐盟價值觀和《歐洲聯盟基本權利憲章》(Charter of Fundamental Rights of the European Union)的道德嵌入式人工智能。對于AI系統的風險分級標準,《人工智能法案》將倫理風險作為考量因素,將下述類型的AI系統歸為存在不可接受風險的AI系統,在歐盟成員國內將完全禁止該等AI系統投入市場或者交付使用: 

?   采用潛意識技術或有目的的操縱或欺騙技術;

?   利用個人或社會群體的弱點(例如已知的人格特征或社會經濟狀況、年齡、身體精神能力);

?   利用人的社會行為或人格特征進行社會評分;

?   在公眾場所的實時(包括即時和短時延遲)遠程生物識別系統。 

此外,在評估AI系統是否屬于高風險AI系統時,《人工智能法案》要求考量AI系統對《歐洲歐盟基本權利憲章》所保護的基本權利造成的不利影響的程度,該等基本權利包括:人的尊嚴、尊重私人和家庭生活、保護個人數據、言論和信息自由、集會和結社自由以及不受歧視的權利、受教育權、消費者保護、工人權利、殘疾人權利、性別平等、知識產權、獲得有效補救和公平審判的權利、辯護權和無罪推定、良好管理的權利。高風險AI系統投放市場及交付使用均受到嚴格的管控并需履行評估及備案等一系列要求。 

(二)     美國 

美國在聯邦層面尚未通過一部完整且專門的針對AI系統的法案,而是試圖通過調整政府機構的權利,在現有的立法框架及監管規則內對人工智能進行規制。在倫理治理方面,目前聯邦層面的合規重點主要涉及反歧視、保護數據隱私等要求。例如: 

1.          2022年算法問責法案》(Algorithmic Accountability Act of 2022 

20222月,美國眾議院頒布了《2022年算法問責法案》,要求使用自動化決策系統做出關鍵決策的企業研究并報告這些系統對消費者的影響,其內容包括是否會因為消費者的種族、性別、年齡等生成對消費者有偏見或歧視性的自動決策等。該法案形成了評估報告評估簡報公開信息三層信息披露機制。此外,聯邦貿易委員會還將建立可公開訪問的信息存儲庫,公開發布關于自動化決策系統的有限信息。 

2.          《人工智能權利法案藍圖》(Blueprint for an AI Bill of Right 

202210月,美國白宮科技政策辦公室(OSTP)頒布了《人工智能權利法案藍圖》,提出了指導人工智能的設計、使用和部署的五項原則:技術的安全性和有效性、防止算法歧視、保護數據隱私、告知及解釋義務以及人類參與決策,并在技術指南部分針對五項原則中的每一項均解釋了原則的重要性、原則所指引的期望以及各級政府到各種規模的公司等多種組織為維護原則可以采取的具體的實施步驟、原則的實踐案例。 

3.          《美國數據隱私和保護法案》(the American Data Privacy and Protection ActADPPA 

20226月,美國參眾兩院共同發布了ADPPAADPPA規定,如人工智能所使用的數據集涵蓋個人信息、數據與隱私,則構成覆蓋算法;使用覆蓋算法的大數據持有人,如果對個人或群體構成相應傷害風險,并單獨或部分使用覆蓋算法來收集、處理或傳輸覆蓋數據,則應當根據ADPPA規定的評估標準進行隱私影響評估。另外,ADPPA還對隱私政策的告知與退出機制、反偏見等內容做出了規定。ADPPA規定,企業或代表企業的服務提供商需要告知個人有選擇退出的權利,即拒絕企業對其個人數據的收集、處理或傳輸。 

4.          《關于通過聯邦政府進一步促進種族平等和支持服務不足社區的行政命令》(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through the Federal Government 

20232月,拜登簽署了《關于通過聯邦政府進一步促進種族平等和支持服務不足社區的行政命令》,規定人工智能大模型應避免由于大量輸入訓練數據中存在的對種族、性別、年齡、文化和殘疾等的偏見而導致訓練結果輸出內容中存在偏見。聯邦政府在設計、開發、獲取和使用人工智能和自動化系統時,各機構應在符合適用法律的前提下,防止、糾正歧視和促進公平,包括保護公眾免受算法歧視。 

(三)     英國 

20215月,英國中央數字與數據辦公室、人工智能辦公室與內閣辦公室聯合發布了《自動決策系統的倫理、透明度與責任框架》(Ethics, Transparency and Accountability Framework for Automated Decision-MakingETAF),對人工智能涉及的算法和自動化決策的倫理治理要求進行規定。ETAF強調,算法和自動化決策在上線之前應該進行嚴格的、受控的和分階段的測試。在整個原型和測試過程中,需要人類的專業知識和監督來確保技術上的彈性和安全,以及準確和可靠的系統。測試時,需要考慮自動化決策系統的準確性、安全性、可靠性、公平性和可解釋性。ETAF規定,企業必須對算法或自動決策系統做一個平等影響評估,使用高質量和多樣化的數據集,發現和抵制所使用數據中明顯的偏見和歧視。ETAF指出,算法或計算機系統應該被設計為完全可以負責和可被審計的,算法和自動化的責任和問責制度應該明確。 

二、 我國與AI倫理治理相關的法律法規和行業規范概覽 

(一)     法律法規 

在我國,2017年,國務院印發《新一代人工智能發展規劃》并在該規劃中提出了制定促進人工智能發展的法律法規和倫理規范的要求,之后《中華人民共和國科學技術進步法》、《互聯網信息服務算法推薦管理規定》、《互聯網信息服務深度合成管理規定》、《生成式人工智能服務管理暫行辦法》、《網絡安全標準實踐指南人工智能倫理安全風險防范指引》等一系列法律法規和相關規定相繼對于AI倫理治理的要求予以規定。2022年中共中央辦公廳、國務院辦公廳發布了《關于加強科技倫理治理的意見》,該意見是我國首個國家層面的、專門針對科技倫理治理的指導性文件,提出了科技倫理治理原則以及基本要求。202310月新發布的《科技倫理審查辦法(試行)》對于科技倫理審查的基本程序、標準、條件等提出統一要求,標志著我國AI倫理治理監管體系建設進入了新階段。我們在下表中梳理了我國與AI倫理治理相關的法律法規及其主要內容: 

序號

名稱

位階

生效日期

AI倫理治理相關要求

1.       

《中華人民共和國科學技術進步法》

 

法律

2022.01.01

要求科學技術研究開發機構、高等學校、企業事業單位等應當履行科技倫理管理主體責任,按照國家有關規定建立健全科技倫理審查機制,對科學技術活動開展科技倫理審查,禁止危害國家安全、損害社會公共利益、危害人體健康、違背科研誠信和科技倫理的科學技術研究開發和應用活動,否則相關單位、直接負責的主管人員和其他直接責任人員將受到行政處罰。

 

2.       

《新一代人工智能發展規劃》

 

行政法規

2023.08.15

提出人工智能倫理規范和政策法規建設的戰略目標,以及制定促進人工智能發展的法律法規和倫理規范的要求。

 

3.       

《互聯網信息服務算法推薦管理規定》

 

部門規章

2022.03.01

算法推薦服務提供者應當落實算法安全主體責任,建立健全算法機制機理審核、科技倫理審查、用戶注冊、信息發布審核、數據安全和個人信息保護、反電信網絡詐騙、安全評估監測、安全事件應急處置等管理制度和技術措施,制定并公開算法推薦服務相關規則,配備與算法推薦服務規模相適應的專業人員和技術支撐;此外,還應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫理道德的算法模型。

 

4.       

《互聯網信息服務深度合成管理規定》

 

部門規章

2023.01.10

深度合成服務提供者應當落實信息安全主體責任,建立健全用戶注冊、算法機制機理審核、科技倫理審查、信息發布審核、數據安全、個人信息保護、反電信網絡詐騙、應急處置等管理制度,具有安全可控的技術保障措施。

 

5.       

《生成式人工智能服務管理暫行辦法》

 

部門規章

2023.08.15

提供和使用生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,遵守以下規定:

(一)堅持社會主義核心價值觀,不得生成煽動顛覆國家政權、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統一和社會穩定,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規禁止的內容;

(二)在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,采取有效措施防止產生民族、信仰、國別、地域、性別、年齡、職業、健康等歧視;

(三)尊重知識產權、商業道德,保守商業秘密,不得利用算法、數據、平臺等優勢,實施壟斷和不正當競爭行為;

(四)尊重他人合法權益,不得危害他人身心健康,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益;

(五)基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性。

 

6.       

《科技倫理審查辦法(試行)》

 

部門規章

2023.12.01

詳見下文

7.       

《網絡安全標準實踐指南人工智能倫理安全風險防范指引》

 

其他規范性文件

2021.01.05

AI倫理安全風險總結為以下五大方面:(1)失控性風險,如AI的行為與影響超出服務提供者預設、理解和可控的范圍,對社會價值等產生負面影響;(2)社會性風險:不合理使用AI而對社會價值等方面產生負面影響;(3)侵權性風險:AI對人的基本權利,包括人身、隱私、侵權性風險財產等造成侵害或產生負面影響;(4)歧視性風險:AI對人類特定群體具有主觀或客觀偏見,影響公平公正、造成權利侵害或負面影響;(5)責任性風險:AI相關各方行為失當、責任界定不清,對社會信任、社會價值等方面產生負面影響。

 

8.       

《關于加強科技倫理治理的意見》

 

其他規范性文件

2022.03.20

提出科技倫理是開展科學研究、技術開發等科技活動需要遵循的價值理念和行為規范,是促進科技事業健康發展的重要保障,并明確了以下五大類科技倫理原則:增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險和保持公開透明。

 

(二)     行業規范 

除前序法律法規和相關規定以外,在《新一代人工智能發展規劃》等政策指引下,各機構、行業也積極響應,陸續發布了一系列AI倫理治理相關的行業規范,包括國家新一代人工智能治理專業委員會制定的《新一代人工智能治理原則——發展負責任的人工智能》、《新一代人工智能倫理規范》、國家人工智能標準化總體組等制定的《人工智能倫理治理標準化指南》、同濟大學上海市人工智能社會治理協同創新中心研究團隊編制的《人工智能大模型倫理規范操作指引》、中國社會科學院國慶調研重大項目《我國人工智能倫理審查和監管制度建設狀況調研》課題組編制的《人工智能法示范法1.0(專家建議稿)》,提供了相關行業的AI倫理治理建議。下表梳理了我國與AI倫理治理相關的行業規范及其主要內容: 

序號

行業規范

編制機構

發布時間

主要內容

1.       

《新一代人工智能治理原則——發展負責任的人工智能》

國家新一代人工智能治理專業委員會

2019.06

提出了人工智能治理的框架和行動指南,治理原則旨在更好協調人工智能發展與治理的關系,確保人工智能安全可控可靠,推動經濟、社會及生態可持續發展,共建人類命運共同體。治理原則突出了發展負責任的人工智能這一主題,強調了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理等八條原則。

 

2.       

《新一代人工智能倫理規范》

國家新一代人工智能治理專業委員會

2021.09

旨在將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題。《新一代人工智能倫理規范》的適用主體為從事人工智能管理、研發、供應、使用等相關活動的自然人、法人和其他相關機構。在此基礎上,《新一代人工智能倫理規范》明確了人工智能的基本倫理規范,包括增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養。同時,《新一代人工智能倫理規范》提出了一系列人工智能應用管理規范、研發規范、供應規范和使用規范。

 

3.       

《人工智能倫理治理標準化指南》

國家人工智能標準化總體組

2023.03

共分為六章,以人工智能倫理治理標準體系的建立和具體標準研制為目標,重點圍繞人工智能倫理概念和范疇、人工智能倫理準則、人工智能倫理風險分析、人工智能倫理治理的技術解決方案、人工智能倫理治理標準體系建設以及展望與建議等六個方面展開研究。

 

4.       

《人工智能大模型倫理規范操作指引》

同濟大學等

2023.07

主要包括AI大模型全生命周期的技術與倫理要素、大模型的研發與應用的倫理原則、大模型技術研發的倫理實踐指南三部分內容,提出了尊重人的自主權、保護個人隱私、保障公平公正、提高透明度和可解釋性、負責任的創新等5項大模型倫理原則,以及公平性、透明性、隱私、安全性、責任、人類的監督與控制、可持續性等7項大模型倫理實踐操作建議。

 

三、 《科技倫理審查辦法(試行)》要點 

(一)     適用范圍 

2023108日,科學技術部、教育部、工業和信息化部等多部門聯合發布《科技倫理審查辦法(試行)》(《科技倫理審查辦法》),該辦法將于2023121日起正式實施。該辦法對于涉及以人為研究參與者的科技活動,包括利用人類生物樣本、個人信息數據等的科技活動,或不直接涉及人或實驗動物,但可能在生命健康、生態環境、公共秩序、可持續發展等方面帶來倫理風險挑戰的科技活動進行的科技倫理審查和監管做出了明確的規定,由此可見,該辦法的適用范圍幾乎涵蓋所有科技活動,包括人工智能相關的科技活動。 

(二)     審查主體 

在審查主體方面,《科技倫理審查辦法》明確要求從事生命科學、醫學、人工智能等科技活動的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會。其他有倫理審查需求的單位可根據實際情況設立科技倫理(審查)委員會。單位應在設立科技倫理(審查)委員會后30日內,通過國家科技倫理管理信息登記平臺進行登記,登記內容包括科技倫理(審查)委員會組成、章程、工作制度等,相關內容發生變化時應及時更新,并在每年331日前,向國家科技倫理管理信息登記平臺提交上一年度科技倫理(審查)委員會工作報告。科技倫理(審查)委員會的主要職責包括: 

?   制定完善科技倫理(審查)委員會的管理制度和工作規范;

?   提供科技倫理咨詢,指導科技人員對科技活動開展科技倫理風險評估;

?   開展科技倫理審查,按要求跟蹤監督相關科技活動全過程;

?   對擬開展的科技活動是否屬于《需要開展倫理審查復核的科技活動清單》范圍作出判斷;

?   組織開展對委員的科技倫理審查業務培訓和科技人員的科技倫理知識培訓;

?   受理并協助調查相關科技活動中涉及科技倫理問題的投訴舉報;

?   按照主管部門要求進行登記、報告,配合地方、相關行業主管部門開展涉及科技倫理審查的相關工作。 

在科技倫理(審查)委員會的人員組成方面,科技倫理(審查)委員會人數應不少于7人,設主任委員1人,副主任委員若干;委員任期不超過5年,可以連任。委員會成員應由具備相關科學技術背景的同行專家以及倫理、法律等相應專業背景的專家組成,并應當有不同性別和非本單位的委員,民族自治地方應有熟悉當地情況的委員。由此可見,科技倫理(審查)委員會的設立具備一定門檻,根據《科技倫理審查辦法》,如單位或個人涉及開展需進行科技倫理審查的科技活動,但單位未設立科技倫理(審查)委員會或個人無單位的,應書面委托其他單位的科技倫理(審查)委員會開展倫理審查工作。 

(三)     審查程序 

根據《科技倫理審查辦法》,科技倫理(審查)委員會開展科技倫理審查的流程如下: 

科技倫理審查流程圖示 

根據《科技倫理審查辦法》,針對納入科技部發布的《需要開展倫理審查復核的科技活動清單》的科技活動,通過科技倫理(審查)委員會的科技審查后,除非國家實行行政審批等監管措施且將符合倫理要求作為審批條件、監管內容的,還需由科技活動承擔單位(即開展科技活動的單位)報請所在地方或相關行業主管部門組織成立復核專家組 [1] 開展專家復核,并由負責該等科技活動的科技審查的科技倫理(審查)委員會根據專家復核意見作出科技倫理審查決定;前序科技倫理(審查)委員會應在納入清單管理的科技活動獲得倫理審查批準后30日內,通過國家科技倫理管理信息登記平臺進行登記,登記內容包括科技活動實施方案、倫理審查與復核情況等,相關內容發生變化時應及時更新,并在每年331日前向國家科技倫理管理信息登記平臺提交上一年度納入清單管理的科技活動實施情況報告。根據科技部于2023108日附隨《科技倫理審查辦法》發布的《需要開展倫理審查復核的科技活動清單》,具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統的研發均屬于需要開展倫理審查復核的科技活動。因此,人工智能相關科技活動除通過科技倫理(審查)委員會的科技審查以外,極有可能還需在復核專家組進行倫理審查復核。 

(四)     審查內容 

根據《科技倫理審查辦法》,針對所有需要依法進行科技倫理審查的科技活動,科技倫理審查的具體內容包括:

?   擬開展的科技活動應符合增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明的科技倫理原則,參與科技活動的科技人員資質、研究基礎及設施條件等符合相關要求;

?   擬開展的科技活動具有科學價值和社會價值,其研究目標的實現對增進人類福祉、實現社會可持續發展等具有積極作用。科技活動的風險受益合理,倫理風險控制方案及應急預案科學恰當、具有可操作性;

?   所制定的利益沖突申明和管理方案合理。 

針對利用人類生物樣本、個人信息數據等的科技活動在內的涉及以人作為研究參與者的科技活動,還需審查下述內容: 

?   所制定的招募方案公平合理,生物樣本的收集、儲存、使用及處置合法合規,個人隱私數據、生物特征信息等信息處理符合個人信息保護的有關規定,對研究參與者的補償、損傷治療或賠償等合法權益的保障方案合理,對脆弱人群給予特殊保護;

?   所提供的知情同意書內容完整、風險告知客觀充分、表述清晰易懂,獲取個人知情同意的方式和過程合規恰當。 

針對涉及數據和算法的科技活動,還需審查下述內容: 

?   數據的收集、存儲、加工、使用等處理活動以及研究開發數據新技術等符合國家數據安全和個人信息保護等有關規定,數據安全風險監測及應急處理方案得當;

?   算法、模型和系統的設計、實現、應用等遵守公平、公正、透明、可靠、可控等原則,符合國家有關要求,倫理風險評估審核和應急處置方案合理,用戶權益保護措施全面得當。 

四、 國內大模型服務提供者的AI倫理治理責任 

如我們在《大模型合規之現實初探》一文中所述,向境內公眾提供大模型服務的大模型服務提供者,包括平臺運營方和技術支持方,均屬于生成式人工智能服務提供者,從而均應當承擔相應的AI倫理治理責任,具體而言: 

在程序層面,在《科技倫理審查辦法》正式生效以后,如大模型服務提供者涉及開展《科技倫理審查辦法》適用范圍內的科技活動,需自行設立科技倫理(審查)委員會或委托其他單位的科技倫理(審查)委員會對于所涉科技活動進行科技倫理審查,如涉及具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發”、“面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統的研發,還需報請所在地方或相關行業主管部門組織開展專家復核,亦即,科技倫理審查將成為算法備案以及安全評估以外大模型服務上線前的另一前置程序。 

在實體層面,目前尚未出臺法律法規對于不同類型的大模型服務提供者的AI倫理治理細則予以規定,盡管如此,一方面,如前文所述,目前《互聯網信息服務算法推薦管理規定》、《互聯網信息服務深度合成管理規定》、《生成式人工智能服務管理暫行辦法》均要求大模型服務提供者履行倫理治理方面的合規義務;另一方面,與AI倫理治理相關的國家標準、團體標準以及行業標準均在制定過程中,其發布和施行指日可待。因此,大模型服務提供者可以參照前述《新一代人工智能倫理規范》等行業標準,按照技術主體(即從事人工智能相關的科學研究、技術開發、產品研制等研發活動的主體)、應用主體(即從事人工智能產品與服務相關的生產、運營、銷售等人工供應活動和使用活動)進行自我定位,明確自身的AI倫理治理責任。 

結語 

人工智能技術的大幅進步提高了生產效率,為人類進行創造性智力活動提供了更加便捷的環境,同時,人工智能也對人類社會的倫理道德造成了挑戰。《科技倫理審查辦法》的頒布,標志著我國對人工智能技術的監管將逐步走向規范化,我們將持續在AI倫理審查和治理等諸多方面助力人工智能領域的企業向以人為本的人工智能時代邁進。

[1] 《科技倫理審查辦法》第二十八條規定,地方或相關行業主管部門組織成立復核專家組,由科技活動相關領域具有較高學術水平的同行專家以及倫理學、法學等方面的專家組成,不少于5人。科技倫理(審查)委員會委員不得參與本委員會審查科技活動的復核工作。復核專家應主動申明是否與復核事項存在直接利益關系,嚴格遵守保密規定和回避要求。