前言
作為全球首部全面規(guī)范人工智能技術(shù)的綜合性立法,歐盟《人工智能法案》(Artificial Intelligence Act)自2024年8月1日起生效并分階段實(shí)施。
法案生效一年來,歐盟委員會(huì)及相關(guān)機(jī)構(gòu)陸續(xù)發(fā)布了一系列配套文件,包括法案實(shí)施時(shí)間表、《關(guān)于人工智能系統(tǒng)定義的指南》、《關(guān)于禁止的人工智能實(shí)踐指南》以及《通用目的人工智能模型提供者義務(wù)范圍指南》等,以更好推動(dòng)法案的實(shí)施與落地。
本文旨在系統(tǒng)梳理歐盟《人工智能法案》的最新實(shí)施動(dòng)態(tài),并介紹關(guān)鍵指南文件的核心內(nèi)容。通過分析法案的落地進(jìn)程,我們希望幫助企業(yè)更好地把握歐盟人工智能監(jiān)管方向和實(shí)施要求。
一、 歐盟《人工智能法案》實(shí)施時(shí)間表
| 生效時(shí)間 |
條款內(nèi)容 |
| 2024年7月12日 |
《人工智能法案》發(fā)布于《歐盟官方公報(bào)》,此為該法案的正式通告 [1] 。 |
| 2024年8月1日 |
《人工智能法案》生效,此階段法案所有具體要求均未適用——相關(guān)要求將逐步適用 [2] 。 |
| 2025年2月2日 |
人工智能一般條款和禁止的人工智能實(shí)踐規(guī)定開始適用(第一章與第二章) [3] 。 |
| 2025年8月2日 |
《人工智能法案》的如下規(guī)定開始適用: (1) 通知機(jī)構(gòu)(第三章第四節(jié)); (2) 通用目的人工智能模型(第五章); (3) 治理(第七章); (4) 保密(第78條); (5) 處罰(第99和第100條) [4] 。 |
| 2026年8月2日 |
《人工智能法案》剩余條款開始適用,第6條(高風(fēng)險(xiǎn)人工智能系統(tǒng)的分類規(guī)則)第1款除外 [5] 。 |
| 《人工智能法案》開始適用于在2026年8月2日前已投放市場(chǎng)或投入服務(wù)的高風(fēng)險(xiǎn)人工智能系統(tǒng)(作為大型IT系統(tǒng)組件的人工智能系統(tǒng)除外)的運(yùn)營者,但前提是相關(guān)系統(tǒng)自2026年8月2日起設(shè)計(jì)發(fā)生重大變更 [6] 。 |
|
| 2027年8月2日 |
第6條(高風(fēng)險(xiǎn)人工智能系統(tǒng)的分類規(guī)則)第1款及相關(guān)義務(wù)開始適用 [7] 。 |
| 2025年8月2日前投放市場(chǎng)的通用目的人工智能模型提供者,須在2027年8月2日前采取必要措施以遵守《人工智能法案》的要求 [8] 。 |
|
| 2030年8月2日 |
供公共部門使用的高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者與部署者,須在2030年8月2日前采取必要措施符合《人工智能法案》的要求 [9] 。 |
| 2030年12月31日 |
作為大型IT系統(tǒng)組件的人工智能系統(tǒng),若在2027年8月2日前已投放市場(chǎng)或投入服務(wù),須在2030年12月31日前符合《人工智能法案》的要求 [10] 。 |
二、 關(guān)于人工智能系統(tǒng)定義的指南
《人工智能法案》適用于人工智能系統(tǒng),該法案對(duì)人工智能系統(tǒng)的定義為:被設(shè)計(jì)用于以不同程度的自主性運(yùn)行,并可能在部署后表現(xiàn)出適應(yīng)性的機(jī)器系統(tǒng),且為了明確或隱含的目標(biāo),根據(jù)其接收的輸入推斷如何生成可以影響物理或虛擬環(huán)境的輸出,如預(yù)測(cè)、內(nèi)容、推薦或決策 [11] 。
2025年2月6日,歐盟委員會(huì)發(fā)布了《關(guān)于人工智能系統(tǒng)定義的指南》 [12] (Guidelines on the definition of an artificial intelligence system,以下簡(jiǎn)稱“AI System Guidelines”),旨在為《人工智能法案》中人工智能系統(tǒng)的定義提供解釋和指導(dǎo)。該指南由歐盟委員會(huì)制定,參考了利益相關(guān)者咨詢和歐洲人工智能委員會(huì)的反饋意見,但其性質(zhì)為非約束性文件,對(duì)人工智能系統(tǒng)的最終解釋權(quán)仍歸歐盟法院(CJEU) [13] 。
AI System Guidelines的主要內(nèi)容包括人工智能系統(tǒng)的構(gòu)成要素,以及明確不屬于人工智能系統(tǒng)的情形,以幫助相關(guān)方判斷其系統(tǒng)是否屬于《人工智能法案》的監(jiān)管范圍。鑒于人工智能技術(shù)的快速發(fā)展,AI System Guidelines強(qiáng)調(diào),無法窮盡列舉所有可能的人工智能系統(tǒng),在明確定義“人工智能系統(tǒng)”概念的同時(shí),需結(jié)合每個(gè)系統(tǒng)的具體特性進(jìn)行分析和判斷,避免機(jī)械套用定義 [14] 。
(一) 人工智能系統(tǒng)的要素
AI System Guidelines圍繞《人工智能法案》第3條第1款對(duì)“人工智能系統(tǒng)”的定義展開,詳細(xì)闡述了人工智能系統(tǒng)定義的以下七個(gè)核心要素:
1. 基于機(jī)器的系統(tǒng)(Machine-based system)
人工智能系統(tǒng)的第一個(gè)要素是其屬于“基于機(jī)器的系統(tǒng)”。“基于機(jī)器的系統(tǒng)”是指人工智能系統(tǒng)由硬件和軟件組成的機(jī)器開發(fā)并在機(jī)器運(yùn)行。硬件包括處理器、內(nèi)存、存儲(chǔ)設(shè)備、聯(lián)網(wǎng)單元、輸入/輸出接口等機(jī)器的物理組件,用于提供計(jì)算的基礎(chǔ)設(shè)施;軟件則涵蓋計(jì)算機(jī)代碼、指令、程序、操作系統(tǒng)和應(yīng)用程序,負(fù)責(zé)處理硬件如何處理數(shù)據(jù)并執(zhí)行任務(wù) [15] 。所有人工智能系統(tǒng)都是基于機(jī)器的,因?yàn)樾枰獧C(jī)器來實(shí)現(xiàn)其功能,先進(jìn)人工智能系統(tǒng)的整個(gè)生命周期都依賴于機(jī)器 [16] 。無論是傳統(tǒng)計(jì)算機(jī)、量子計(jì)算系統(tǒng),還是具有計(jì)算能力的生物或有機(jī)系統(tǒng),只要滿足“基于機(jī)器”的條件,均可能屬于人工智能系統(tǒng) [17] 。
2. 自主性(Autonomy)
人工智能系統(tǒng)的第二個(gè)要素是其需被設(shè)計(jì)為具有不同程度的自主性。《人工智能法案》序言第12段明確“不同程度的自主性”意味著人工智能系統(tǒng)被設(shè)計(jì)為具有一定程度的行動(dòng)獨(dú)立性,能夠在無需人工干預(yù)的情況下運(yùn)行 [18] 。自主性和推理能力密不可分,人工智能系統(tǒng)的推理能力是實(shí)現(xiàn)其自主性的關(guān)鍵 [19] 。具備一定程度的自主性是一個(gè)系統(tǒng)被認(rèn)定為人工智能系統(tǒng)的必要條件——完全依賴人工直接或間接手動(dòng)操作的系統(tǒng)則不屬于人工智能系統(tǒng) [20] 。所有被設(shè)計(jì)為操作具有一定程度的行動(dòng)獨(dú)立性的系統(tǒng)都滿足人工智能系統(tǒng)定義中對(duì)自主性的要求 [21] 。
3. 適應(yīng)性(Adaptiveness)
人工智能系統(tǒng)的第三個(gè)要素是其在部署后可能具備適應(yīng)性。《人工智能法案》序言第12段明確,適應(yīng)性指人工智能系統(tǒng)在部署后可能具備自我學(xué)習(xí)能力,使其行為能夠根據(jù)使用情況發(fā)生變化 [22] 。但“可能”一詞說明,適應(yīng)性并非構(gòu)成人工智能系統(tǒng)的必要條件,不具備適應(yīng)性的系統(tǒng)仍可能被認(rèn)定為人工智能系統(tǒng) [23] 。
4. 人工智能系統(tǒng)目標(biāo)(AI system objectives)
人工智能系統(tǒng)的第四個(gè)要素是其被設(shè)計(jì)為根據(jù)一個(gè)或多個(gè)目標(biāo)來運(yùn)行。這些目標(biāo)可分為顯性目標(biāo)和隱性目標(biāo):顯性目標(biāo)是指開發(fā)者直接編碼到系統(tǒng)中的明確目標(biāo),如優(yōu)化成本函數(shù)或累積獎(jiǎng)勵(lì);隱性目標(biāo)則是未明確定義但可從系統(tǒng)行為或訓(xùn)練數(shù)據(jù)中推導(dǎo)出的目標(biāo) [24] 。
AI System Guidelines特別區(qū)分了“系統(tǒng)目標(biāo)”與“預(yù)期用途”(intended purpose):前者是系統(tǒng)內(nèi)部要實(shí)現(xiàn)的功能性目標(biāo)(如高準(zhǔn)確率回答問題),后者則是系統(tǒng)在特定場(chǎng)景中的外部應(yīng)用目的(如輔助某部門完成特定任務(wù)) [25] 。
5. 使用人工智能技術(shù)推理出如何生成輸出(Inferencing how to generate outputs using AI techniques)
人工智能系統(tǒng)的第五個(gè)要素是其必須能夠通過輸入的信息推理出如何生成輸出,這是區(qū)分人工智能系統(tǒng)與其他系統(tǒng)的關(guān)鍵要素 [26] 。通過輸入的信息推理出如何生成輸出一方面指人工智能系統(tǒng)在“使用階段”基于輸入生成輸出的能力,另一方面指在系統(tǒng)的“構(gòu)建階段”通過相關(guān)人工智能技術(shù)實(shí)現(xiàn)推理,從而生成輸出結(jié)果。
《人工智能法案》序言第12段明確在構(gòu)建人工智能系統(tǒng)時(shí)實(shí)現(xiàn)推理的人工智能技術(shù)包括機(jī)器學(xué)習(xí)方法,這些方法通過從數(shù)據(jù)中學(xué)習(xí)來實(shí)現(xiàn)特定目標(biāo);以及基于邏輯和知識(shí)的方法,這些方法通過對(duì)任務(wù)的編碼知識(shí)或符號(hào)表示進(jìn)行推理來解決問題。
AI System Guidelines進(jìn)一步明確機(jī)器學(xué)習(xí)方法又分為:(1)監(jiān)督學(xué)習(xí)(supervised learning;利用標(biāo)記過的數(shù)據(jù)學(xué)習(xí);應(yīng)用包括垃圾郵件過濾系統(tǒng)、圖片分類系統(tǒng)、詐騙監(jiān)測(cè)系統(tǒng));(2)無監(jiān)督學(xué)習(xí)(unsupervised learning;利用無標(biāo)記數(shù)據(jù)自我學(xué)習(xí),應(yīng)用包括藥物發(fā)現(xiàn)、預(yù)測(cè)疾病的新型治療方案),其中又包括自監(jiān)督學(xué)習(xí)(self-supervised learning;AI在監(jiān)督下利用無標(biāo)記數(shù)據(jù)學(xué)習(xí),應(yīng)用包括語言模型預(yù)測(cè));(3)強(qiáng)化學(xué)習(xí)(reinforced learning;AI通過獎(jiǎng)勵(lì)機(jī)制從自身經(jīng)驗(yàn)收集的數(shù)據(jù)中學(xué)習(xí),應(yīng)用包括機(jī)器人控制、搜索引擎?zhèn)€性化推薦、自動(dòng)駕駛技術(shù));和(4)深度學(xué)習(xí)(deep learning;采用分層架構(gòu)(神經(jīng)網(wǎng)絡(luò))進(jìn)行學(xué)習(xí),能夠從大量原始數(shù)據(jù)中自動(dòng)學(xué)習(xí)特征) [27] 。
6. 系統(tǒng)輸出可影響物理或虛擬環(huán)境(Outputs that can influence physical or virtual environments)
人工智能系統(tǒng)的第六個(gè)要素是其能夠生成可影響物理或虛擬環(huán)境的輸出。這些輸出分為預(yù)測(cè)、內(nèi)容、推薦或決策這四大類型,其對(duì)人類介入的需求依次遞減,而對(duì)于物理或虛擬環(huán)境的影響程度依次遞增 [28] :
l 預(yù)測(cè):基于輸入數(shù)據(jù)估算未知量值,如自動(dòng)駕駛汽車對(duì)環(huán)境變化的實(shí)時(shí)預(yù)測(cè);
l 內(nèi)容:文本/圖像/視頻/音樂等創(chuàng)造性輸出;
l 推薦:個(gè)性化行動(dòng)/產(chǎn)品/服務(wù)推薦,也可轉(zhuǎn)化為決策;以及
l 決策:輸出結(jié)論或選擇,自動(dòng)化替代人類判斷(如自動(dòng)審批系統(tǒng))。
人工智能系統(tǒng)與非人工智能系統(tǒng)在生成預(yù)測(cè)、內(nèi)容、推薦和決策等輸出方面存在差異。由于人工智能系統(tǒng)能夠處理數(shù)據(jù)中的復(fù)雜關(guān)系和模式,其通常能夠生成比非人工智能系統(tǒng)更細(xì)致的輸出 [29] 。
7. 與環(huán)境互動(dòng)(Interaction with the environment)
人工智能系統(tǒng)的第七個(gè)要素是其輸出需能主動(dòng)影響物理環(huán)境或虛擬環(huán)境。這一要素強(qiáng)調(diào)人工智能系統(tǒng)不是被動(dòng)的,而是積極地影響其被部署的環(huán)境。“物理或虛擬環(huán)境”是指人工智能系統(tǒng)的影響既可以是有形的物理對(duì)象(例如機(jī)器人手臂),也可以是虛擬環(huán)境,包括數(shù)字空間、數(shù)據(jù)流和軟件生態(tài)系統(tǒng)。 [30]
(二) 不屬于人工智能系統(tǒng)的情形
AI System Guidelines明確以下系統(tǒng)不屬于“人工智能系統(tǒng)”:
1. 改進(jìn)數(shù)學(xué)優(yōu)化的系統(tǒng)(Systems for improving mathematical optimization) [31]
此類系統(tǒng)雖然具備一定推理能力,但未超出基本數(shù)據(jù)處理的范疇,例如:
l 通過機(jī)器學(xué)習(xí)加速傳統(tǒng)物理模擬的系統(tǒng)(如氣象預(yù)測(cè)模型);
l 衛(wèi)星通信中優(yōu)化帶寬分配的模型。
這些系統(tǒng)僅提升計(jì)算效率,不具備自主調(diào)整決策模型的智能能力。
2. 基本數(shù)據(jù)處理(Basic data processing) [32]
此類系統(tǒng)完全依賴預(yù)設(shè)規(guī)則,在整個(gè)生命周期無學(xué)習(xí)或推理能力,也未使用任何人工智能技術(shù),例如:
l 數(shù)據(jù)庫管理系統(tǒng)(如按條件篩選客戶數(shù)據(jù));
l 統(tǒng)計(jì)軟件(如銷售數(shù)據(jù)可視化工具)。
3. 基于經(jīng)典啟發(fā)式算法的系統(tǒng)(Systems based on classical heuristics) [33]
經(jīng)典的啟發(fā)式算法是一種問題解決技術(shù),它依賴于基于經(jīng)驗(yàn)的方法來有效地找到近似的解決方案。基于經(jīng)典啟發(fā)式算法的類系統(tǒng)采用預(yù)定義的規(guī)則系統(tǒng)或試錯(cuò)策略,依賴模式識(shí)別而非數(shù)據(jù)驅(qū)動(dòng)學(xué)習(xí),常適用于因時(shí)間或資源受限而無法找到精確解決方案的情形,例如國際象棋程序使用的極大極小(minimax)算法。
4. 簡(jiǎn)單預(yù)測(cè)系統(tǒng)(Simple prediction systems) [34]
此類系統(tǒng)僅通過基礎(chǔ)統(tǒng)計(jì)規(guī)則(如歷史平均值)生成預(yù)測(cè),例如:
l 股票價(jià)格基線預(yù)測(cè)(始終預(yù)測(cè)歷史平均價(jià));
l 商店日銷量預(yù)測(cè)(采用過去銷售均值)。
三、 《關(guān)于禁止的人工智能實(shí)踐指南》
《人工智能法案》采取了風(fēng)險(xiǎn)分級(jí)管理的監(jiān)管思路,將人工智能系統(tǒng)分為禁止的人工智能系統(tǒng)、高風(fēng)險(xiǎn)人工智能系統(tǒng)、有限風(fēng)險(xiǎn)人工智能系統(tǒng)和最小風(fēng)險(xiǎn)人工智能系統(tǒng)四個(gè)級(jí)別,分別施以不同的監(jiān)管要求(具體監(jiān)管要求詳見歐盟《人工智能法案》對(duì)中國企業(yè)出海的影響一文)。其中,禁止的人工智能系統(tǒng)因?qū)緳?quán)利及歐盟價(jià)值觀構(gòu)成不可接受風(fēng)險(xiǎn)而被禁止 [35] ,相關(guān)規(guī)定已于2025年2月2日起開始實(shí)施 [36] 。
《人工智能法案》規(guī)定,歐盟委員會(huì)應(yīng)制定關(guān)于禁止的人工智能實(shí)踐的實(shí)施指南 [37] 。2025年2月4日,歐盟委員會(huì)正式發(fā)布《關(guān)于禁止的人工智能實(shí)踐指南》(Guidelines on Prohibited Artificial Intelligence Practices,以下簡(jiǎn)稱“Prohibited AI Guidelines”),旨在進(jìn)一步解釋《人工智能法案》第5條關(guān)于禁止的人工智能系統(tǒng)的相關(guān)規(guī)定 [38] 。該指南不具有法律約束力,對(duì)禁止的人工智能實(shí)踐的最終解釋權(quán)仍歸歐盟法院(CJEU)。指南所載示例僅具指導(dǎo)性,《人工智能法案》第5條的適用需充分考慮具體情形,并遵循個(gè)案評(píng)估原則 [39] 。
(一) 整體適用
1. 禁止的人工智能系統(tǒng)總覽
《關(guān)于禁止的人工智能實(shí)踐指南》在《人工智能法案》第5條的基礎(chǔ)上,細(xì)化列舉了八類禁止的人工智能系統(tǒng),包括:(1)有害操縱和欺騙類(Harmful manipulation, and Deception);(2)對(duì)脆弱性的有害利用類(Harmful Exploitation of Vulnerabilities);(3)社會(huì)評(píng)分類(Social Scoring);(4)個(gè)人刑事犯罪風(fēng)險(xiǎn)評(píng)估和預(yù)測(cè)類(Individual Criminal Offence Risk Assessment and Prediction);(5)非定向抓取構(gòu)建人臉數(shù)據(jù)庫類(Untargeted Scraping to Develop Facial Recognition Databases);(6)情緒識(shí)別(Emotion Recognition);(7)生物特征分類(Biometric Categorisation);(8)實(shí)時(shí)遠(yuǎn)程生物識(shí)別類(Real-time Remote Biometric Identification) [40] 。我們將在下文展開逐一分析八種禁止的人工智能系統(tǒng)的具體含義,主要構(gòu)成要件等內(nèi)容。
2. 排除適用的情形
《人工智能法案》第2條規(guī)定了若干排除適用《人工智能法案》的情形。《關(guān)于禁止的人工智能實(shí)踐指南》對(duì)該等排除適用情形進(jìn)行了細(xì)化 [41] ,包括:
(1) 國家安全、國防和軍事目的
《人工智能法案》在任何情況下均不影響成員國在國家安全事務(wù)上的權(quán)限。如果人工智能系統(tǒng)是專門用于軍事、國防或國家安全目的而投放市場(chǎng)、投入使用的,則其不在《人工智能法案》的適用范圍內(nèi) [42] 。
(2) 與第三國進(jìn)行司法和執(zhí)法合作
對(duì)于第三國的公共機(jī)構(gòu)或國際組織在與歐盟或某個(gè)成員國進(jìn)行執(zhí)法和司法合作的過程中使用的人工智能系統(tǒng),若該等人工智能系統(tǒng)能夠?yàn)閭€(gè)人基本權(quán)利和自由提供足夠保障,則該人工智能系統(tǒng)不屬于《人工智能法案》的適用范圍 [43] 。
(3) 研發(fā)活動(dòng)
《人工智能法案》不適用于人工智能系統(tǒng)或模型在投放市場(chǎng)或投入服務(wù)之前的任何研究、測(cè)試或開發(fā)活動(dòng),亦不適用于專為科學(xué)研究和發(fā)展目的而開發(fā)和投入服務(wù)的人工智能系統(tǒng)或模型 [44] 。
(4) 個(gè)人非專業(yè)活動(dòng)
《人工智能法案》中針對(duì)部署者的義務(wù)不適用于個(gè)人在純粹個(gè)人非專業(yè)活動(dòng)中使用人工智能系統(tǒng)的情形。個(gè)人定期獲取經(jīng)濟(jì)利益或從事專業(yè)、商業(yè)、貿(mào)易、職業(yè)或自由職業(yè)的活動(dòng),均應(yīng)視為專業(yè)活動(dòng),因此不適用該項(xiàng)排除情形。該排除情形亦不適用于犯罪行為,因其不屬于純粹個(gè)人活動(dòng)范疇 [45] 。
(5) 開源許可下發(fā)布的人工智能系統(tǒng)
開源許可下的人工智能系統(tǒng)通常不受《人工智能法案》約束,但若該等系統(tǒng)構(gòu)成禁止的人工智能系統(tǒng),則不能適用此排除適用條款 [46] 。
(二) 禁止的人工智能系統(tǒng)具體介紹
1. 有害操縱和欺騙類及對(duì)脆弱性的有害利用類
(1) 含義及目的
被禁止的有害操縱和欺騙類人工智能系統(tǒng),是指部署超出個(gè)人意識(shí)范疇的潛意識(shí)技術(shù)或故意采用操縱性或欺騙性技術(shù)的人工智能系統(tǒng),其目的或效果在于扭曲行為,導(dǎo)致或可能合理導(dǎo)致重大傷害 [47] ;
對(duì)脆弱性的有害利用類系統(tǒng),是指利用因年齡、殘疾或特定社會(huì)經(jīng)濟(jì)處境導(dǎo)致的脆弱性的人工智能系統(tǒng),其目的或效果在于扭曲行為,導(dǎo)致或可能合理導(dǎo)致重大傷害 [48] ;
禁止上述兩類人工智能系統(tǒng),目的在于保護(hù)個(gè)人及弱勢(shì)群體免受人工智能的操縱和利用行為所造成的重大傷害(包括但不限于對(duì)個(gè)人自主權(quán)、決策能力和自由選擇權(quán)的傷害) [49] 。
(2) 主要構(gòu)成要件
有害操縱和欺騙類與對(duì)脆弱性的有害利用類人工智能系統(tǒng)的構(gòu)成要件較為類似,兩者的構(gòu)成要件一與構(gòu)成要件四一致,僅在構(gòu)成要件二和構(gòu)成要件三上有差異 [50] :
構(gòu)成要件一:人工智能系統(tǒng)被“投放市場(chǎng)”、“投入服務(wù)”或“使用”;
l “投放市場(chǎng)”是指首次在歐盟市場(chǎng)提供人工智能系統(tǒng)供使用,提供是指在商業(yè)活動(dòng)中為在歐盟市場(chǎng)銷售或使用而供應(yīng)系統(tǒng),無論是否收取費(fèi)用,也無論通過何種方式供應(yīng)系統(tǒng) [51] ;
l “投入服務(wù)”指向部署者首次提供人工智能系統(tǒng)供其使用,或在歐盟境內(nèi)用于自身預(yù)定目的,包括向第三方首次提供使用的情形,也涵蓋內(nèi)部開發(fā)及部署行為 [52] ;
l “使用”應(yīng)做廣義理解,涵蓋系統(tǒng)投放市場(chǎng)或投入服務(wù)后生命周期內(nèi)任何時(shí)點(diǎn)的使用或部署行為,也包括將人工智能系統(tǒng)整合至使用者的服務(wù)流程中(包括作為更復(fù)雜系統(tǒng)、流程及基礎(chǔ)設(shè)施組成部分的情形) [53] ;
構(gòu)成要件二:有害操縱和欺騙類人工智能系統(tǒng)必須使用超出個(gè)人意識(shí)范疇的潛意識(shí)技術(shù)或故意采用操縱性或欺騙性技術(shù);對(duì)脆弱性的有害利用類系統(tǒng)必須利用因年齡、殘疾或社會(huì)經(jīng)濟(jì)狀況產(chǎn)生的脆弱性 [54] ;
構(gòu)成要件三:人工智能系統(tǒng)所采用的技術(shù)應(yīng)以實(shí)質(zhì)性地扭曲個(gè)人或群體行為為目的或產(chǎn)生此類效果。此外,有害操縱和欺騙類系統(tǒng)額外要求這種影響必須顯著削弱個(gè)人或群體的知情決策能力,導(dǎo)致其作出原本不會(huì)作出的決定,對(duì)脆弱性的有害利用類系統(tǒng)則不需包括“顯著削弱知情決策能力”這一要求 [55] ;以及
構(gòu)成要件四:被扭曲的行為必須導(dǎo)致或可能合理導(dǎo)致對(duì)該個(gè)人、其他人或群體的重大傷害。同時(shí),所采用的技術(shù)對(duì)行為的實(shí)質(zhì)性影響與已造成或可能合理造成的重大損害之間需存在合理因果關(guān)系 [56] 。
(3) 排除范圍
根據(jù)《人工智能法》第5條第(1)款第(a)項(xiàng)和第(b)項(xiàng)的規(guī)定,要適用這些禁止性規(guī)定,必須滿足相關(guān)條款中列出的所有條件,所有不符合這些條件的其他人工智能系統(tǒng)均不在這些禁止性規(guī)定的適用范圍之內(nèi),以下是一些具體例子 [57] :
a) 采取合法說服技術(shù)的人工智能系統(tǒng)
采取合法說服技術(shù)的人工智能系統(tǒng)以透明的方式開展并尊重個(gè)人的自主權(quán),其涉及以一種既能訴諸理性又能觸動(dòng)情感的方式呈現(xiàn)論點(diǎn)或信息,同時(shí)解釋人工智能系統(tǒng)的目標(biāo)和運(yùn)作方式,提供相關(guān)且準(zhǔn)確的信息以確保決策的明智性,并支持個(gè)人對(duì)信息進(jìn)行評(píng)估并做出自由且自主的選擇 [58] 。
b) 不太可能造成重大傷害的操縱性、欺騙性及利用性人工智能系統(tǒng)
有害操縱和欺騙類系統(tǒng)以及對(duì)脆弱性的有害利用類系統(tǒng)禁止適用的核心前提是:人工智能系統(tǒng)的操縱及脆弱性剝削行為必須導(dǎo)致或可能合理導(dǎo)致重大損害。原則上,所有不具備顯著危害可能性的操縱性、欺騙性及剝削性人工智能應(yīng)用均不在此禁止范疇內(nèi),但不影響其他適用的歐盟法律的效力。
2. 社會(huì)評(píng)分類
(1) 含義和目標(biāo)
被禁止的社會(huì)評(píng)分類人工智能系統(tǒng)是指基于社會(huì)行為或個(gè)人或個(gè)性特征對(duì)個(gè)人或群體進(jìn)行評(píng)價(jià)或分類的人工智能系統(tǒng),當(dāng)數(shù)據(jù)來源于不相關(guān)社會(huì)情境或該等處理方式與社會(huì)行為不相稱或不合理時(shí),該等社會(huì)評(píng)分將導(dǎo)致對(duì)個(gè)人或群體的有害或不利待遇 [59] 。
實(shí)施社會(huì)評(píng)分的人工智能系統(tǒng)可能導(dǎo)致對(duì)特定個(gè)體和群體的歧視性、不公正對(duì)待,包括被排斥于社會(huì)之外,以及實(shí)施有違歐盟價(jià)值觀的社會(huì)控制與監(jiān)控行為。禁止社會(huì)評(píng)分類人工智能系統(tǒng)旨在保護(hù)人格尊嚴(yán)及其他基本權(quán)利(包括但不限于不受歧視的權(quán)利、平等權(quán)、數(shù)據(jù)保護(hù)權(quán)等) [60] 。
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場(chǎng)”、“投入服務(wù)”或“使用”;
b) 該人工智能系統(tǒng)必須旨在或用于在一定時(shí)期內(nèi)對(duì)個(gè)人或群體基于以下要素進(jìn)行評(píng)估或分類:
? 其社會(huì)行為;或
? 已知、推斷或預(yù)測(cè)的個(gè)人或個(gè)性特征;以及
c) 人工智能系統(tǒng)輔助生成的社會(huì)評(píng)分必須在以下一種或多種情形中導(dǎo)致或可能導(dǎo)致對(duì)個(gè)人或群體的有害或不利待遇:
? 在與數(shù)據(jù)最初生成或收集場(chǎng)景無關(guān)的社會(huì)情境中;
? 處理方式與其社會(huì)行為或其嚴(yán)重程度不相稱或不合理,處理方式與社會(huì)評(píng)分之間需有因果關(guān)系 [61] 。
需要注意的是,無論社會(huì)評(píng)分類人工智能系統(tǒng)由公共機(jī)構(gòu)還是私人實(shí)體提供或使用,只要符合以上構(gòu)成要件,都是被禁止的。 [62]
(3) 排除范圍
以下情形不屬于被禁止的社會(huì)評(píng)分場(chǎng)景:
a) 針對(duì)法律實(shí)體的社會(huì)評(píng)分,該等評(píng)分不基于個(gè)人的社會(huì)行為或個(gè)人或個(gè)性特征;
b) 用戶對(duì)服務(wù)質(zhì)量的個(gè)人評(píng)分;
c) 根據(jù)歐盟和成員國法律,為特定目的對(duì)自然人進(jìn)行的合法評(píng)估實(shí)踐,例如信用評(píng)分、風(fēng)險(xiǎn)評(píng)分、保險(xiǎn)核保、提升服務(wù)質(zhì)量和效率、優(yōu)化理賠流程、特定員工評(píng)估、欺詐防控和監(jiān)測(cè)、執(zhí)法,前提是使用該評(píng)分導(dǎo)致的任何有害或不利待遇均與社會(huì)行為嚴(yán)重程度相稱并具有正當(dāng)理由。 [63]
3. 個(gè)人刑事犯罪風(fēng)險(xiǎn)評(píng)估和預(yù)測(cè)類
(1) 含義和目標(biāo)
被禁止的個(gè)人刑事犯罪風(fēng)險(xiǎn)評(píng)估和預(yù)測(cè)類系統(tǒng)是指僅通過個(gè)人畫像或性格特征評(píng)估或預(yù)測(cè)個(gè)體犯罪風(fēng)險(xiǎn)的人工智能系統(tǒng),但不包括基于與犯罪活動(dòng)直接相關(guān)的客觀且可驗(yàn)證的事實(shí)對(duì)人工評(píng)估提供支持的人工智能系統(tǒng)(該等系統(tǒng)屬于高風(fēng)險(xiǎn)人工智能系統(tǒng)) [64] 。
該等禁止的理由是,個(gè)人應(yīng)根據(jù)其實(shí)際行為受到宣判,而非僅根據(jù)基于其個(gè)人畫像或性格特征的人工智能預(yù)測(cè)行為受到宣判 [65] 。
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場(chǎng)”、“投入服務(wù)”或“使用”;
b) 人工智能系統(tǒng)必須進(jìn)行風(fēng)險(xiǎn)評(píng)估,評(píng)估或預(yù)測(cè)個(gè)人實(shí)施刑事犯罪的風(fēng)險(xiǎn);以及
c) 風(fēng)險(xiǎn)評(píng)估或預(yù)測(cè)必須僅基于以下一項(xiàng)或兩項(xiàng)做出:
? 對(duì)個(gè)人的畫像;
? 對(duì)個(gè)人性格特征的評(píng)估。 [66]
(3) 排除范圍
以下情形不屬于被禁止的個(gè)人刑事犯罪風(fēng)險(xiǎn)評(píng)估和預(yù)測(cè)類人工智能系統(tǒng) [67] :
a) 基于地理位置、空間或場(chǎng)所的犯罪預(yù)測(cè)人工智能系統(tǒng)
基于地理位置、空間或場(chǎng)所的犯罪預(yù)測(cè),其依據(jù)是犯罪發(fā)生地點(diǎn)或特定區(qū)域內(nèi)的犯罪可能性。此類警務(wù)活動(dòng)原則上不涉及對(duì)特定個(gè)體的評(píng)估,故不屬于被禁止的范疇 [68] 。
b) 基于與客觀可驗(yàn)證的犯罪事實(shí)對(duì)人工評(píng)估提供支持的人工智能系統(tǒng)
當(dāng)人工智能系統(tǒng)用于支持人工評(píng)估個(gè)人是否參與犯罪活動(dòng)時(shí)(該評(píng)估本身已基于與犯罪活動(dòng)直接相關(guān)的客觀可驗(yàn)證事實(shí)而不僅基于對(duì)個(gè)人的畫像和/或?qū)€(gè)人性格特征的評(píng)估),該等系統(tǒng)不屬于被禁止的范疇 [69] 。
c) 用于法律實(shí)體犯罪預(yù)測(cè)與評(píng)估的人工智能系統(tǒng)
本條禁止僅適用于對(duì)于個(gè)人的刑事犯罪風(fēng)險(xiǎn)評(píng)估和預(yù)測(cè),因此通常不適用于對(duì)公司、非政府組織等法律實(shí)體進(jìn)行犯罪評(píng)估和預(yù)測(cè)的人工智能系統(tǒng) [70] 。
d) 用于個(gè)體行政違法行為預(yù)測(cè)的人工智能系統(tǒng)
本條禁止僅針對(duì)刑事犯罪預(yù)測(cè),原則上不涵蓋對(duì)個(gè)人基本權(quán)利和自由干預(yù)較少的行政違法行為的預(yù)測(cè)。
4. 非定向抓取構(gòu)建人臉數(shù)據(jù)庫類
(1) 含義和目標(biāo)
被禁止的非定向抓取構(gòu)建人臉數(shù)據(jù)庫類系統(tǒng),是指通過互聯(lián)網(wǎng)或閉路電視(“CCTV”)錄像非定向抓取人臉圖像來創(chuàng)建或擴(kuò)展人臉識(shí)別數(shù)據(jù)庫的人工智能系統(tǒng) [71] 。
從互聯(lián)網(wǎng)和CCTV錄像中非定向抓取人臉圖像嚴(yán)重侵害個(gè)人隱私與數(shù)據(jù)保護(hù)權(quán),并剝奪個(gè)人保持匿名的權(quán)利。該等行為會(huì)造成大規(guī)模監(jiān)控的壓迫感,并導(dǎo)致對(duì)隱私權(quán)等基本權(quán)利的嚴(yán)重侵犯,因此需禁止該類人工智能系統(tǒng) [72] 。
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場(chǎng)”、“投入服務(wù)”或“使用”;
b) 人工智能系統(tǒng)的目的在于創(chuàng)建或擴(kuò)充人臉識(shí)別數(shù)據(jù)庫;
c) 數(shù)據(jù)庫填充手段是通過人工智能工具進(jìn)行非定向抓取;以及
d) 圖像來源包括互聯(lián)網(wǎng)或CCTV錄像。 [73]
(3) 排除范圍
以下情形不適用于本條禁止:
a) 對(duì)非面部圖像的其他生物識(shí)別數(shù)據(jù)(如聲音樣本)的非定向抓取;
b) 未使用人工智能系統(tǒng)的抓取行為;或
c) 人臉數(shù)據(jù)庫不用于識(shí)別個(gè)人(如用于人工智能模型訓(xùn)練或測(cè)試且不涉及身份識(shí)別的人臉數(shù)據(jù)庫)。從互聯(lián)網(wǎng)采集大量面部圖像以構(gòu)建生成虛構(gòu)人物新圖像的人工智能系統(tǒng)也不適用于本條禁止,因?yàn)樵摰认到y(tǒng)不涉及識(shí)別真實(shí)的個(gè)人。 [74]
5. 情緒識(shí)別類
(1) 含義和目標(biāo)
被禁止的情緒識(shí)別類系統(tǒng)是指,在工作場(chǎng)所或教育機(jī)構(gòu)進(jìn)行情緒識(shí)別的人工智能系統(tǒng),但出于醫(yī)療或安全目的的情況除外 [75] 。
目前情緒識(shí)別技術(shù)發(fā)展迅速,且在商業(yè)領(lǐng)域、娛樂產(chǎn)業(yè)、公共安全維護(hù)等多領(lǐng)域均有應(yīng)用。但情緒識(shí)別技術(shù)的有效性與準(zhǔn)確性常受質(zhì)疑。情緒識(shí)別可能導(dǎo)致歧視性結(jié)果,并侵犯相關(guān)人員的權(quán)利與自由,特別是隱私權(quán)、人格尊嚴(yán)與思想自由權(quán)。這種風(fēng)險(xiǎn)在權(quán)力不對(duì)稱的關(guān)系中尤為突出,例如職場(chǎng)與教育機(jī)構(gòu)中的勞動(dòng)者和學(xué)生往往處于弱勢(shì)地位,因此需要禁止符合如下情形的情緒識(shí)別類人工智能系統(tǒng)。 [76]
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場(chǎng)”、“投入服務(wù)”或“使用”;
b) 該人工智能系統(tǒng)用于基于生物識(shí)別信息推斷(含識(shí)別,下同)情緒;
c) 適用于工作場(chǎng)所或教育機(jī)構(gòu)領(lǐng)域;以及
d) 出于醫(yī)療或安全目的的人工智能系統(tǒng)不在此禁止之列。 [77]
(3) 排除范圍
以下情形不適用于本條禁止 [78] :
a) 非基于生物識(shí)別數(shù)據(jù)推斷情緒和情感的人工智能系統(tǒng);
b) 推斷疼痛、疲勞等生理狀態(tài)的人工智能系統(tǒng)。
c) 工作場(chǎng)所和教育機(jī)構(gòu)之外其他領(lǐng)域;
d) 為維護(hù)公共秩序與活動(dòng)安全對(duì)群體行為進(jìn)行監(jiān)控管理的人群管控系統(tǒng)(Crowd Control),常見于大型集會(huì)如足球賽事、音樂會(huì)等或機(jī)場(chǎng)、車站等特定場(chǎng)所,該系統(tǒng)可在不推斷個(gè)體情緒的情況下運(yùn)作,例如分析場(chǎng)所整體聲量或氛圍水平;
e) 用于醫(yī)療領(lǐng)域的人工智能系統(tǒng),如護(hù)理機(jī)器人、醫(yī)務(wù)人員在工作場(chǎng)所診療時(shí)使用的情緒識(shí)別系統(tǒng)、緊急呼叫語音分析監(jiān)測(cè)器等。
6. 生物特征分類
(1) 含義和目標(biāo)
生物特征分類人工智能系統(tǒng),是指通過生物識(shí)別數(shù)據(jù)對(duì)人進(jìn)行分類的人工智能系統(tǒng),以推測(cè)或推斷種族、政治觀點(diǎn)、工會(huì)成員身份、宗教或哲學(xué)信仰、性生活或性取向;但不包括對(duì)依法獲取的生物識(shí)別數(shù)據(jù)集進(jìn)行標(biāo)記或篩選,包括在執(zhí)法領(lǐng)域 [79] 。
生物識(shí)別數(shù)據(jù)可能被用于提取、推測(cè)或推斷包括敏感信息在內(nèi)的多種信息(甚至無需當(dāng)事人知情),這可能導(dǎo)致不公正和歧視性待遇,例如因被判定屬于某一種族而拒絕提供服務(wù)。基于人工智能的生物特征分類系統(tǒng)若旨在將個(gè)人歸類至涉及性取向、政治傾向或種族等方面的特定群體,不僅侵犯?jìng)€(gè)人的尊嚴(yán),更對(duì)隱私權(quán)、不受歧視權(quán)等基本權(quán)利構(gòu)成重大風(fēng)險(xiǎn),因此需要禁止該類人工智能系統(tǒng) [80] 。
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場(chǎng)”、“投入服務(wù)”或“使用”;
b) 該系統(tǒng)必須是生物特征分類系統(tǒng)(生物特征分類系統(tǒng)是指基于個(gè)人生物識(shí)別數(shù)據(jù)將其劃分至特定類別的人工智能系統(tǒng),除非該系統(tǒng)附屬于另一項(xiàng)商業(yè)服務(wù)且因客觀技術(shù)原因確屬必要 [81] );
c) 必須對(duì)個(gè)人進(jìn)行分類;
d) 分類依據(jù)基于生物識(shí)別數(shù)據(jù);以及
e) 分類目的為推斷種族、政治觀點(diǎn)、工會(huì)成員身份、宗教或哲學(xué)信仰、性生活或性取向。 [82]
(3) 排除范圍
以下情形不適用于本條禁止 [83] :
a) 對(duì)合法獲取的生物識(shí)別數(shù)據(jù)集(如圖像)進(jìn)行標(biāo)注或篩選的人工智能系統(tǒng);
對(duì)生物識(shí)別數(shù)據(jù)集進(jìn)行標(biāo)注或篩選可能正是為了確保數(shù)據(jù)均衡代表所有人口群體,避免特定群體被過度代表。因此,基于某些受保護(hù)的敏感信息進(jìn)行標(biāo)注或篩選,可能是確保數(shù)據(jù)質(zhì)量、防止歧視的必要措施;或
b) 在執(zhí)法領(lǐng)域?qū)戏ǐ@取的數(shù)據(jù)集進(jìn)行標(biāo)注或篩選。
7. 實(shí)時(shí)遠(yuǎn)程生物識(shí)別類
(1) 含義和目標(biāo)
實(shí)時(shí)遠(yuǎn)程生物識(shí)別類系統(tǒng),是指在公共場(chǎng)所為執(zhí)法目的部署(僅針對(duì)部署者)實(shí)時(shí)遠(yuǎn)程生物識(shí)別的人工智能系統(tǒng),除非出于對(duì)特定受害者的針對(duì)性搜尋、預(yù)防特定威脅(包括恐怖襲擊)或搜尋特定犯罪嫌疑人的必要 [84] 。
正如《人工智能法案》序言部分所指出,公共場(chǎng)所實(shí)時(shí)遠(yuǎn)程生物識(shí)別系統(tǒng)具有高度侵入性,可能影響大部分人群的私生活、引發(fā)持續(xù)被監(jiān)控的感受,并間接阻礙集會(huì)自由等基本權(quán)利的行使。遠(yuǎn)程生物識(shí)別人工智能系統(tǒng)的技術(shù)缺陷可能導(dǎo)致結(jié)果偏差并產(chǎn)生歧視性影響,這種偏差在年齡、民族、種族、性別或殘疾方面尤為顯著。此外,此類實(shí)時(shí)系統(tǒng)影響的即時(shí)性及核查糾錯(cuò)機(jī)會(huì)的有限性,進(jìn)一步放大了執(zhí)法活動(dòng)對(duì)相關(guān)人員的權(quán)利和自由的風(fēng)險(xiǎn),因此需予以禁止。 [85]
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)為遠(yuǎn)程生物識(shí)別系統(tǒng)(指通過將個(gè)人生物識(shí)別數(shù)據(jù)與參考數(shù)據(jù)庫中的數(shù)據(jù)進(jìn)行比對(duì),在無需當(dāng)事人參與的情況下遠(yuǎn)距離完成識(shí)別個(gè)人的人工智能系統(tǒng));
b) 相關(guān)活動(dòng)涉及對(duì)該系統(tǒng)的“使用”,該禁令僅禁止基于執(zhí)法目的在公共場(chǎng)所使用實(shí)時(shí)遠(yuǎn)程生物識(shí)別系統(tǒng),此類系統(tǒng)的“投放市場(chǎng)”或“投入服務(wù)”不受禁止;
c) 采用“實(shí)時(shí)”方式,即對(duì)生物識(shí)別數(shù)據(jù)進(jìn)行“即時(shí)、近乎即時(shí)或在任何情況下無顯著延遲”的采集與處理;
d) 應(yīng)用于公共場(chǎng)所,公共場(chǎng)所指任何向不特定數(shù)量個(gè)人開放的公有或私有物理空間,無論是否設(shè)置準(zhǔn)入條件,亦不受潛在容量限制;以及
e) 服務(wù)于執(zhí)法目的,執(zhí)法目的包括對(duì)刑事犯罪的調(diào)查、偵查和起訴,在犯罪實(shí)際發(fā)生前預(yù)防刑事犯罪的活動(dòng),以及刑罰的執(zhí)行。 [86]
(3) 排除范圍
《人工智能法案》為實(shí)時(shí)遠(yuǎn)程生物識(shí)別類禁止明確了如下三類例外情形,但需注意的是,只有成員國國內(nèi)制定相關(guān)立法明確允許相關(guān)例外情形并滿足《人工智能法案》規(guī)定的條件和保障措施(《人工智能法案》第5條第2至7款),該等例外情形才可具體適用 [87] 。
a) 針對(duì)三類嚴(yán)重犯罪受害者及失蹤人員的搜尋
在符合嚴(yán)格必要性標(biāo)準(zhǔn)的情況下,允許為執(zhí)法目的在公共空間使用實(shí)時(shí)遠(yuǎn)程生物識(shí)別系統(tǒng),以針對(duì)性搜尋綁架、人口販賣或性剝削受害者,以及尋找失蹤人員 [88] 。
b) 預(yù)防迫在眉睫的生命威脅或恐怖襲擊
為預(yù)防對(duì)個(gè)人生命或人身安全具體、重大且迫近的威脅,或真實(shí)存在或可預(yù)見的恐怖襲擊威脅,可在符合嚴(yán)格必要標(biāo)準(zhǔn)的情況下,為執(zhí)法目的在公共空間使用實(shí)時(shí)遠(yuǎn)程生物識(shí)別系統(tǒng) [89] 。
c) 特定犯罪嫌疑人的定位與識(shí)別
為對(duì)《人工智能法案》附件二所列且在涉案成員國至少可判處四年監(jiān)禁或拘留的罪行進(jìn)行刑事調(diào)查、起訴或執(zhí)行刑事處罰之目的,對(duì)涉嫌實(shí)施刑事犯罪的人員進(jìn)行定位與識(shí)別時(shí),允許在公共場(chǎng)所實(shí)時(shí)使用實(shí)時(shí)遠(yuǎn)程生物識(shí)別系統(tǒng) [90] 。
(三) 處罰
《人工智能法案》根據(jù)違反嚴(yán)重程度,采用分級(jí)方式設(shè)定違反不同條款的處罰標(biāo)準(zhǔn)。違反禁止的人工智能系統(tǒng)的相關(guān)規(guī)定被視為最嚴(yán)重違規(guī)行為,將面臨最高罰款。從事被禁人工智能實(shí)踐的供應(yīng)商和部署者可能被處以最高3500萬歐元(約兩億九千萬元人民幣)罰款,若違規(guī)主體為企業(yè),則最高可處其上一年度全球營業(yè)額7%的罰款(以較高者為準(zhǔn))。 [91]
四、 其他立法和實(shí)施動(dòng)態(tài)
(一) 關(guān)于建立人工智能領(lǐng)域獨(dú)立專家科學(xué)小組的實(shí)施細(xì)則
《人工智能法案》規(guī)定應(yīng)設(shè)立獨(dú)立專家科學(xué)小組,為人工智能辦公室及各成員國市場(chǎng)監(jiān)督機(jī)構(gòu)提供法案實(shí)施與執(zhí)法方面的專業(yè)咨詢及協(xié)助 [92] 。2025年3月7日,《關(guān)于建立人工智能領(lǐng)域獨(dú)立專家科學(xué)小組的實(shí)施細(xì)則》正式發(fā)布。
人工智能領(lǐng)域獨(dú)立專家科學(xué)小組將專注于通用人工智能模型及系統(tǒng),主要職責(zé)包括:就系統(tǒng)性風(fēng)險(xiǎn)、模型分類、評(píng)估方法及跨境市場(chǎng)監(jiān)督等事項(xiàng)向歐盟人工智能辦公室及各成員國主管部門提供專業(yè)建議,并有權(quán)就新興風(fēng)險(xiǎn)向人工智能辦公室發(fā)出預(yù)警 [93] 。
(二) 通用目的人工智能模型相關(guān)規(guī)定
1. 《通用目的人工智能模型提供者義務(wù)范圍指南》
根據(jù)前述《人工智能法案》實(shí)施的時(shí)間線,《人工智能法案》對(duì)通用目的人工智能模型的相關(guān)要求于2025年8月2日生效。為進(jìn)一步解釋通用目的人工智能模型提供者的義務(wù)范圍,歐盟委員會(huì)于2025年7月18日發(fā)布了《通用目的人工智能模型提供者義務(wù)范圍指南》(Guidelines on the Scope of the Obligations for General-Purpose AI Models) [94] 。
該指南涵蓋四項(xiàng)主要內(nèi)容:(1)通用目的人工智能模型定義;(2)通用目的人工智能模型提供者的認(rèn)定;(3)開源通用目的人工智能模型提供者的義務(wù)豁免;(4)對(duì)通用目的人工智能模型提供者的合規(guī)要求 [95] 。
盡管該指南并不具有法律約束力,但該指南闡明了歐盟委員會(huì)對(duì)《人工智能法案》的解釋與適用標(biāo)準(zhǔn),且歐盟委員會(huì)將在此基礎(chǔ)上采取執(zhí)法行動(dòng) [96] 。
2. 《通用目的人工智能行為準(zhǔn)則》
2025年7月10日,歐洲人工智能辦公室發(fā)布了《通用目的人工智能行為準(zhǔn)則》(Code of Practice for General-Purpose AI Models),該準(zhǔn)則是一項(xiàng)自愿性工具,由獨(dú)立專家在利益相關(guān)方參與的流程中制定,旨在幫助行業(yè)遵守《人工智能法案》中針對(duì)通用人工智能模型供應(yīng)商的義務(wù),確保投放歐洲市場(chǎng)的通用人工智能模型是安全且透明的。
《通用目的人工智能行為準(zhǔn)則》包含三個(gè)獨(dú)立編制的章節(jié):《透明度》(Transparency)、《版權(quán)》(Copyright)以及《安全與保障》(Safety and Security)。其中,《透明度》與《版權(quán)》針對(duì)所有通用人工智能模型供應(yīng)商;《安全與保障》僅適用于數(shù)量有限的最先進(jìn)模型供應(yīng)商,這些供應(yīng)商需遵守《人工智能法案》中對(duì)具有系統(tǒng)性風(fēng)險(xiǎn)的通用人工智能模型供應(yīng)商規(guī)定的義務(wù)。 [97]
盡管《通用目的人工智能行為準(zhǔn)則》不具有法律約束力,通用人工智能模型供應(yīng)商仍可通過遵循該準(zhǔn)則以證明其符合通用人工智能模型供應(yīng)商的義務(wù) [98] 。
3. 通用目的人工智能模型問答
歐盟人工智能辦公室于2025年7月16日發(fā)布了通用目的人工智能模型問答,旨在促進(jìn)對(duì)《人工智能法案》部分條款的理解。該問答主要包括通用目的人工智能模型的概念、通用目的人工智能模型供應(yīng)商概念及義務(wù)、人工智能辦公室執(zhí)法權(quán)等相關(guān)內(nèi)容 [99] 。
結(jié)尾
歐盟《人工智能法案》生效后分階段實(shí)施,一方面法案下的義務(wù)在按照實(shí)施時(shí)間表逐步適用,另一方面歐盟委員會(huì)等機(jī)構(gòu)也在不斷發(fā)布配套指南對(duì)《人工智能法案》進(jìn)行解釋和澄清,幫助企業(yè)理解和遵守《人工智能法案》。
隨著歐盟《人工智能法案》相關(guān)配套指南的陸續(xù)發(fā)布,法案的監(jiān)管框架逐漸清晰,監(jiān)管部門的執(zhí)法與處罰也可能隨之而來。出海歐盟的中國企業(yè)需關(guān)注歐盟《人工智能法案》的關(guān)鍵實(shí)施節(jié)點(diǎn)及每個(gè)節(jié)點(diǎn)對(duì)應(yīng)的實(shí)施要求,并關(guān)注歐盟委員會(huì)等機(jī)構(gòu)發(fā)布的配套指南,充分理解歐盟《人工智能法案》的合規(guī)要求并提前準(zhǔn)備相應(yīng)的合規(guī)方案。
[1] Artificial Intelligence Act, Article 113
[2] Artificial Intelligence Act, Article 113
[3] Artificial Intelligence Act, Article 113 (a) and Recital 179
[4] Artificial Intelligence Act, Article 113 (b)
[5] Artificial Intelligence Act, Article 113
[6] Artificial Intelligence Act, Article 111 (2)
[7] Artificial Intelligence Act, Article 113
[8] Artificial Intelligence Act, Article 111 (3)
[9] Artificial Intelligence Act, Article 111 (2)
[10] Artificial Intelligence Act, Article 111 (1)
[11] Artificial Intelligence Act, Article 3 (1)
[12] Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act); https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application
[13] AI System Guidelines, Sections 5, 7
[14] AI System Guidelines, Section 6
[15] AI System Guidelines, Section 11
[16] AI System Guidelines, Section 12
[17] AI System Guidelines, Section 13
[18] AI System Guidelines, Section 14
[19] AI System Guidelines, Section 15
[20] AI System Guidelines, Section 17
[21] AI System Guidelines, Section 20
[22] AI System Guidelines, Section 22
[23] AI System Guidelines, Section 23
[24] AI System Guidelines, Section 24
[25] AI System Guidelines, Section 25
[26] AI System Guidelines, Section 26
[27] AI System Guidelines, Section 32
[28] AI System Guidelines, Sections 52-58
[29] AI System Guidelines, Section 59
[30] AI System Guidelines, Section 60
[31] AI System Guidelines, Sections 42-45
[32] AI System Guidelines, Sections 46-47
[33] AI System Guidelines, Section 48
[34] AI System Guidelines, Sections 49-51
[35] Artificial Intelligence Act, Article 5
[36] Artificial Intelligence Act, Article 113 (a)
[37] Artificial Intelligence Act, Article 96 (1)(b)
[38] Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act
[39] Prohibited AI Guidelines, Background and Objectives
[40] Prohibited AI Guidelines, 2.1
[41] Prohibited AI Guidelines, 2.5
[42] Prohibited AI Guidelines, 2.5.1
[43] Prohibited AI Guidelines, 2.5.2
[44] Prohibited AI Guidelines, 2.5.3
[45] Prohibited AI Guidelines, 2.5.4
[46] Prohibited AI Guidelines, 2.5.5
[47] Prohibited AI Guidelines, 2.1
[48] Prohibited AI Guidelines, 2.1
[49] Prohibited AI Guidelines, 3 (58), 3.1
[50] Prohibited AI Guidelines, 3.2, 3.3
[51] Artificial Intelligence Act, Article 3 (9); Prohibited AI Guidelines, 2.3 (12)
[52] Artificial Intelligence Act, Article 3 (11) ; Prohibited AI Guidelines, 2.3 (13)
[53] Prohibited AI Guidelines, 2.3 (14)
[54] Prohibited AI Guidelines, 3.2.1 and 3.3.1
[55] Prohibited AI Guidelines, 3.2.2 and 3.3.2
[56] Prohibited AI Guidelines, 3.2.3 and 3.3.3
[57] Prohibited AI Guidelines, 3.5
[58] Prohibited AI Guidelines, 3.5
[59] Prohibited AI Guidelines, 2.1
[60] Prohibited AI Guidelines, 4.1
[61] Prohibited AI Guidelines, 4.2
[62] Prohibited AI Guidelines, 4.2.3
[63] Prohibited AI Guidelines, 4.3
[64] Prohibited AI Guidelines, 2.1
[65] Prohibited AI Guidelines, 5.1
[66] Prohibited AI Guidelines, 5.2
[67] Prohibited AI Guidelines, 5.3.4
[68] Prohibited AI Guidelines, 5.3.1
[69] Prohibited AI Guidelines, 5.3.2
[70] Prohibited AI Guidelines, 5.3.3
[71] Prohibited AI Guidelines, 2.1
[72] Prohibited AI Guidelines, 6.1
[73] Prohibited AI Guidelines, 6.2
[74] Prohibited AI Guidelines, 6.3
[75] Prohibited AI Guidelines, 2.1
[76] Prohibited AI Guidelines, 7.1
[77] Prohibited AI Guidelines, 7.2
[78] Prohibited AI Guidelines, 7.4
[79] Prohibited AI Guidelines, 2.1
[80] Prohibited AI Guidelines, 8.1
[81] Artificial Intelligence Act, Article 3 (40)
[82] Prohibited AI Guidelines, 8.2
[83] Prohibited AI Guidelines, 8.3
[84] Prohibited AI Guidelines, 2.1
[85] Artificial Intelligence Act, Recital 32; Prohibited AI Guidelines, 9.1
[86] Prohibited AI Guidelines, 9.2
[87] Prohibited AI Guidelines, 9.3
[88] Prohibited AI Guidelines, 9.3.2
[89] Prohibited AI Guidelines, 9.3.3
[90] Prohibited AI Guidelines, 9.3.4
[91] Artificial Intelligence Act, Article 99
[92] Artificial Intelligence Act, Article 68
[93] https://artificialintelligenceact.eu/scientific-panel/
[94] https://digital-strategy.ec.europa.eu/en/library/guidelines-scope-obligations-providers-general-purpose-ai-models-under-ai-act
[95] Guidelines on the scope of the obligations for general-purpose AI models, 1. Background and objectives of the Commission guidelines (8)
[96] Guidelines on the scope of the obligations for general-purpose AI models, 1. Background and objectives of the Commission guidelines (9)
[97] https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai
[98] https://artificialintelligenceact.eu/introduction-to-code-of-practice/; https://digital-strategy.ec.europa.eu/en/library/commission-opinion-assessment-general-purpose-ai-code-practice
[99] https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers
中國律師身份核驗(yàn)登錄




