前言
作為全球首部全面規(guī)范人工智能技術(shù)的綜合性立法,歐盟《人工智能法案》(Artificial Intelligence Act)自2024年8月1日起生效并分階段實施。
法案生效一年來,歐盟委員會及相關(guān)機構(gòu)陸續(xù)發(fā)布了一系列配套文件,包括法案實施時間表、《關(guān)于人工智能系統(tǒng)定義的指南》、《關(guān)于禁止的人工智能實踐指南》以及《通用目的人工智能模型提供者義務(wù)范圍指南》等,以更好推動法案的實施與落地。
本文旨在系統(tǒng)梳理歐盟《人工智能法案》的最新實施動態(tài),并介紹關(guān)鍵指南文件的核心內(nèi)容。通過分析法案的落地進(jìn)程,我們希望幫助企業(yè)更好地把握歐盟人工智能監(jiān)管方向和實施要求。
一、 歐盟《人工智能法案》實施時間表
| 生效時間 |
條款內(nèi)容 |
| 2024年7月12日 |
《人工智能法案》發(fā)布于《歐盟官方公報》,此為該法案的正式通告 [1] 。 |
| 2024年8月1日 |
《人工智能法案》生效,此階段法案所有具體要求均未適用——相關(guān)要求將逐步適用 [2] 。 |
| 2025年2月2日 |
人工智能一般條款和禁止的人工智能實踐規(guī)定開始適用(第一章與第二章) [3] 。 |
| 2025年8月2日 |
《人工智能法案》的如下規(guī)定開始適用: (1) 通知機構(gòu)(第三章第四節(jié)); (2) 通用目的人工智能模型(第五章); (3) 治理(第七章); (4) 保密(第78條); (5) 處罰(第99和第100條) [4] 。 |
| 2026年8月2日 |
《人工智能法案》剩余條款開始適用,第6條(高風(fēng)險人工智能系統(tǒng)的分類規(guī)則)第1款除外 [5] 。 |
| 《人工智能法案》開始適用于在2026年8月2日前已投放市場或投入服務(wù)的高風(fēng)險人工智能系統(tǒng)(作為大型IT系統(tǒng)組件的人工智能系統(tǒng)除外)的運營者,但前提是相關(guān)系統(tǒng)自2026年8月2日起設(shè)計發(fā)生重大變更 [6] 。 |
|
| 2027年8月2日 |
第6條(高風(fēng)險人工智能系統(tǒng)的分類規(guī)則)第1款及相關(guān)義務(wù)開始適用 [7] 。 |
| 2025年8月2日前投放市場的通用目的人工智能模型提供者,須在2027年8月2日前采取必要措施以遵守《人工智能法案》的要求 [8] 。 |
|
| 2030年8月2日 |
供公共部門使用的高風(fēng)險人工智能系統(tǒng)的提供者與部署者,須在2030年8月2日前采取必要措施符合《人工智能法案》的要求 [9] 。 |
| 2030年12月31日 |
作為大型IT系統(tǒng)組件的人工智能系統(tǒng),若在2027年8月2日前已投放市場或投入服務(wù),須在2030年12月31日前符合《人工智能法案》的要求 [10] 。 |
二、 關(guān)于人工智能系統(tǒng)定義的指南
《人工智能法案》適用于人工智能系統(tǒng),該法案對人工智能系統(tǒng)的定義為:被設(shè)計用于以不同程度的自主性運行,并可能在部署后表現(xiàn)出適應(yīng)性的機器系統(tǒng),且為了明確或隱含的目標(biāo),根據(jù)其接收的輸入推斷如何生成可以影響物理或虛擬環(huán)境的輸出,如預(yù)測、內(nèi)容、推薦或決策 [11] 。
2025年2月6日,歐盟委員會發(fā)布了《關(guān)于人工智能系統(tǒng)定義的指南》 [12] (Guidelines on the definition of an artificial intelligence system,以下簡稱“AI System Guidelines”),旨在為《人工智能法案》中人工智能系統(tǒng)的定義提供解釋和指導(dǎo)。該指南由歐盟委員會制定,參考了利益相關(guān)者咨詢和歐洲人工智能委員會的反饋意見,但其性質(zhì)為非約束性文件,對人工智能系統(tǒng)的最終解釋權(quán)仍歸歐盟法院(CJEU) [13] 。
AI System Guidelines的主要內(nèi)容包括人工智能系統(tǒng)的構(gòu)成要素,以及明確不屬于人工智能系統(tǒng)的情形,以幫助相關(guān)方判斷其系統(tǒng)是否屬于《人工智能法案》的監(jiān)管范圍。鑒于人工智能技術(shù)的快速發(fā)展,AI System Guidelines強調(diào),無法窮盡列舉所有可能的人工智能系統(tǒng),在明確定義“人工智能系統(tǒng)”概念的同時,需結(jié)合每個系統(tǒng)的具體特性進(jìn)行分析和判斷,避免機械套用定義 [14] 。
(一) 人工智能系統(tǒng)的要素
AI System Guidelines圍繞《人工智能法案》第3條第1款對“人工智能系統(tǒng)”的定義展開,詳細(xì)闡述了人工智能系統(tǒng)定義的以下七個核心要素:
1. 基于機器的系統(tǒng)(Machine-based system)
人工智能系統(tǒng)的第一個要素是其屬于“基于機器的系統(tǒng)”。“基于機器的系統(tǒng)”是指人工智能系統(tǒng)由硬件和軟件組成的機器開發(fā)并在機器運行。硬件包括處理器、內(nèi)存、存儲設(shè)備、聯(lián)網(wǎng)單元、輸入/輸出接口等機器的物理組件,用于提供計算的基礎(chǔ)設(shè)施;軟件則涵蓋計算機代碼、指令、程序、操作系統(tǒng)和應(yīng)用程序,負(fù)責(zé)處理硬件如何處理數(shù)據(jù)并執(zhí)行任務(wù) [15] 。所有人工智能系統(tǒng)都是基于機器的,因為需要機器來實現(xiàn)其功能,先進(jìn)人工智能系統(tǒng)的整個生命周期都依賴于機器 [16] 。無論是傳統(tǒng)計算機、量子計算系統(tǒng),還是具有計算能力的生物或有機系統(tǒng),只要滿足“基于機器”的條件,均可能屬于人工智能系統(tǒng) [17] 。
2. 自主性(Autonomy)
人工智能系統(tǒng)的第二個要素是其需被設(shè)計為具有不同程度的自主性。《人工智能法案》序言第12段明確“不同程度的自主性”意味著人工智能系統(tǒng)被設(shè)計為具有一定程度的行動獨立性,能夠在無需人工干預(yù)的情況下運行 [18] 。自主性和推理能力密不可分,人工智能系統(tǒng)的推理能力是實現(xiàn)其自主性的關(guān)鍵 [19] 。具備一定程度的自主性是一個系統(tǒng)被認(rèn)定為人工智能系統(tǒng)的必要條件——完全依賴人工直接或間接手動操作的系統(tǒng)則不屬于人工智能系統(tǒng) [20] 。所有被設(shè)計為操作具有一定程度的行動獨立性的系統(tǒng)都滿足人工智能系統(tǒng)定義中對自主性的要求 [21] 。
3. 適應(yīng)性(Adaptiveness)
人工智能系統(tǒng)的第三個要素是其在部署后可能具備適應(yīng)性。《人工智能法案》序言第12段明確,適應(yīng)性指人工智能系統(tǒng)在部署后可能具備自我學(xué)習(xí)能力,使其行為能夠根據(jù)使用情況發(fā)生變化 [22] 。但“可能”一詞說明,適應(yīng)性并非構(gòu)成人工智能系統(tǒng)的必要條件,不具備適應(yīng)性的系統(tǒng)仍可能被認(rèn)定為人工智能系統(tǒng) [23] 。
4. 人工智能系統(tǒng)目標(biāo)(AI system objectives)
人工智能系統(tǒng)的第四個要素是其被設(shè)計為根據(jù)一個或多個目標(biāo)來運行。這些目標(biāo)可分為顯性目標(biāo)和隱性目標(biāo):顯性目標(biāo)是指開發(fā)者直接編碼到系統(tǒng)中的明確目標(biāo),如優(yōu)化成本函數(shù)或累積獎勵;隱性目標(biāo)則是未明確定義但可從系統(tǒng)行為或訓(xùn)練數(shù)據(jù)中推導(dǎo)出的目標(biāo) [24] 。
AI System Guidelines特別區(qū)分了“系統(tǒng)目標(biāo)”與“預(yù)期用途”(intended purpose):前者是系統(tǒng)內(nèi)部要實現(xiàn)的功能性目標(biāo)(如高準(zhǔn)確率回答問題),后者則是系統(tǒng)在特定場景中的外部應(yīng)用目的(如輔助某部門完成特定任務(wù)) [25] 。
5. 使用人工智能技術(shù)推理出如何生成輸出(Inferencing how to generate outputs using AI techniques)
人工智能系統(tǒng)的第五個要素是其必須能夠通過輸入的信息推理出如何生成輸出,這是區(qū)分人工智能系統(tǒng)與其他系統(tǒng)的關(guān)鍵要素 [26] 。通過輸入的信息推理出如何生成輸出一方面指人工智能系統(tǒng)在“使用階段”基于輸入生成輸出的能力,另一方面指在系統(tǒng)的“構(gòu)建階段”通過相關(guān)人工智能技術(shù)實現(xiàn)推理,從而生成輸出結(jié)果。
《人工智能法案》序言第12段明確在構(gòu)建人工智能系統(tǒng)時實現(xiàn)推理的人工智能技術(shù)包括機器學(xué)習(xí)方法,這些方法通過從數(shù)據(jù)中學(xué)習(xí)來實現(xiàn)特定目標(biāo);以及基于邏輯和知識的方法,這些方法通過對任務(wù)的編碼知識或符號表示進(jìn)行推理來解決問題。
AI System Guidelines進(jìn)一步明確機器學(xué)習(xí)方法又分為:(1)監(jiān)督學(xué)習(xí)(supervised learning;利用標(biāo)記過的數(shù)據(jù)學(xué)習(xí);應(yīng)用包括垃圾郵件過濾系統(tǒng)、圖片分類系統(tǒng)、詐騙監(jiān)測系統(tǒng));(2)無監(jiān)督學(xué)習(xí)(unsupervised learning;利用無標(biāo)記數(shù)據(jù)自我學(xué)習(xí),應(yīng)用包括藥物發(fā)現(xiàn)、預(yù)測疾病的新型治療方案),其中又包括自監(jiān)督學(xué)習(xí)(self-supervised learning;AI在監(jiān)督下利用無標(biāo)記數(shù)據(jù)學(xué)習(xí),應(yīng)用包括語言模型預(yù)測);(3)強化學(xué)習(xí)(reinforced learning;AI通過獎勵機制從自身經(jīng)驗收集的數(shù)據(jù)中學(xué)習(xí),應(yīng)用包括機器人控制、搜索引擎?zhèn)€性化推薦、自動駕駛技術(shù));和(4)深度學(xué)習(xí)(deep learning;采用分層架構(gòu)(神經(jīng)網(wǎng)絡(luò))進(jìn)行學(xué)習(xí),能夠從大量原始數(shù)據(jù)中自動學(xué)習(xí)特征) [27] 。
6. 系統(tǒng)輸出可影響物理或虛擬環(huán)境(Outputs that can influence physical or virtual environments)
人工智能系統(tǒng)的第六個要素是其能夠生成可影響物理或虛擬環(huán)境的輸出。這些輸出分為預(yù)測、內(nèi)容、推薦或決策這四大類型,其對人類介入的需求依次遞減,而對于物理或虛擬環(huán)境的影響程度依次遞增 [28] :
l 預(yù)測:基于輸入數(shù)據(jù)估算未知量值,如自動駕駛汽車對環(huán)境變化的實時預(yù)測;
l 內(nèi)容:文本/圖像/視頻/音樂等創(chuàng)造性輸出;
l 推薦:個性化行動/產(chǎn)品/服務(wù)推薦,也可轉(zhuǎn)化為決策;以及
l 決策:輸出結(jié)論或選擇,自動化替代人類判斷(如自動審批系統(tǒng))。
人工智能系統(tǒng)與非人工智能系統(tǒng)在生成預(yù)測、內(nèi)容、推薦和決策等輸出方面存在差異。由于人工智能系統(tǒng)能夠處理數(shù)據(jù)中的復(fù)雜關(guān)系和模式,其通常能夠生成比非人工智能系統(tǒng)更細(xì)致的輸出 [29] 。
7. 與環(huán)境互動(Interaction with the environment)
人工智能系統(tǒng)的第七個要素是其輸出需能主動影響物理環(huán)境或虛擬環(huán)境。這一要素強調(diào)人工智能系統(tǒng)不是被動的,而是積極地影響其被部署的環(huán)境。“物理或虛擬環(huán)境”是指人工智能系統(tǒng)的影響既可以是有形的物理對象(例如機器人手臂),也可以是虛擬環(huán)境,包括數(shù)字空間、數(shù)據(jù)流和軟件生態(tài)系統(tǒng)。 [30]
(二) 不屬于人工智能系統(tǒng)的情形
AI System Guidelines明確以下系統(tǒng)不屬于“人工智能系統(tǒng)”:
1. 改進(jìn)數(shù)學(xué)優(yōu)化的系統(tǒng)(Systems for improving mathematical optimization) [31]
此類系統(tǒng)雖然具備一定推理能力,但未超出基本數(shù)據(jù)處理的范疇,例如:
l 通過機器學(xué)習(xí)加速傳統(tǒng)物理模擬的系統(tǒng)(如氣象預(yù)測模型);
l 衛(wèi)星通信中優(yōu)化帶寬分配的模型。
這些系統(tǒng)僅提升計算效率,不具備自主調(diào)整決策模型的智能能力。
2. 基本數(shù)據(jù)處理(Basic data processing) [32]
此類系統(tǒng)完全依賴預(yù)設(shè)規(guī)則,在整個生命周期無學(xué)習(xí)或推理能力,也未使用任何人工智能技術(shù),例如:
l 數(shù)據(jù)庫管理系統(tǒng)(如按條件篩選客戶數(shù)據(jù));
l 統(tǒng)計軟件(如銷售數(shù)據(jù)可視化工具)。
3. 基于經(jīng)典啟發(fā)式算法的系統(tǒng)(Systems based on classical heuristics) [33]
經(jīng)典的啟發(fā)式算法是一種問題解決技術(shù),它依賴于基于經(jīng)驗的方法來有效地找到近似的解決方案。基于經(jīng)典啟發(fā)式算法的類系統(tǒng)采用預(yù)定義的規(guī)則系統(tǒng)或試錯策略,依賴模式識別而非數(shù)據(jù)驅(qū)動學(xué)習(xí),常適用于因時間或資源受限而無法找到精確解決方案的情形,例如國際象棋程序使用的極大極小(minimax)算法。
4. 簡單預(yù)測系統(tǒng)(Simple prediction systems) [34]
此類系統(tǒng)僅通過基礎(chǔ)統(tǒng)計規(guī)則(如歷史平均值)生成預(yù)測,例如:
l 股票價格基線預(yù)測(始終預(yù)測歷史平均價);
l 商店日銷量預(yù)測(采用過去銷售均值)。
三、 《關(guān)于禁止的人工智能實踐指南》
《人工智能法案》采取了風(fēng)險分級管理的監(jiān)管思路,將人工智能系統(tǒng)分為禁止的人工智能系統(tǒng)、高風(fēng)險人工智能系統(tǒng)、有限風(fēng)險人工智能系統(tǒng)和最小風(fēng)險人工智能系統(tǒng)四個級別,分別施以不同的監(jiān)管要求(具體監(jiān)管要求詳見歐盟《人工智能法案》對中國企業(yè)出海的影響一文)。其中,禁止的人工智能系統(tǒng)因?qū)緳?quán)利及歐盟價值觀構(gòu)成不可接受風(fēng)險而被禁止 [35] ,相關(guān)規(guī)定已于2025年2月2日起開始實施 [36] 。
《人工智能法案》規(guī)定,歐盟委員會應(yīng)制定關(guān)于禁止的人工智能實踐的實施指南 [37] 。2025年2月4日,歐盟委員會正式發(fā)布《關(guān)于禁止的人工智能實踐指南》(Guidelines on Prohibited Artificial Intelligence Practices,以下簡稱“Prohibited AI Guidelines”),旨在進(jìn)一步解釋《人工智能法案》第5條關(guān)于禁止的人工智能系統(tǒng)的相關(guān)規(guī)定 [38] 。該指南不具有法律約束力,對禁止的人工智能實踐的最終解釋權(quán)仍歸歐盟法院(CJEU)。指南所載示例僅具指導(dǎo)性,《人工智能法案》第5條的適用需充分考慮具體情形,并遵循個案評估原則 [39] 。
(一) 整體適用
1. 禁止的人工智能系統(tǒng)總覽
《關(guān)于禁止的人工智能實踐指南》在《人工智能法案》第5條的基礎(chǔ)上,細(xì)化列舉了八類禁止的人工智能系統(tǒng),包括:(1)有害操縱和欺騙類(Harmful manipulation, and Deception);(2)對脆弱性的有害利用類(Harmful Exploitation of Vulnerabilities);(3)社會評分類(Social Scoring);(4)個人刑事犯罪風(fēng)險評估和預(yù)測類(Individual Criminal Offence Risk Assessment and Prediction);(5)非定向抓取構(gòu)建人臉數(shù)據(jù)庫類(Untargeted Scraping to Develop Facial Recognition Databases);(6)情緒識別(Emotion Recognition);(7)生物特征分類(Biometric Categorisation);(8)實時遠(yuǎn)程生物識別類(Real-time Remote Biometric Identification) [40] 。我們將在下文展開逐一分析八種禁止的人工智能系統(tǒng)的具體含義,主要構(gòu)成要件等內(nèi)容。
2. 排除適用的情形
《人工智能法案》第2條規(guī)定了若干排除適用《人工智能法案》的情形。《關(guān)于禁止的人工智能實踐指南》對該等排除適用情形進(jìn)行了細(xì)化 [41] ,包括:
(1) 國家安全、國防和軍事目的
《人工智能法案》在任何情況下均不影響成員國在國家安全事務(wù)上的權(quán)限。如果人工智能系統(tǒng)是專門用于軍事、國防或國家安全目的而投放市場、投入使用的,則其不在《人工智能法案》的適用范圍內(nèi) [42] 。
(2) 與第三國進(jìn)行司法和執(zhí)法合作
對于第三國的公共機構(gòu)或國際組織在與歐盟或某個成員國進(jìn)行執(zhí)法和司法合作的過程中使用的人工智能系統(tǒng),若該等人工智能系統(tǒng)能夠為個人基本權(quán)利和自由提供足夠保障,則該人工智能系統(tǒng)不屬于《人工智能法案》的適用范圍 [43] 。
(3) 研發(fā)活動
《人工智能法案》不適用于人工智能系統(tǒng)或模型在投放市場或投入服務(wù)之前的任何研究、測試或開發(fā)活動,亦不適用于專為科學(xué)研究和發(fā)展目的而開發(fā)和投入服務(wù)的人工智能系統(tǒng)或模型 [44] 。
(4) 個人非專業(yè)活動
《人工智能法案》中針對部署者的義務(wù)不適用于個人在純粹個人非專業(yè)活動中使用人工智能系統(tǒng)的情形。個人定期獲取經(jīng)濟利益或從事專業(yè)、商業(yè)、貿(mào)易、職業(yè)或自由職業(yè)的活動,均應(yīng)視為專業(yè)活動,因此不適用該項排除情形。該排除情形亦不適用于犯罪行為,因其不屬于純粹個人活動范疇 [45] 。
(5) 開源許可下發(fā)布的人工智能系統(tǒng)
開源許可下的人工智能系統(tǒng)通常不受《人工智能法案》約束,但若該等系統(tǒng)構(gòu)成禁止的人工智能系統(tǒng),則不能適用此排除適用條款 [46] 。
(二) 禁止的人工智能系統(tǒng)具體介紹
1. 有害操縱和欺騙類及對脆弱性的有害利用類
(1) 含義及目的
被禁止的有害操縱和欺騙類人工智能系統(tǒng),是指部署超出個人意識范疇的潛意識技術(shù)或故意采用操縱性或欺騙性技術(shù)的人工智能系統(tǒng),其目的或效果在于扭曲行為,導(dǎo)致或可能合理導(dǎo)致重大傷害 [47] ;
對脆弱性的有害利用類系統(tǒng),是指利用因年齡、殘疾或特定社會經(jīng)濟處境導(dǎo)致的脆弱性的人工智能系統(tǒng),其目的或效果在于扭曲行為,導(dǎo)致或可能合理導(dǎo)致重大傷害 [48] ;
禁止上述兩類人工智能系統(tǒng),目的在于保護(hù)個人及弱勢群體免受人工智能的操縱和利用行為所造成的重大傷害(包括但不限于對個人自主權(quán)、決策能力和自由選擇權(quán)的傷害) [49] 。
(2) 主要構(gòu)成要件
有害操縱和欺騙類與對脆弱性的有害利用類人工智能系統(tǒng)的構(gòu)成要件較為類似,兩者的構(gòu)成要件一與構(gòu)成要件四一致,僅在構(gòu)成要件二和構(gòu)成要件三上有差異 [50] :
構(gòu)成要件一:人工智能系統(tǒng)被“投放市場”、“投入服務(wù)”或“使用”;
l “投放市場”是指首次在歐盟市場提供人工智能系統(tǒng)供使用,提供是指在商業(yè)活動中為在歐盟市場銷售或使用而供應(yīng)系統(tǒng),無論是否收取費用,也無論通過何種方式供應(yīng)系統(tǒng) [51] ;
l “投入服務(wù)”指向部署者首次提供人工智能系統(tǒng)供其使用,或在歐盟境內(nèi)用于自身預(yù)定目的,包括向第三方首次提供使用的情形,也涵蓋內(nèi)部開發(fā)及部署行為 [52] ;
l “使用”應(yīng)做廣義理解,涵蓋系統(tǒng)投放市場或投入服務(wù)后生命周期內(nèi)任何時點的使用或部署行為,也包括將人工智能系統(tǒng)整合至使用者的服務(wù)流程中(包括作為更復(fù)雜系統(tǒng)、流程及基礎(chǔ)設(shè)施組成部分的情形) [53] ;
構(gòu)成要件二:有害操縱和欺騙類人工智能系統(tǒng)必須使用超出個人意識范疇的潛意識技術(shù)或故意采用操縱性或欺騙性技術(shù);對脆弱性的有害利用類系統(tǒng)必須利用因年齡、殘疾或社會經(jīng)濟狀況產(chǎn)生的脆弱性 [54] ;
構(gòu)成要件三:人工智能系統(tǒng)所采用的技術(shù)應(yīng)以實質(zhì)性地扭曲個人或群體行為為目的或產(chǎn)生此類效果。此外,有害操縱和欺騙類系統(tǒng)額外要求這種影響必須顯著削弱個人或群體的知情決策能力,導(dǎo)致其作出原本不會作出的決定,對脆弱性的有害利用類系統(tǒng)則不需包括“顯著削弱知情決策能力”這一要求 [55] ;以及
構(gòu)成要件四:被扭曲的行為必須導(dǎo)致或可能合理導(dǎo)致對該個人、其他人或群體的重大傷害。同時,所采用的技術(shù)對行為的實質(zhì)性影響與已造成或可能合理造成的重大損害之間需存在合理因果關(guān)系 [56] 。
(3) 排除范圍
根據(jù)《人工智能法》第5條第(1)款第(a)項和第(b)項的規(guī)定,要適用這些禁止性規(guī)定,必須滿足相關(guān)條款中列出的所有條件,所有不符合這些條件的其他人工智能系統(tǒng)均不在這些禁止性規(guī)定的適用范圍之內(nèi),以下是一些具體例子 [57] :
a) 采取合法說服技術(shù)的人工智能系統(tǒng)
采取合法說服技術(shù)的人工智能系統(tǒng)以透明的方式開展并尊重個人的自主權(quán),其涉及以一種既能訴諸理性又能觸動情感的方式呈現(xiàn)論點或信息,同時解釋人工智能系統(tǒng)的目標(biāo)和運作方式,提供相關(guān)且準(zhǔn)確的信息以確保決策的明智性,并支持個人對信息進(jìn)行評估并做出自由且自主的選擇 [58] 。
b) 不太可能造成重大傷害的操縱性、欺騙性及利用性人工智能系統(tǒng)
有害操縱和欺騙類系統(tǒng)以及對脆弱性的有害利用類系統(tǒng)禁止適用的核心前提是:人工智能系統(tǒng)的操縱及脆弱性剝削行為必須導(dǎo)致或可能合理導(dǎo)致重大損害。原則上,所有不具備顯著危害可能性的操縱性、欺騙性及剝削性人工智能應(yīng)用均不在此禁止范疇內(nèi),但不影響其他適用的歐盟法律的效力。
2. 社會評分類
(1) 含義和目標(biāo)
被禁止的社會評分類人工智能系統(tǒng)是指基于社會行為或個人或個性特征對個人或群體進(jìn)行評價或分類的人工智能系統(tǒng),當(dāng)數(shù)據(jù)來源于不相關(guān)社會情境或該等處理方式與社會行為不相稱或不合理時,該等社會評分將導(dǎo)致對個人或群體的有害或不利待遇 [59] 。
實施社會評分的人工智能系統(tǒng)可能導(dǎo)致對特定個體和群體的歧視性、不公正對待,包括被排斥于社會之外,以及實施有違歐盟價值觀的社會控制與監(jiān)控行為。禁止社會評分類人工智能系統(tǒng)旨在保護(hù)人格尊嚴(yán)及其他基本權(quán)利(包括但不限于不受歧視的權(quán)利、平等權(quán)、數(shù)據(jù)保護(hù)權(quán)等) [60] 。
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場”、“投入服務(wù)”或“使用”;
b) 該人工智能系統(tǒng)必須旨在或用于在一定時期內(nèi)對個人或群體基于以下要素進(jìn)行評估或分類:
? 其社會行為;或
? 已知、推斷或預(yù)測的個人或個性特征;以及
c) 人工智能系統(tǒng)輔助生成的社會評分必須在以下一種或多種情形中導(dǎo)致或可能導(dǎo)致對個人或群體的有害或不利待遇:
? 在與數(shù)據(jù)最初生成或收集場景無關(guān)的社會情境中;
? 處理方式與其社會行為或其嚴(yán)重程度不相稱或不合理,處理方式與社會評分之間需有因果關(guān)系 [61] 。
需要注意的是,無論社會評分類人工智能系統(tǒng)由公共機構(gòu)還是私人實體提供或使用,只要符合以上構(gòu)成要件,都是被禁止的。 [62]
(3) 排除范圍
以下情形不屬于被禁止的社會評分場景:
a) 針對法律實體的社會評分,該等評分不基于個人的社會行為或個人或個性特征;
b) 用戶對服務(wù)質(zhì)量的個人評分;
c) 根據(jù)歐盟和成員國法律,為特定目的對自然人進(jìn)行的合法評估實踐,例如信用評分、風(fēng)險評分、保險核保、提升服務(wù)質(zhì)量和效率、優(yōu)化理賠流程、特定員工評估、欺詐防控和監(jiān)測、執(zhí)法,前提是使用該評分導(dǎo)致的任何有害或不利待遇均與社會行為嚴(yán)重程度相稱并具有正當(dāng)理由。 [63]
3. 個人刑事犯罪風(fēng)險評估和預(yù)測類
(1) 含義和目標(biāo)
被禁止的個人刑事犯罪風(fēng)險評估和預(yù)測類系統(tǒng)是指僅通過個人畫像或性格特征評估或預(yù)測個體犯罪風(fēng)險的人工智能系統(tǒng),但不包括基于與犯罪活動直接相關(guān)的客觀且可驗證的事實對人工評估提供支持的人工智能系統(tǒng)(該等系統(tǒng)屬于高風(fēng)險人工智能系統(tǒng)) [64] 。
該等禁止的理由是,個人應(yīng)根據(jù)其實際行為受到宣判,而非僅根據(jù)基于其個人畫像或性格特征的人工智能預(yù)測行為受到宣判 [65] 。
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場”、“投入服務(wù)”或“使用”;
b) 人工智能系統(tǒng)必須進(jìn)行風(fēng)險評估,評估或預(yù)測個人實施刑事犯罪的風(fēng)險;以及
c) 風(fēng)險評估或預(yù)測必須僅基于以下一項或兩項做出:
? 對個人的畫像;
? 對個人性格特征的評估。 [66]
(3) 排除范圍
以下情形不屬于被禁止的個人刑事犯罪風(fēng)險評估和預(yù)測類人工智能系統(tǒng) [67] :
a) 基于地理位置、空間或場所的犯罪預(yù)測人工智能系統(tǒng)
基于地理位置、空間或場所的犯罪預(yù)測,其依據(jù)是犯罪發(fā)生地點或特定區(qū)域內(nèi)的犯罪可能性。此類警務(wù)活動原則上不涉及對特定個體的評估,故不屬于被禁止的范疇 [68] 。
b) 基于與客觀可驗證的犯罪事實對人工評估提供支持的人工智能系統(tǒng)
當(dāng)人工智能系統(tǒng)用于支持人工評估個人是否參與犯罪活動時(該評估本身已基于與犯罪活動直接相關(guān)的客觀可驗證事實而不僅基于對個人的畫像和/或?qū)€人性格特征的評估),該等系統(tǒng)不屬于被禁止的范疇 [69] 。
c) 用于法律實體犯罪預(yù)測與評估的人工智能系統(tǒng)
本條禁止僅適用于對于個人的刑事犯罪風(fēng)險評估和預(yù)測,因此通常不適用于對公司、非政府組織等法律實體進(jìn)行犯罪評估和預(yù)測的人工智能系統(tǒng) [70] 。
d) 用于個體行政違法行為預(yù)測的人工智能系統(tǒng)
本條禁止僅針對刑事犯罪預(yù)測,原則上不涵蓋對個人基本權(quán)利和自由干預(yù)較少的行政違法行為的預(yù)測。
4. 非定向抓取構(gòu)建人臉數(shù)據(jù)庫類
(1) 含義和目標(biāo)
被禁止的非定向抓取構(gòu)建人臉數(shù)據(jù)庫類系統(tǒng),是指通過互聯(lián)網(wǎng)或閉路電視(“CCTV”)錄像非定向抓取人臉圖像來創(chuàng)建或擴展人臉識別數(shù)據(jù)庫的人工智能系統(tǒng) [71] 。
從互聯(lián)網(wǎng)和CCTV錄像中非定向抓取人臉圖像嚴(yán)重侵害個人隱私與數(shù)據(jù)保護(hù)權(quán),并剝奪個人保持匿名的權(quán)利。該等行為會造成大規(guī)模監(jiān)控的壓迫感,并導(dǎo)致對隱私權(quán)等基本權(quán)利的嚴(yán)重侵犯,因此需禁止該類人工智能系統(tǒng) [72] 。
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場”、“投入服務(wù)”或“使用”;
b) 人工智能系統(tǒng)的目的在于創(chuàng)建或擴充人臉識別數(shù)據(jù)庫;
c) 數(shù)據(jù)庫填充手段是通過人工智能工具進(jìn)行非定向抓取;以及
d) 圖像來源包括互聯(lián)網(wǎng)或CCTV錄像。 [73]
(3) 排除范圍
以下情形不適用于本條禁止:
a) 對非面部圖像的其他生物識別數(shù)據(jù)(如聲音樣本)的非定向抓取;
b) 未使用人工智能系統(tǒng)的抓取行為;或
c) 人臉數(shù)據(jù)庫不用于識別個人(如用于人工智能模型訓(xùn)練或測試且不涉及身份識別的人臉數(shù)據(jù)庫)。從互聯(lián)網(wǎng)采集大量面部圖像以構(gòu)建生成虛構(gòu)人物新圖像的人工智能系統(tǒng)也不適用于本條禁止,因為該等系統(tǒng)不涉及識別真實的個人。 [74]
5. 情緒識別類
(1) 含義和目標(biāo)
被禁止的情緒識別類系統(tǒng)是指,在工作場所或教育機構(gòu)進(jìn)行情緒識別的人工智能系統(tǒng),但出于醫(yī)療或安全目的的情況除外 [75] 。
目前情緒識別技術(shù)發(fā)展迅速,且在商業(yè)領(lǐng)域、娛樂產(chǎn)業(yè)、公共安全維護(hù)等多領(lǐng)域均有應(yīng)用。但情緒識別技術(shù)的有效性與準(zhǔn)確性常受質(zhì)疑。情緒識別可能導(dǎo)致歧視性結(jié)果,并侵犯相關(guān)人員的權(quán)利與自由,特別是隱私權(quán)、人格尊嚴(yán)與思想自由權(quán)。這種風(fēng)險在權(quán)力不對稱的關(guān)系中尤為突出,例如職場與教育機構(gòu)中的勞動者和學(xué)生往往處于弱勢地位,因此需要禁止符合如下情形的情緒識別類人工智能系統(tǒng)。 [76]
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場”、“投入服務(wù)”或“使用”;
b) 該人工智能系統(tǒng)用于基于生物識別信息推斷(含識別,下同)情緒;
c) 適用于工作場所或教育機構(gòu)領(lǐng)域;以及
d) 出于醫(yī)療或安全目的的人工智能系統(tǒng)不在此禁止之列。 [77]
(3) 排除范圍
以下情形不適用于本條禁止 [78] :
a) 非基于生物識別數(shù)據(jù)推斷情緒和情感的人工智能系統(tǒng);
b) 推斷疼痛、疲勞等生理狀態(tài)的人工智能系統(tǒng)。
c) 工作場所和教育機構(gòu)之外其他領(lǐng)域;
d) 為維護(hù)公共秩序與活動安全對群體行為進(jìn)行監(jiān)控管理的人群管控系統(tǒng)(Crowd Control),常見于大型集會如足球賽事、音樂會等或機場、車站等特定場所,該系統(tǒng)可在不推斷個體情緒的情況下運作,例如分析場所整體聲量或氛圍水平;
e) 用于醫(yī)療領(lǐng)域的人工智能系統(tǒng),如護(hù)理機器人、醫(yī)務(wù)人員在工作場所診療時使用的情緒識別系統(tǒng)、緊急呼叫語音分析監(jiān)測器等。
6. 生物特征分類
(1) 含義和目標(biāo)
生物特征分類人工智能系統(tǒng),是指通過生物識別數(shù)據(jù)對人進(jìn)行分類的人工智能系統(tǒng),以推測或推斷種族、政治觀點、工會成員身份、宗教或哲學(xué)信仰、性生活或性取向;但不包括對依法獲取的生物識別數(shù)據(jù)集進(jìn)行標(biāo)記或篩選,包括在執(zhí)法領(lǐng)域 [79] 。
生物識別數(shù)據(jù)可能被用于提取、推測或推斷包括敏感信息在內(nèi)的多種信息(甚至無需當(dāng)事人知情),這可能導(dǎo)致不公正和歧視性待遇,例如因被判定屬于某一種族而拒絕提供服務(wù)。基于人工智能的生物特征分類系統(tǒng)若旨在將個人歸類至涉及性取向、政治傾向或種族等方面的特定群體,不僅侵犯個人的尊嚴(yán),更對隱私權(quán)、不受歧視權(quán)等基本權(quán)利構(gòu)成重大風(fēng)險,因此需要禁止該類人工智能系統(tǒng) [80] 。
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)被“投放市場”、“投入服務(wù)”或“使用”;
b) 該系統(tǒng)必須是生物特征分類系統(tǒng)(生物特征分類系統(tǒng)是指基于個人生物識別數(shù)據(jù)將其劃分至特定類別的人工智能系統(tǒng),除非該系統(tǒng)附屬于另一項商業(yè)服務(wù)且因客觀技術(shù)原因確屬必要 [81] );
c) 必須對個人進(jìn)行分類;
d) 分類依據(jù)基于生物識別數(shù)據(jù);以及
e) 分類目的為推斷種族、政治觀點、工會成員身份、宗教或哲學(xué)信仰、性生活或性取向。 [82]
(3) 排除范圍
以下情形不適用于本條禁止 [83] :
a) 對合法獲取的生物識別數(shù)據(jù)集(如圖像)進(jìn)行標(biāo)注或篩選的人工智能系統(tǒng);
對生物識別數(shù)據(jù)集進(jìn)行標(biāo)注或篩選可能正是為了確保數(shù)據(jù)均衡代表所有人口群體,避免特定群體被過度代表。因此,基于某些受保護(hù)的敏感信息進(jìn)行標(biāo)注或篩選,可能是確保數(shù)據(jù)質(zhì)量、防止歧視的必要措施;或
b) 在執(zhí)法領(lǐng)域?qū)戏ǐ@取的數(shù)據(jù)集進(jìn)行標(biāo)注或篩選。
7. 實時遠(yuǎn)程生物識別類
(1) 含義和目標(biāo)
實時遠(yuǎn)程生物識別類系統(tǒng),是指在公共場所為執(zhí)法目的部署(僅針對部署者)實時遠(yuǎn)程生物識別的人工智能系統(tǒng),除非出于對特定受害者的針對性搜尋、預(yù)防特定威脅(包括恐怖襲擊)或搜尋特定犯罪嫌疑人的必要 [84] 。
正如《人工智能法案》序言部分所指出,公共場所實時遠(yuǎn)程生物識別系統(tǒng)具有高度侵入性,可能影響大部分人群的私生活、引發(fā)持續(xù)被監(jiān)控的感受,并間接阻礙集會自由等基本權(quán)利的行使。遠(yuǎn)程生物識別人工智能系統(tǒng)的技術(shù)缺陷可能導(dǎo)致結(jié)果偏差并產(chǎn)生歧視性影響,這種偏差在年齡、民族、種族、性別或殘疾方面尤為顯著。此外,此類實時系統(tǒng)影響的即時性及核查糾錯機會的有限性,進(jìn)一步放大了執(zhí)法活動對相關(guān)人員的權(quán)利和自由的風(fēng)險,因此需予以禁止。 [85]
(2) 主要構(gòu)成要件
a) 人工智能系統(tǒng)為遠(yuǎn)程生物識別系統(tǒng)(指通過將個人生物識別數(shù)據(jù)與參考數(shù)據(jù)庫中的數(shù)據(jù)進(jìn)行比對,在無需當(dāng)事人參與的情況下遠(yuǎn)距離完成識別個人的人工智能系統(tǒng));
b) 相關(guān)活動涉及對該系統(tǒng)的“使用”,該禁令僅禁止基于執(zhí)法目的在公共場所使用實時遠(yuǎn)程生物識別系統(tǒng),此類系統(tǒng)的“投放市場”或“投入服務(wù)”不受禁止;
c) 采用“實時”方式,即對生物識別數(shù)據(jù)進(jìn)行“即時、近乎即時或在任何情況下無顯著延遲”的采集與處理;
d) 應(yīng)用于公共場所,公共場所指任何向不特定數(shù)量個人開放的公有或私有物理空間,無論是否設(shè)置準(zhǔn)入條件,亦不受潛在容量限制;以及
e) 服務(wù)于執(zhí)法目的,執(zhí)法目的包括對刑事犯罪的調(diào)查、偵查和起訴,在犯罪實際發(fā)生前預(yù)防刑事犯罪的活動,以及刑罰的執(zhí)行。 [86]
(3) 排除范圍
《人工智能法案》為實時遠(yuǎn)程生物識別類禁止明確了如下三類例外情形,但需注意的是,只有成員國國內(nèi)制定相關(guān)立法明確允許相關(guān)例外情形并滿足《人工智能法案》規(guī)定的條件和保障措施(《人工智能法案》第5條第2至7款),該等例外情形才可具體適用 [87] 。
a) 針對三類嚴(yán)重犯罪受害者及失蹤人員的搜尋
在符合嚴(yán)格必要性標(biāo)準(zhǔn)的情況下,允許為執(zhí)法目的在公共空間使用實時遠(yuǎn)程生物識別系統(tǒng),以針對性搜尋綁架、人口販賣或性剝削受害者,以及尋找失蹤人員 [88] 。
b) 預(yù)防迫在眉睫的生命威脅或恐怖襲擊
為預(yù)防對個人生命或人身安全具體、重大且迫近的威脅,或真實存在或可預(yù)見的恐怖襲擊威脅,可在符合嚴(yán)格必要標(biāo)準(zhǔn)的情況下,為執(zhí)法目的在公共空間使用實時遠(yuǎn)程生物識別系統(tǒng) [89] 。
c) 特定犯罪嫌疑人的定位與識別
為對《人工智能法案》附件二所列且在涉案成員國至少可判處四年監(jiān)禁或拘留的罪行進(jìn)行刑事調(diào)查、起訴或執(zhí)行刑事處罰之目的,對涉嫌實施刑事犯罪的人員進(jìn)行定位與識別時,允許在公共場所實時使用實時遠(yuǎn)程生物識別系統(tǒng) [90] 。
(三) 處罰
《人工智能法案》根據(jù)違反嚴(yán)重程度,采用分級方式設(shè)定違反不同條款的處罰標(biāo)準(zhǔn)。違反禁止的人工智能系統(tǒng)的相關(guān)規(guī)定被視為最嚴(yán)重違規(guī)行為,將面臨最高罰款。從事被禁人工智能實踐的供應(yīng)商和部署者可能被處以最高3500萬歐元(約兩億九千萬元人民幣)罰款,若違規(guī)主體為企業(yè),則最高可處其上一年度全球營業(yè)額7%的罰款(以較高者為準(zhǔn))。 [91]
四、 其他立法和實施動態(tài)
(一) 關(guān)于建立人工智能領(lǐng)域獨立專家科學(xué)小組的實施細(xì)則
《人工智能法案》規(guī)定應(yīng)設(shè)立獨立專家科學(xué)小組,為人工智能辦公室及各成員國市場監(jiān)督機構(gòu)提供法案實施與執(zhí)法方面的專業(yè)咨詢及協(xié)助 [92] 。2025年3月7日,《關(guān)于建立人工智能領(lǐng)域獨立專家科學(xué)小組的實施細(xì)則》正式發(fā)布。
人工智能領(lǐng)域獨立專家科學(xué)小組將專注于通用人工智能模型及系統(tǒng),主要職責(zé)包括:就系統(tǒng)性風(fēng)險、模型分類、評估方法及跨境市場監(jiān)督等事項向歐盟人工智能辦公室及各成員國主管部門提供專業(yè)建議,并有權(quán)就新興風(fēng)險向人工智能辦公室發(fā)出預(yù)警 [93] 。
(二) 通用目的人工智能模型相關(guān)規(guī)定
1. 《通用目的人工智能模型提供者義務(wù)范圍指南》
根據(jù)前述《人工智能法案》實施的時間線,《人工智能法案》對通用目的人工智能模型的相關(guān)要求于2025年8月2日生效。為進(jìn)一步解釋通用目的人工智能模型提供者的義務(wù)范圍,歐盟委員會于2025年7月18日發(fā)布了《通用目的人工智能模型提供者義務(wù)范圍指南》(Guidelines on the Scope of the Obligations for General-Purpose AI Models) [94] 。
該指南涵蓋四項主要內(nèi)容:(1)通用目的人工智能模型定義;(2)通用目的人工智能模型提供者的認(rèn)定;(3)開源通用目的人工智能模型提供者的義務(wù)豁免;(4)對通用目的人工智能模型提供者的合規(guī)要求 [95] 。
盡管該指南并不具有法律約束力,但該指南闡明了歐盟委員會對《人工智能法案》的解釋與適用標(biāo)準(zhǔn),且歐盟委員會將在此基礎(chǔ)上采取執(zhí)法行動 [96] 。
2. 《通用目的人工智能行為準(zhǔn)則》
2025年7月10日,歐洲人工智能辦公室發(fā)布了《通用目的人工智能行為準(zhǔn)則》(Code of Practice for General-Purpose AI Models),該準(zhǔn)則是一項自愿性工具,由獨立專家在利益相關(guān)方參與的流程中制定,旨在幫助行業(yè)遵守《人工智能法案》中針對通用人工智能模型供應(yīng)商的義務(wù),確保投放歐洲市場的通用人工智能模型是安全且透明的。
《通用目的人工智能行為準(zhǔn)則》包含三個獨立編制的章節(jié):《透明度》(Transparency)、《版權(quán)》(Copyright)以及《安全與保障》(Safety and Security)。其中,《透明度》與《版權(quán)》針對所有通用人工智能模型供應(yīng)商;《安全與保障》僅適用于數(shù)量有限的最先進(jìn)模型供應(yīng)商,這些供應(yīng)商需遵守《人工智能法案》中對具有系統(tǒng)性風(fēng)險的通用人工智能模型供應(yīng)商規(guī)定的義務(wù)。 [97]
盡管《通用目的人工智能行為準(zhǔn)則》不具有法律約束力,通用人工智能模型供應(yīng)商仍可通過遵循該準(zhǔn)則以證明其符合通用人工智能模型供應(yīng)商的義務(wù) [98] 。
3. 通用目的人工智能模型問答
歐盟人工智能辦公室于2025年7月16日發(fā)布了通用目的人工智能模型問答,旨在促進(jìn)對《人工智能法案》部分條款的理解。該問答主要包括通用目的人工智能模型的概念、通用目的人工智能模型供應(yīng)商概念及義務(wù)、人工智能辦公室執(zhí)法權(quán)等相關(guān)內(nèi)容 [99] 。
結(jié)尾
歐盟《人工智能法案》生效后分階段實施,一方面法案下的義務(wù)在按照實施時間表逐步適用,另一方面歐盟委員會等機構(gòu)也在不斷發(fā)布配套指南對《人工智能法案》進(jìn)行解釋和澄清,幫助企業(yè)理解和遵守《人工智能法案》。
隨著歐盟《人工智能法案》相關(guān)配套指南的陸續(xù)發(fā)布,法案的監(jiān)管框架逐漸清晰,監(jiān)管部門的執(zhí)法與處罰也可能隨之而來。出海歐盟的中國企業(yè)需關(guān)注歐盟《人工智能法案》的關(guān)鍵實施節(jié)點及每個節(jié)點對應(yīng)的實施要求,并關(guān)注歐盟委員會等機構(gòu)發(fā)布的配套指南,充分理解歐盟《人工智能法案》的合規(guī)要求并提前準(zhǔn)備相應(yīng)的合規(guī)方案。
[1] Artificial Intelligence Act, Article 113
[2] Artificial Intelligence Act, Article 113
[3] Artificial Intelligence Act, Article 113 (a) and Recital 179
[4] Artificial Intelligence Act, Article 113 (b)
[5] Artificial Intelligence Act, Article 113
[6] Artificial Intelligence Act, Article 111 (2)
[7] Artificial Intelligence Act, Article 113
[8] Artificial Intelligence Act, Article 111 (3)
[9] Artificial Intelligence Act, Article 111 (2)
[10] Artificial Intelligence Act, Article 111 (1)
[11] Artificial Intelligence Act, Article 3 (1)
[12] Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act); https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application
[13] AI System Guidelines, Sections 5, 7
[14] AI System Guidelines, Section 6
[15] AI System Guidelines, Section 11
[16] AI System Guidelines, Section 12
[17] AI System Guidelines, Section 13
[18] AI System Guidelines, Section 14
[19] AI System Guidelines, Section 15
[20] AI System Guidelines, Section 17
[21] AI System Guidelines, Section 20
[22] AI System Guidelines, Section 22
[23] AI System Guidelines, Section 23
[24] AI System Guidelines, Section 24
[25] AI System Guidelines, Section 25
[26] AI System Guidelines, Section 26
[27] AI System Guidelines, Section 32
[28] AI System Guidelines, Sections 52-58
[29] AI System Guidelines, Section 59
[30] AI System Guidelines, Section 60
[31] AI System Guidelines, Sections 42-45
[32] AI System Guidelines, Sections 46-47
[33] AI System Guidelines, Section 48
[34] AI System Guidelines, Sections 49-51
[35] Artificial Intelligence Act, Article 5
[36] Artificial Intelligence Act, Article 113 (a)
[37] Artificial Intelligence Act, Article 96 (1)(b)
[38] Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act
[39] Prohibited AI Guidelines, Background and Objectives
[40] Prohibited AI Guidelines, 2.1
[41] Prohibited AI Guidelines, 2.5
[42] Prohibited AI Guidelines, 2.5.1
[43] Prohibited AI Guidelines, 2.5.2
[44] Prohibited AI Guidelines, 2.5.3
[45] Prohibited AI Guidelines, 2.5.4
[46] Prohibited AI Guidelines, 2.5.5
[47] Prohibited AI Guidelines, 2.1
[48] Prohibited AI Guidelines, 2.1
[49] Prohibited AI Guidelines, 3 (58), 3.1
[50] Prohibited AI Guidelines, 3.2, 3.3
[51] Artificial Intelligence Act, Article 3 (9); Prohibited AI Guidelines, 2.3 (12)
[52] Artificial Intelligence Act, Article 3 (11) ; Prohibited AI Guidelines, 2.3 (13)
[53] Prohibited AI Guidelines, 2.3 (14)
[54] Prohibited AI Guidelines, 3.2.1 and 3.3.1
[55] Prohibited AI Guidelines, 3.2.2 and 3.3.2
[56] Prohibited AI Guidelines, 3.2.3 and 3.3.3
[57] Prohibited AI Guidelines, 3.5
[58] Prohibited AI Guidelines, 3.5
[59] Prohibited AI Guidelines, 2.1
[60] Prohibited AI Guidelines, 4.1
[61] Prohibited AI Guidelines, 4.2
[62] Prohibited AI Guidelines, 4.2.3
[63] Prohibited AI Guidelines, 4.3
[64] Prohibited AI Guidelines, 2.1
[65] Prohibited AI Guidelines, 5.1
[66] Prohibited AI Guidelines, 5.2
[67] Prohibited AI Guidelines, 5.3.4
[68] Prohibited AI Guidelines, 5.3.1
[69] Prohibited AI Guidelines, 5.3.2
[70] Prohibited AI Guidelines, 5.3.3
[71] Prohibited AI Guidelines, 2.1
[72] Prohibited AI Guidelines, 6.1
[73] Prohibited AI Guidelines, 6.2
[74] Prohibited AI Guidelines, 6.3
[75] Prohibited AI Guidelines, 2.1
[76] Prohibited AI Guidelines, 7.1
[77] Prohibited AI Guidelines, 7.2
[78] Prohibited AI Guidelines, 7.4
[79] Prohibited AI Guidelines, 2.1
[80] Prohibited AI Guidelines, 8.1
[81] Artificial Intelligence Act, Article 3 (40)
[82] Prohibited AI Guidelines, 8.2
[83] Prohibited AI Guidelines, 8.3
[84] Prohibited AI Guidelines, 2.1
[85] Artificial Intelligence Act, Recital 32; Prohibited AI Guidelines, 9.1
[86] Prohibited AI Guidelines, 9.2
[87] Prohibited AI Guidelines, 9.3
[88] Prohibited AI Guidelines, 9.3.2
[89] Prohibited AI Guidelines, 9.3.3
[90] Prohibited AI Guidelines, 9.3.4
[91] Artificial Intelligence Act, Article 99
[92] Artificial Intelligence Act, Article 68
[93] https://artificialintelligenceact.eu/scientific-panel/
[94] https://digital-strategy.ec.europa.eu/en/library/guidelines-scope-obligations-providers-general-purpose-ai-models-under-ai-act
[95] Guidelines on the scope of the obligations for general-purpose AI models, 1. Background and objectives of the Commission guidelines (8)
[96] Guidelines on the scope of the obligations for general-purpose AI models, 1. Background and objectives of the Commission guidelines (9)
[97] https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai
[98] https://artificialintelligenceact.eu/introduction-to-code-of-practice/; https://digital-strategy.ec.europa.eu/en/library/commission-opinion-assessment-general-purpose-ai-code-practice
[99] https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers




