近兩三年,全球人工智能(AI)呈現(xiàn)爆發(fā)式發(fā)展。生成式人工智能(如ChatGPT、Sora)和多模態(tài)模型推動(dòng),在金融、醫(yī)療、自動(dòng)駕駛、創(chuàng)意產(chǎn)業(yè)等領(lǐng)域得到深度應(yīng)用。2025年DeepSeek橫空出世,AI應(yīng)用加速全民化,也引發(fā)了全球法規(guī)及倫理風(fēng)險(xiǎn)的關(guān)注,多國(guó)加強(qiáng)人工智能治理框架,全球監(jiān)管呈現(xiàn)出“備案主導(dǎo)、數(shù)據(jù)優(yōu)先、責(zé)任分層”的特點(diǎn),也產(chǎn)生了不少案例實(shí)踐,本文試對(duì)其匯總、點(diǎn)評(píng),就人工智能生成內(nèi)容的責(zé)任問(wèn)題進(jìn)行初淺探討。
一、主要國(guó)家治理框架簡(jiǎn)述
(一)中國(guó)
2023年國(guó)家網(wǎng)信辦等七部委聯(lián)合公布了《生成式人工智能服務(wù)管理暫行辦法》,要求生成式人工智能服務(wù)需根據(jù)《生成式人工智能服務(wù)管理暫行辦法》履行算法備案和安全評(píng)估義務(wù),責(zé)任主體為服務(wù)提供者。若未備案,可能面臨警告、罰款或服務(wù)下架等處罰。在數(shù)據(jù)安全與隱私方面,企業(yè)應(yīng)遵循《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》,對(duì)數(shù)據(jù)來(lái)源、處理流程進(jìn)行嚴(yán)格規(guī)范,禁止非法留存用戶信息。在知識(shí)產(chǎn)權(quán)與版權(quán)方面,人工智能生成內(nèi)容需體現(xiàn)“人類智力投入”方可獲版權(quán)保護(hù),否則無(wú)法確權(quán),完全由人工智能自主生成的內(nèi)容不享有版權(quán)。
(二)歐盟
《通用數(shù)據(jù)保護(hù)條例》(GDPR)嚴(yán)格約束數(shù)據(jù)跨境流動(dòng),要求高風(fēng)險(xiǎn)AI系統(tǒng)(如醫(yī)療、招聘)進(jìn)行全鏈條監(jiān)管。歐盟《AI法案》分階段實(shí)施,禁止特定高風(fēng)險(xiǎn)應(yīng)用(如社會(huì)信用評(píng)分),要求技術(shù)文檔披露和第三方測(cè)試。在責(zé)任分配方面,強(qiáng)調(diào)平臺(tái)方責(zé)任,即使通過(guò)API間接提供服務(wù),也需承擔(dān)內(nèi)容風(fēng)控義務(wù)。歐洲數(shù)據(jù)保護(hù)委員會(huì)(CEPD)將DeepSeek納入調(diào)查范圍,重點(diǎn)關(guān)注其數(shù)據(jù)合規(guī)性,反映了歐盟對(duì)AI服務(wù)全鏈條監(jiān)管的嚴(yán)格態(tài)度。
(三)美國(guó)
在人工智能方面美國(guó)側(cè)重國(guó)家安全與技術(shù)中立,依賴企業(yè)自律。2024年10月發(fā)布的《促進(jìn)國(guó)家安全中人工智能治理與風(fēng)險(xiǎn)管理的框架》確立了四大支柱:限制高風(fēng)險(xiǎn)AI應(yīng)用(如生物識(shí)別、軍事決策輔助)、制定風(fēng)險(xiǎn)管理實(shí)踐(包括偏見(jiàn)審查與人類監(jiān)督)、分類監(jiān)控AI系統(tǒng)、強(qiáng)化培訓(xùn)與問(wèn)責(zé)機(jī)制。司法判例方面逐步明確平臺(tái)責(zé)任,若AI輸出侵權(quán)或虛假信息,平臺(tái)可能承擔(dān)連帶責(zé)任。通過(guò)《2025年美中人工智能能力脫鉤法案》限制對(duì)華技術(shù)合作,禁止軍方使用存在風(fēng)險(xiǎn)的AI技術(shù),政府通過(guò)出口管制(如限制高帶寬芯片)間接約束技術(shù)發(fā)展。同時(shí),美國(guó)拒絕簽署《巴黎AI宣言》,在技術(shù)競(jìng)爭(zhēng)方面單邊傾向明顯。
(四)新加坡
新加坡通過(guò)《國(guó)家人工智能戰(zhàn)略》(NAIS)推動(dòng)成為全球AI領(lǐng)導(dǎo)者,構(gòu)建“技術(shù)-數(shù)據(jù)-信任”三位一體的生態(tài)系統(tǒng),并注重敏捷監(jiān)管與風(fēng)險(xiǎn)分層管理。治理框架上采用“軟法優(yōu)先”模式,如《模型AI治理框架》和《可信數(shù)據(jù)共享框架》,強(qiáng)調(diào)企業(yè)自律、透明度和可解釋性,輔以技術(shù)工具(如AI Verify)驗(yàn)證系統(tǒng)合規(guī)性。對(duì)生成式AI增設(shè)安全評(píng)估與內(nèi)容溯源要求。金融領(lǐng)域推行“FEAT原則”(公平、倫理、問(wèn)責(zé)、透明),醫(yī)療領(lǐng)域結(jié)合ISO標(biāo)準(zhǔn)強(qiáng)化AI醫(yī)療器械全生命周期管理,并通過(guò)立法限制基因數(shù)據(jù)濫用。在國(guó)際合作方面主導(dǎo)東南亞語(yǔ)言大模型(SEA-LION),推動(dòng)區(qū)域技術(shù)協(xié)同,參與東盟及國(guó)際標(biāo)準(zhǔn)制定。
二、人工智能開(kāi)發(fā)鏈中的各方
2024年5月30日,新加坡人工智能驗(yàn)證基金會(huì)(AI Verify Foundation)與新加坡信息通信媒體發(fā)展管理局(Infocomm Media Development Authority of Singapore, IMDA)聯(lián)合發(fā)布《生成式人工智能模型治理框架》(Model AI Governance Framework for Generative AI),提出生成式人工智能治理九個(gè)維度。這是AI Verify Foundation和IMDA整理借鑒全球主要司法管轄區(qū)、國(guó)際組織、研究機(jī)構(gòu)和領(lǐng)先的人工智能組織的見(jiàn)解、討論和反饋后形成的正式框架,反映了生成式人工智能中新興的原則、關(guān)注點(diǎn)和技術(shù)發(fā)展。
《生成式人工智能模型治理框架》(“《框架》”)的第一個(gè)治理維度就是可問(wèn)責(zé)。《框架》提出,可問(wèn)責(zé)是培育可信人工智能生態(tài)的關(guān)鍵因素,人工智能開(kāi)發(fā)全鏈條的參與者,包括模型開(kāi)發(fā)者、應(yīng)用程序部署者、云服務(wù)提供商等都需要對(duì)最終用戶負(fù)責(zé)。
根據(jù)此框架,生成式人工智能開(kāi)發(fā)全鏈條里的成員,包括以下四層:
(一) 處于最頂端的模型開(kāi)發(fā)者。像OpenAI一樣,這些是其他公司可以為其產(chǎn)品和服務(wù)構(gòu)建的基本模型。但模型開(kāi)發(fā)者可能無(wú)法掌控其模型如何被下游的公司所使用。
(二) 應(yīng)用開(kāi)發(fā)者——開(kāi)發(fā)解決方案而使用AI技術(shù)的人。但應(yīng)用開(kāi)發(fā)者可能無(wú)法控制其AI解決方案如何被下游公司所使用。
(三) 應(yīng)用部署者——向最終用戶提供AI解決方案的人。但應(yīng)用部署者可能并不知此AI解決方案是如何開(kāi)發(fā)的,應(yīng)用了何等數(shù)據(jù)進(jìn)行訓(xùn)練的,等等。
(四) 最終用戶。但最終用戶可能因故意操縱系統(tǒng)而違反安全規(guī)約。若用戶通過(guò)繞過(guò)安全護(hù)欄故意生成侵權(quán)內(nèi)容等,需自行擔(dān)責(zé);
新加坡同時(shí)建議探索“無(wú)過(guò)錯(cuò)責(zé)任保險(xiǎn)”,覆蓋開(kāi)發(fā)者、部署者及用戶等各層面成員的潛在損失。
根據(jù)歐盟議會(huì),“安全和責(zé)任是同一枚硬幣的兩面”,人工智能開(kāi)發(fā)鏈中各方在什么情況下應(yīng)承擔(dān)責(zé)任,責(zé)任如何分配呢?通過(guò)主要國(guó)家近年的案例,了解其在知識(shí)產(chǎn)權(quán)侵權(quán)、倫理與公平性、人身傷害等方面的司法實(shí)踐。
三、AI生成內(nèi)容的責(zé)任分配與認(rèn)定
(一)知識(shí)產(chǎn)權(quán)歸屬、侵權(quán)與賠償責(zé)任
英國(guó)《版權(quán)、設(shè)計(jì)和專利法》(CDPA)第9.3節(jié)規(guī)定,計(jì)算機(jī)生成作品的作者被視為對(duì)該作品創(chuàng)作進(jìn)行“必要安排”的自然人或法人。此類作品指在沒(méi)有人類作者直接參與創(chuàng)作的情況下,完全由計(jì)算機(jī)生成的內(nèi)容(如AI自動(dòng)生成的文字、圖像等)。根據(jù)該條款,版權(quán)歸屬于對(duì)作品生成過(guò)程投入實(shí)質(zhì)性安排或指令的主體,例如編寫算法、設(shè)定參數(shù)或提供數(shù)據(jù)輸入的人員或機(jī)構(gòu)。此規(guī)定使計(jì)算機(jī)生成作品在英國(guó)可獨(dú)立享有版權(quán)保護(hù)(保護(hù)期50年),與人類創(chuàng)作作品區(qū)分,但強(qiáng)調(diào)權(quán)利歸屬需基于對(duì)創(chuàng)作過(guò)程的組織或干預(yù)。
新加坡《2021年版權(quán)法》并未直接討論“作者身份”這一話題,并沒(méi)有與英國(guó)的CDPA第9.3節(jié)內(nèi)容相對(duì)應(yīng)的規(guī)定。但Global Yellow Pages Ltd v. Promedia Directories Pte Ltd(2017)是新加坡最高法院關(guān)于版權(quán)法“原創(chuàng)性”認(rèn)定的重要判例。法院明確,作品須由人類智力創(chuàng)造且與最終成果存在“充分因果聯(lián)系”方可受版權(quán)保護(hù)。本案中,原告主張其電話目錄享有版權(quán),但法院認(rèn)為其編排未體現(xiàn)創(chuàng)造性勞動(dòng),僅屬機(jī)械性整理,故不構(gòu)成原創(chuàng)作品。判決進(jìn)一步指出,若無(wú)法確定人類作者身份或作品完全由非人類(如AI)生成,則版權(quán)主張不成立。Global Yellow Pages案似乎創(chuàng)立了一個(gè)“人類創(chuàng)作因果鏈”原則,即要求作品須體現(xiàn)“人類智力參與”(“engagement of the human intellect” )、“智力的投入……或腦力勞動(dòng)的運(yùn)用”(“the application of intellectual effort…or the exercise of mental labour”)、“與最終作品存在充分的因果關(guān)聯(lián)”(“sufficient causal nexus with the final work”)。此案確立了新加坡版權(quán)法對(duì)“人類智力投入”的嚴(yán)格要求,否定了純算法或自動(dòng)化生成內(nèi)容的可版權(quán)性,直接影響AI生成內(nèi)容的法律地位,與英國(guó)等允許AI作品有條件受保護(hù)的立法形成對(duì)比。
無(wú)獨(dú)有偶,中國(guó)國(guó)內(nèi)“AI文生圖”著作權(quán)第一案,也認(rèn)可創(chuàng)作過(guò)程中人類參與的必要性。2023年2月,李某使用開(kāi)源AI繪圖軟件(如Stable Diffusion)通過(guò)輸入提示詞、調(diào)整參數(shù)(如畫面布局、人物設(shè)計(jì)等),經(jīng)多次修改后生成一張圖片,發(fā)布于小紅書平臺(tái)。隨后,劉某在百家號(hào)發(fā)布文章時(shí)未經(jīng)授權(quán)使用該圖,并去除李某的署名水印。北京互聯(lián)網(wǎng)法院審理認(rèn)為,盡管涉案圖片由AI生成,但李某在創(chuàng)作過(guò)程中需設(shè)計(jì)提示詞、調(diào)整參數(shù)并反復(fù)篩選結(jié)果,體現(xiàn)了個(gè)性化表達(dá)與智力投入、審美選擇,上述過(guò)程滿足著作權(quán)法對(duì)“智力成果”和“獨(dú)創(chuàng)性”的要求,因此該圖片構(gòu)成美術(shù)作品,李某享有著作權(quán)。未經(jīng)許可并去除署名的發(fā)布,使公眾可以在其選定的時(shí)間和地點(diǎn)獲得涉案圖片,侵害了李某就涉案圖片享有的信息網(wǎng)絡(luò)傳播權(quán)。此案為國(guó)內(nèi)首例明確AI生成內(nèi)容可版權(quán)化的判決,強(qiáng)調(diào)人類主導(dǎo)的創(chuàng)作過(guò)程是關(guān)鍵,若AI完全自主生成(無(wú)人類干預(yù))則無(wú)法獲得版權(quán)。
同樣,美國(guó)僅認(rèn)可人類編輯后的內(nèi)容版權(quán),純AI生成內(nèi)容不受保護(hù)。Jason Allen案圍繞藝術(shù)家Allen使用AI工具Midjourney創(chuàng)作的獲獎(jiǎng)畫作版權(quán)爭(zhēng)議展開(kāi)。美國(guó)版權(quán)局于2023年以“AI生成內(nèi)容占比過(guò)高”為由拒絕其整體版權(quán)注冊(cè),僅允許對(duì)人類修改部分(如Photoshop調(diào)整)申請(qǐng)保護(hù)。Allen主張其投入超100小時(shí)、624次提示詞調(diào)整及后期處理,創(chuàng)作過(guò)程類似導(dǎo)演或攝影師的創(chuàng)造性勞動(dòng),應(yīng)享有完整版權(quán)。然而,版權(quán)局認(rèn)為Midjourney的生成機(jī)制依賴算法訓(xùn)練數(shù)據(jù),用戶提示詞無(wú)法對(duì)最終輸出形成“實(shí)質(zhì)控制”,AI貢獻(xiàn)部分屬“機(jī)械復(fù)制”而非人類原創(chuàng)構(gòu)思,故不符合版權(quán)法對(duì)“人類作者身份”的要求。Allen提起上訴,援引最高法院判例質(zhì)疑版權(quán)局決策的武斷性,并要求重新審查。也有其他類似案件共同凸顯了美國(guó)現(xiàn)行法律在AI生成內(nèi)容保護(hù)中的模糊性。
Getty Images訴Stability AI是全球首例大型AIGC侵權(quán)訴訟案件。 Getty Images在倫敦高等法院、美國(guó)地方法院均起訴Stability AI未經(jīng)授權(quán)使用其數(shù)百萬(wàn)張版權(quán)圖片訓(xùn)練AI模型Stable Diffusion,指控其構(gòu)成大規(guī)模版權(quán)侵權(quán)。Getty指出,AI模型通過(guò)復(fù)制并解構(gòu)其圖片庫(kù)內(nèi)容生成相似圖像,損害了版權(quán)價(jià)值與市場(chǎng)利益。Stability AI辯稱訓(xùn)練數(shù)據(jù)屬于“合理使用”,且輸出內(nèi)容為算法重組結(jié)果,非直接復(fù)制原圖。此案爭(zhēng)議焦點(diǎn)在于:AI訓(xùn)練是否構(gòu)成對(duì)原始作品的“演繹”或“復(fù)制”,以及技術(shù)中立原則與版權(quán)保護(hù)的平衡。案件或推動(dòng)法律明確AI訓(xùn)練數(shù)據(jù)合法性邊界,影響生成式AI開(kāi)發(fā)模式。目前美國(guó)法院尚未判決。但歐盟《人工智能法案》草案已要求披露訓(xùn)練數(shù)據(jù)來(lái)源,預(yù)示監(jiān)管趨嚴(yán)。歐盟《AI責(zé)任指令》也引入“因果關(guān)系推定”,要求被告自證無(wú)過(guò)錯(cuò)。
中國(guó)廣州互聯(lián)網(wǎng)法院于2024年2月對(duì)全球首例生成式AI服務(wù)侵犯著作權(quán)案作出判決,認(rèn)定被告AI平臺(tái)(Tab網(wǎng)站)生成的奧特曼形象圖片與原告權(quán)利作品構(gòu)成“實(shí)質(zhì)性相似”,侵犯了復(fù)制權(quán)和改編權(quán),要求平臺(tái)停止侵權(quán)并賠償經(jīng)濟(jì)損失。判決指出,AI服務(wù)提供者需采取有效過(guò)濾措施(如關(guān)鍵詞屏蔽),確保用戶輸入相關(guān)提示詞時(shí)無(wú)法生成侵權(quán)內(nèi)容,并履行注意義務(wù),包括建立投訴機(jī)制、風(fēng)險(xiǎn)提示及顯著標(biāo)識(shí)生成物等,即使模型由第三方開(kāi)發(fā)。但遺憾的是,這一“全球首例”案未涉及底層模型開(kāi)發(fā)方、應(yīng)用開(kāi)發(fā)方、應(yīng)用部署方之間的責(zé)任劃分。
(二)倫理責(zé)任、偏見(jiàn)與歧視
“能做”與“應(yīng)做”體現(xiàn)了法律與治理的沖突,即使技術(shù)上可行(如使用個(gè)人數(shù)據(jù)或受版權(quán)材料訓(xùn)練AI),企業(yè)需評(píng)估是否符合倫理,及社會(huì)所期待的公平性。生成式人工智能可能產(chǎn)生“文化偏見(jiàn)”,也可能出現(xiàn)“道德風(fēng)險(xiǎn)”。類似的案例在西方比較多。
德國(guó)雜志用AI生成“舒馬赫獨(dú)家專訪”并發(fā)表,在2024年被判賠償20萬(wàn)歐元,這一案例凸顯了“技術(shù)可行性≠倫理可接受”。
2024年,意大利數(shù)據(jù)保護(hù)機(jī)構(gòu)Garante因生成人工智能應(yīng)用程序ChatGPT在未經(jīng)充分法律依據(jù)下處理用戶數(shù)據(jù)用于模型訓(xùn)練,以及未設(shè)置年齡驗(yàn)證機(jī)制,可能導(dǎo)致未成年人接觸到不適當(dāng)?shù)膬?nèi)容,法院對(duì)其制造商OpenAI罰款1500萬(wàn)歐元,同時(shí)要求其開(kāi)展為期6個(gè)月的多平臺(tái)公眾教育活動(dòng),解釋ChatGPT的數(shù)據(jù)處理方式及用戶數(shù)據(jù)保護(hù)權(quán)利。
美國(guó)平等就業(yè)機(jī)會(huì)委員會(huì)(EEOC)指控在線教育公司iTutorGroup在招聘中系統(tǒng)性歧視年長(zhǎng)求職者,違反《年齡歧視就業(yè)法》。EEOC調(diào)查發(fā)現(xiàn),該公司通過(guò)算法自動(dòng)拒絕55歲以上女性及60歲以上男性求職者。,且招聘系統(tǒng)設(shè)置年齡過(guò)濾參數(shù)(如隱藏出生年份),導(dǎo)致大量年長(zhǎng)求職者被排除。訴訟強(qiáng)調(diào)AI工具若未合理設(shè)計(jì)可能加劇偏見(jiàn),要求iTutorGroup賠償受害者并改革招聘流程。2023年雙方達(dá)成和解,iTutorGroup同意支付36.5萬(wàn)美元賠償金、修訂篩選機(jī)制并加強(qiáng)員工反歧視培訓(xùn)。此案成為美國(guó)首例因AI招聘工具引發(fā)年齡歧視的司法案例,警示企業(yè)需確保算法決策的透明性與合規(guī)性,推動(dòng)監(jiān)管對(duì)自動(dòng)化招聘系統(tǒng)的審查。
(三)錯(cuò)誤與有害內(nèi)容責(zé)任
2022年的Air Canada案,一名用戶因親屬去世需改簽機(jī)票,詢問(wèn)聊天機(jī)器人獲回復(fù)“可申請(qǐng)退款”,遂購(gòu)買全價(jià)票后遭公司拒賠。加航辯稱機(jī)器人屬“獨(dú)立法律實(shí)體”,其錯(cuò)誤信息不具約束力。法院認(rèn)定企業(yè)需對(duì)自動(dòng)化工具的輸出負(fù)責(zé),因用戶合理信賴公司官方渠道信息,判決加航全額賠償并承擔(dān)法律費(fèi)用。此案確立企業(yè)對(duì)其AI客服誤導(dǎo)行為不可推責(zé)的原則,警示企業(yè)須確保自動(dòng)化系統(tǒng)的準(zhǔn)確性與監(jiān)管,避免技術(shù)缺陷轉(zhuǎn)嫁消費(fèi)者風(fēng)險(xiǎn)。
2023年也曾發(fā)生ChatGPT編造教授性騷擾虛假新聞,OpenAI同樣面臨訴訟。
新加坡判例Quoine Pte Ltd v B2C2 Ltd一案,涉及加密貨幣交易平臺(tái)因技術(shù)錯(cuò)誤導(dǎo)致異常交易的法律爭(zhēng)議, 是算法行為主觀性的一個(gè)典型爭(zhēng)議。B2C2使用算法以遠(yuǎn)高于市價(jià)(每10個(gè)比特幣兌換1個(gè)以太幣)完成交易后,Quoine以錯(cuò)誤為由取消交易。B2C2起訴其違約,Quoine則主張交易基于單方錯(cuò)誤應(yīng)無(wú)效。根據(jù)新加坡法律,單方錯(cuò)誤需非錯(cuò)誤方實(shí)際或推定知情并存在不當(dāng)行為。但法院多數(shù)意見(jiàn)認(rèn)為,判斷關(guān)鍵在于算法編程時(shí)開(kāi)發(fā)者是否明知或應(yīng)知錯(cuò)誤可能被利用,并以此設(shè)計(jì)程序獲利。此案確立了算法責(zé)任需追溯至設(shè)計(jì)意圖、追溯至開(kāi)發(fā)者的司法原則,即“以程序員意圖為準(zhǔn)”原則,對(duì)AI及自動(dòng)化交易中錯(cuò)誤與責(zé)任的界定具有重要影響。
(四)人身傷害責(zé)任
人工智能造成人身傷害責(zé)任的案例目前不多見(jiàn)。從全球來(lái)看,引人注目的是2024年全球首例AI聊天機(jī)器人致死訴訟,引發(fā)對(duì)生成式AI倫理責(zé)任、人身傷害責(zé)任和未成年人保護(hù)的深層討論。14歲美國(guó)少年長(zhǎng)期沉迷于Character.AI平臺(tái)的聊天機(jī)器人,尤其是模仿《權(quán)力的游戲》中“龍母”的AI角色,他在與機(jī)器人最后一次互動(dòng)后自殺,其母親要求Character.AI的母公司及技術(shù)合作方谷歌共同擔(dān)責(zé),提出平臺(tái)設(shè)計(jì)存在缺陷:聊天機(jī)器人過(guò)度“擬人化”,未明確提示AI的虛構(gòu)性;平臺(tái)未有自殺預(yù)防機(jī)制,反而提供可能鼓勵(lì)自殺的回復(fù);允許13歲以上用戶注冊(cè),但缺乏家長(zhǎng)控制及內(nèi)容過(guò)濾措施。谷歌辯稱其僅提供技術(shù)授權(quán),并非產(chǎn)品開(kāi)發(fā)者;Character.AI辯稱其內(nèi)容受美國(guó)憲法第一修正案保護(hù),強(qiáng)調(diào)AI生成內(nèi)容的責(zé)任界限尚不明確。此案仍在美國(guó)司法程序,無(wú)論能否證明AI與用戶自殺的因果關(guān)系,但案件已經(jīng)引致行業(yè)加強(qiáng)監(jiān)測(cè)與責(zé)任規(guī)范,據(jù)稱公司已推出新安全措施,如敏感詞觸發(fā)自殺熱線提示、限制未成年人使用時(shí)長(zhǎng)等。
國(guó)內(nèi)比較接近的案例有2023年杭州AI生成虛假信息擾亂社會(huì)秩序案,某小區(qū)業(yè)主使用ChatGPT編造《杭州3月1日取消限行》虛假新聞,經(jīng)社交媒體傳播后引發(fā)交通擁堵和公眾恐慌,法院判處涉案業(yè)主有期徒刑。2024年底前字節(jié)跳動(dòng)起訴實(shí)習(xí)生篡改代碼攻擊公司內(nèi)部模型訓(xùn)練一案,已獲北京市海淀區(qū)人民法院正式受理,若是公司線上項(xiàng)目確因代碼篡改受損,造成終端用戶包括人身傷害在內(nèi)的損害,涉事人將可能面臨民事甚至刑事指控(如破壞生產(chǎn)經(jīng)營(yíng)罪)。
2025年3月底,一輛小米SU7汽車在高速上爆燃,導(dǎo)致3人死亡。這起事件引發(fā)了公眾對(duì)智能駕駛系統(tǒng)的廣泛討論?,可能是人工智能造成人身傷害的典型情形之一。雖然目前事故責(zé)任未有定論,并不排除部分可追溯至算法設(shè)計(jì)缺陷或傳感器故障。2025年4月16日,工信部一場(chǎng)閉門會(huì)議明確要求車企禁用“自動(dòng)駕駛”“高階智駕”等誤導(dǎo)性術(shù)語(yǔ),統(tǒng)一為“組合輔助駕駛”,強(qiáng)調(diào)當(dāng)前量產(chǎn)車型的輔助駕駛系統(tǒng)(L2級(jí))仍以“人機(jī)共駕”為核心,終端用戶即駕駛?cè)诵枋冀K承擔(dān)安全責(zé)任。也即是說(shuō),當(dāng)前車企對(duì)于“智能”駕駛夸大宣傳,而消費(fèi)者認(rèn)知錯(cuò)位,監(jiān)管部門不得不涉入這中間的模糊地帶,對(duì)于智能駕駛可能造成的安全責(zé)任暫時(shí)直接進(jìn)行了責(zé)任劃分。
四、總結(jié)
人工智能的全球治理趨勢(shì)為以中國(guó)、歐盟為代表的嚴(yán)格派,強(qiáng)制備案、全鏈條責(zé)任、高風(fēng)險(xiǎn)禁用和以美國(guó)和新加坡為代表的靈活派,尊重行業(yè)自律和技術(shù)工具,側(cè)重安全與創(chuàng)新平衡。結(jié)合全球司法實(shí)踐,企業(yè)應(yīng)建立合規(guī)框架,明確自身責(zé)任,通過(guò)合同等模式劃清責(zé)任范圍、進(jìn)行賠償限制等。




