日本一区二区不卡视频,高清成人免费视频,日日碰日日摸,国产精品夜间视频香蕉,免费观看在线黄色网,国产成人97精品免费看片,综合色在线视频

申請實習證 兩公律師轉社會律師申請 注銷人員證明申請入口 結業人員實習鑒定表申請入口 網上投稿 《上海律師》 切換新版
當前位置: 首頁 >> 業務研究大廳 >> 專業委員會 >> 國際法專業委員會 >> 專業論文

人工智能生成內容責任初探——主要國家治理框架與案例實踐

    日期:2025-12-24     作者:漆艷(國際法專業委員會、泰和泰(上海)律師事務所)

近兩三年,全球人工智能(AI)呈現爆發式發展。生成式人工智能(如ChatGPT、Sora)和多模態模型推動,在金融、醫療、自動駕駛、創意產業等領域得到深度應用。2025DeepSeek橫空出世,AI應用加速全民化,也引發了全球法規及倫理風險的關注,多國加強人工智能治理框架,全球監管呈現出“備案主導、數據優先、責任分層”的特點,也產生了不少案例實踐,本文試對其匯總、點評,就人工智能生成內容的責任問題進行初淺探討。

一、主要國家治理框架簡述

(一)中國

2023年國家網信辦等七部委聯合公布了《生成式人工智能服務管理暫行辦法》,要求生成式人工智能服務需根據《生成式人工智能服務管理暫行辦法》履行算法備案和安全評估義務,責任主體為服務提供者。若未備案,可能面臨警告、罰款或服務下架等處罰。在數據安全與隱私方面,企業應遵循《數據安全法》《個人信息保護法》,對數據來源、處理流程進行嚴格規范,禁止非法留存用戶信息。在知識產權與版權方面,人工智能生成內容需體現“人類智力投入”方可獲版權保護,否則無法確權,完全由人工智能自主生成的內容不享有版權。

(二)歐盟

《通用數據保護條例》(GDPR)嚴格約束數據跨境流動,要求高風險AI系統(如醫療、招聘)進行全鏈條監管。歐盟《AI法案》分階段實施,禁止特定高風險應用(如社會信用評分),要求技術文檔披露和第三方測試。在責任分配方面,強調平臺方責任,即使通過API間接提供服務,也需承擔內容風控義務。歐洲數據保護委員會(CEPD)將DeepSeek納入調查范圍,重點關注其數據合規性,反映了歐盟對AI服務全鏈條監管的嚴格態度。

(三)美國

在人工智能方面美國側重國家安全與技術中立,依賴企業自律。202410月發布的《促進國家安全中人工智能治理與風險管理的框架》確立了四大支柱:限制高風險AI應用(如生物識別、軍事決策輔助)、制定風險管理實踐(包括偏見審查與人類監督)、分類監控AI系統、強化培訓與問責機制。司法判例方面逐步明確平臺責任,若AI輸出侵權或虛假信息,平臺可能承擔連帶責任。通過《2025年美中人工智能能力脫鉤法案》限制對華技術合作,禁止軍方使用存在風險的AI技術,政府通過出口管制(如限制高帶寬芯片)間接約束技術發展。同時,美國拒絕簽署《巴黎AI宣言》,在技術競爭方面單邊傾向明顯。

(四)新加坡

新加坡通過《國家人工智能戰略》(NAIS)推動成為全球AI領導者,構建“技術-數據-信任”三位一體的生態系統,并注重敏捷監管與風險分層管理。治理框架上采用“軟法優先”模式,如《模型AI治理框架》和《可信數據共享框架》,強調企業自律、透明度和可解釋性,輔以技術工具(如AI Verify)驗證系統合規性。對生成式AI增設安全評估與內容溯源要求。金融領域推行“FEAT原則”(公平、倫理、問責、透明),醫療領域結合ISO標準強化AI醫療器械全生命周期管理,并通過立法限制基因數據濫用。在國際合作方面主導東南亞語言大模型(SEA-LION),推動區域技術協同,參與東盟及國際標準制定。

二、人工智能開發鏈中的各方

2024530日,新加坡人工智能驗證基金會(AI Verify Foundation)與新加坡信息通信媒體發展管理局(Infocomm Media Development Authority of Singapore, IMDA)聯合發布《生成式人工智能模型治理框架》(Model AI Governance Framework for Generative AI),提出生成式人工智能治理九個維度。這是AI Verify FoundationIMDA整理借鑒全球主要司法管轄區、國際組織、研究機構和領先的人工智能組織的見解、討論和反饋后形成的正式框架,反映了生成式人工智能中新興的原則、關注點和技術發展。

《生成式人工智能模型治理框架》(“《框架》”)的第一個治理維度就是可問責?!犊蚣堋诽岢?,可問責是培育可信人工智能生態的關鍵因素,人工智能開發全鏈條的參與者,包括模型開發者、應用程序部署者、云服務提供商等都需要對最終用戶負責。

根據此框架,生成式人工智能開發全鏈條里的成員,包括以下四層:

(一)            處于最頂端的模型開發者。像OpenAI一樣,這些是其他公司可以為其產品和服務構建的基本模型。但模型開發者可能無法掌控其模型如何被下游的公司所使用。

(二)            應用開發者——開發解決方案而使用AI技術的人。但應用開發者可能無法控制其AI解決方案如何被下游公司所使用。

(三)            應用部署者——向最終用戶提供AI解決方案的人。但應用部署者可能并不知此AI解決方案是如何開發的,應用了何等數據進行訓練的,等等。

(四)            最終用戶。但最終用戶可能因故意操縱系統而違反安全規約。若用戶通過繞過安全護欄故意生成侵權內容等,需自行擔責;

新加坡同時建議探索“無過錯責任保險”,覆蓋開發者、部署者及用戶等各層面成員的潛在損失。

根據歐盟議會,“安全和責任是同一枚硬幣的兩面”,人工智能開發鏈中各方在什么情況下應承擔責任,責任如何分配呢?通過主要國家近年的案例,了解其在知識產權侵權、倫理與公平性、人身傷害等方面的司法實踐。

三、AI生成內容的責任分配與認定

(一)知識產權歸屬、侵權與賠償責任

英國《版權、設計和專利法》(CDPA)第9.3節規定,計算機生成作品的作者被視為對該作品創作進行“必要安排”的自然人或法人。此類作品指在沒有人類作者直接參與創作的情況下,完全由計算機生成的內容(如AI自動生成的文字、圖像等)。根據該條款,版權歸屬于對作品生成過程投入實質性安排或指令的主體,例如編寫算法、設定參數或提供數據輸入的人員或機構。此規定使計算機生成作品在英國可獨立享有版權保護(保護期50年),與人類創作作品區分,但強調權利歸屬需基于對創作過程的組織或干預。

新加坡《2021年版權法》并未直接討論“作者身份”這一話題,并沒有與英國的CDPA9.3節內容相對應的規定。但Global Yellow Pages Ltd v. Promedia Directories Pte Ltd2017)是新加坡最高法院關于版權法“原創性”認定的重要判例。法院明確,作品須由人類智力創造且與最終成果存在“充分因果聯系”方可受版權保護。本案中,原告主張其電話目錄享有版權,但法院認為其編排未體現創造性勞動,僅屬機械性整理,故不構成原創作品。判決進一步指出,若無法確定人類作者身份或作品完全由非人類(如AI)生成,則版權主張不成立。Global Yellow Pages案似乎創立了一個“人類創作因果鏈”原則,即要求作品須體現“人類智力參與”(“engagement of the human intellect )、“智力的投入……或腦力勞動的運用”(“the application of intellectual effortor the exercise of mental labour”)、“與最終作品存在充分的因果關聯”(“sufficient causal nexus with the final work”)。此案確立了新加坡版權法對“人類智力投入”的嚴格要求,否定了純算法或自動化生成內容的可版權性,直接影響AI生成內容的法律地位,與英國等允許AI作品有條件受保護的立法形成對比。

無獨有偶,中國國內“AI文生圖”著作權第一案,也認可創作過程中人類參與的必要性。20232月,李某使用開源AI繪圖軟件(如Stable Diffusion)通過輸入提示詞、調整參數(如畫面布局、人物設計等),經多次修改后生成一張圖片,發布于小紅書平臺。隨后,劉某在百家號發布文章時未經授權使用該圖,并去除李某的署名水印。北京互聯網法院審理認為,盡管涉案圖片由AI生成,但李某在創作過程中需設計提示詞、調整參數并反復篩選結果,體現了個性化表達與智力投入、審美選擇,上述過程滿足著作權法對“智力成果”和“獨創性”的要求,因此該圖片構成美術作品,李某享有著作權。未經許可并去除署名的發布,使公眾可以在其選定的時間和地點獲得涉案圖片,侵害了李某就涉案圖片享有的信息網絡傳播權。此案為國內首例明確AI生成內容可版權化的判決,強調人類主導的創作過程是關鍵,若AI完全自主生成(無人類干預)則無法獲得版權。

同樣,美國僅認可人類編輯后的內容版權,純AI生成內容不受保護。Jason Allen案圍繞藝術家Allen使用AI工具Midjourney創作的獲獎畫作版權爭議展開。美國版權局于2023年以“AI生成內容占比過高”為由拒絕其整體版權注冊,僅允許對人類修改部分(如Photoshop調整)申請保護。Allen主張其投入超100小時、624次提示詞調整及后期處理,創作過程類似導演或攝影師的創造性勞動,應享有完整版權。然而,版權局認為Midjourney的生成機制依賴算法訓練數據,用戶提示詞無法對最終輸出形成“實質控制”,AI貢獻部分屬“機械復制”而非人類原創構思,故不符合版權法對“人類作者身份”的要求。Allen提起上訴,援引最高法院判例質疑版權局決策的武斷性,并要求重新審查。也有其他類似案件共同凸顯了美國現行法律在AI生成內容保護中的模糊性。

Getty ImagesStability AI是全球首例大型AIGC侵權訴訟案件。 Getty Images在倫敦高等法院、美國地方法院均起訴Stability AI未經授權使用其數百萬張版權圖片訓練AI模型Stable Diffusion,指控其構成大規模版權侵權。Getty指出,AI模型通過復制并解構其圖片庫內容生成相似圖像,損害了版權價值與市場利益。Stability AI辯稱訓練數據屬于“合理使用”,且輸出內容為算法重組結果,非直接復制原圖。此案爭議焦點在于:AI訓練是否構成對原始作品的“演繹”或“復制”,以及技術中立原則與版權保護的平衡。案件或推動法律明確AI訓練數據合法性邊界,影響生成式AI開發模式。目前美國法院尚未判決。但歐盟《人工智能法案》草案已要求披露訓練數據來源,預示監管趨嚴。歐盟《AI責任指令》也引入“因果關系推定”,要求被告自證無過錯。

中國廣州互聯網法院于20242月對全球首例生成式AI服務侵犯著作權案作出判決,認定被告AI平臺(Tab網站)生成的奧特曼形象圖片與原告權利作品構成“實質性相似”,侵犯了復制權和改編權,要求平臺停止侵權并賠償經濟損失。判決指出,AI服務提供者需采取有效過濾措施(如關鍵詞屏蔽),確保用戶輸入相關提示詞時無法生成侵權內容,并履行注意義務,包括建立投訴機制、風險提示及顯著標識生成物等,即使模型由第三方開發。但遺憾的是,這一“全球首例”案未涉及底層模型開發方、應用開發方、應用部署方之間的責任劃分。

(二)倫理責任、偏見與歧視

“能做”與“應做”體現了法律與治理的沖突,即使技術上可行(如使用個人數據或受版權材料訓練AI),企業需評估是否符合倫理,及社會所期待的公平性。生成式人工智能可能產生“文化偏見”,也可能出現“道德風險”。類似的案例在西方比較多。

德國雜志用AI生成舒馬赫獨家專訪并發表,在2024年被判賠償20萬歐元,這一案例凸顯了“技術可行性≠倫理可接受”。

2024年,意大利數據保護機構Garante因生成人工智能應用程序ChatGPT在未經充分法律依據下處理用戶數據用于模型訓練,以及未設置年齡驗證機制,可能導致未成年人接觸到不適當的內容,法院對其制造商OpenAI罰款1500萬歐元,同時要求其開展為期6個月的多平臺公眾教育活動,解釋ChatGPT的數據處理方式及用戶數據保護權利。

美國平等就業機會委員會(EEOC)指控在線教育公司iTutorGroup在招聘中系統性歧視年長求職者,違反《年齡歧視就業法》。EEOC調查發現,該公司通過算法自動拒絕55歲以上女性及60歲以上男性求職者。,且招聘系統設置年齡過濾參數(如隱藏出生年份),導致大量年長求職者被排除。訴訟強調AI工具若未合理設計可能加劇偏見,要求iTutorGroup賠償受害者并改革招聘流程。2023年雙方達成和解,iTutorGroup同意支付36.5萬美元賠償金、修訂篩選機制并加強員工反歧視培訓。此案成為美國首例因AI招聘工具引發年齡歧視的司法案例,警示企業需確保算法決策的透明性與合規性,推動監管對自動化招聘系統的審查。

(三)錯誤與有害內容責任

2022年的Air Canada案,一名用戶因親屬去世需改簽機票,詢問聊天機器人獲回復“可申請退款”,遂購買全價票后遭公司拒賠。加航辯稱機器人屬“獨立法律實體”,其錯誤信息不具約束力。法院認定企業需對自動化工具的輸出負責,因用戶合理信賴公司官方渠道信息,判決加航全額賠償并承擔法律費用。此案確立企業對其AI客服誤導行為不可推責的原則,警示企業須確保自動化系統的準確性與監管,避免技術缺陷轉嫁消費者風險。

2023年也曾發生ChatGPT編造教授性騷擾虛假新聞,OpenAI同樣面臨訴訟。

新加坡判例Quoine Pte Ltd v B2C2 Ltd一案,涉及加密貨幣交易平臺因技術錯誤導致異常交易的法律爭議, 是算法行為主觀性的一個典型爭議。B2C2使用算法以遠高于市價(每10個比特幣兌換1個以太幣)完成交易后,Quoine以錯誤為由取消交易。B2C2起訴其違約,Quoine則主張交易基于單方錯誤應無效。根據新加坡法律,單方錯誤需非錯誤方實際或推定知情并存在不當行為。但法院多數意見認為,判斷關鍵在于算法編程時開發者是否明知或應知錯誤可能被利用,并以此設計程序獲利。此案確立了算法責任需追溯至設計意圖、追溯至開發者的司法原則,即“以程序員意圖為準”原則,對AI及自動化交易中錯誤與責任的界定具有重要影響。

(四)人身傷害責任

人工智能造成人身傷害責任的案例目前不多見。從全球來看,引人注目的是2024年全球首例AI聊天機器人致死訴訟,引發對生成式AI倫理責任、人身傷害責任和未成年人保護的深層討論。14歲美國少年長期沉迷于Character.AI平臺的聊天機器人,尤其是模仿《權力的游戲》中“龍母”的AI角色,他在與機器人最后一次互動后自殺,其母親要求Character.AI的母公司及技術合作方谷歌共同擔責,提出平臺設計存在缺陷:聊天機器人過度“擬人化”,未明確提示AI的虛構性;平臺未有自殺預防機制,反而提供可能鼓勵自殺的回復;允許13歲以上用戶注冊,但缺乏家長控制及內容過濾措施。谷歌辯稱其僅提供技術授權,并非產品開發者;Character.AI辯稱其內容受美國憲法第一修正案保護,強調AI生成內容的責任界限尚不明確。此案仍在美國司法程序,無論能否證明AI與用戶自殺的因果關系,但案件已經引致行業加強監測與責任規范,據稱公司已推出新安全措施,如敏感詞觸發自殺熱線提示、限制未成年人使用時長等。

國內比較接近的案例有2023年杭州AI生成虛假信息擾亂社會秩序案,某小區業主使用ChatGPT編造《杭州31日取消限行》虛假新聞,經社交媒體傳播后引發交通擁堵和公眾恐慌,法院判處涉案業主有期徒刑。2024年底前字節跳動起訴實習生篡改代碼攻擊公司內部模型訓練一案,已獲北京市海淀區人民法院正式受理,若是公司線上項目確因代碼篡改受損,造成終端用戶包括人身傷害在內的損害,涉事人將可能面臨民事甚至刑事指控(如破壞生產經營罪)。

20253月底,一輛小米SU7汽車在高速上爆燃,導致3人死亡。這起事件引發了公眾對智能駕駛系統的廣泛討論?,可能是人工智能造成人身傷害的典型情形之一。雖然目前事故責任未有定論,并不排除部分可追溯至算法設計缺陷或傳感器故障。2025416日,工信部一場閉門會議明確要求車企禁用“自動駕駛”“高階智駕”等誤導性術語,統一為“組合輔助駕駛”,強調當前量產車型的輔助駕駛系統(L2級)仍以“人機共駕”為核心,終端用戶即駕駛人需始終承擔安全責任。也即是說,當前車企對于“智能”駕駛夸大宣傳,而消費者認知錯位,監管部門不得不涉入這中間的模糊地帶,對于智能駕駛可能造成的安全責任暫時直接進行了責任劃分。

四、總結

人工智能的全球治理趨勢為以中國、歐盟為代表的嚴格派,強制備案、全鏈條責任、高風險禁用和以美國和新加坡為代表的靈活派,尊重行業自律和技術工具,側重安全與創新平衡。結合全球司法實踐,企業應建立合規框架,明確自身責任,通過合同等模式劃清責任范圍、進行賠償限制等。