人工智慧(AI)的快速發展正在對法律體系構成前所未有的挑戰。從生成式 AI 的版權爭議、自動駕駛的責任歸屬,到演算法決策的公平性與透明性——這些問題觸及了法律最基本的概念框架:什麼是「創作」?什麼是「過失」?什麼是「歧視」?作為一位法學博士出身、近年來深度投入 AI 技術應用的研究者,我在名古屋大學的法學訓練、劍橋大學的科技政策研究,以及目前帶領超智諮詢的 AI 開發實踐中,持續面對法律與技術之間的張力。本文從版權、責任、監管框架三個核心維度,分析 AI 時代的法律挑戰,並基於歐盟、美國、中國三大法域的比較,提出前瞻性的制度建議。

一、AI 的法律真空:為什麼現行法律框架不夠用

現代法律體系的基礎假設是:法律行為的主體是「人」(自然人或法人)。所有的權利、義務、責任,都以「人」為歸屬對象。但 AI 的出現動搖了這個假設——當一個演算法自主生成了一幅畫作、做出了一個貸款拒絕決定、或導致了一起交通事故時,法律應該如何歸責?

這個問題並非純粹的理論思辨。在我的法學研究生涯中,我親身見證了三波 AI 法律衝擊的演進。

第一波衝擊(2015-2019)來自「專用型 AI」——特別是演算法決策(algorithmic decision-making)在金融、保險、刑事司法等領域的應用。當銀行使用 AI 模型來審核貸款申請時,被拒絕的申請者是否有權知道拒絕的原因?當法院使用風險評估演算法(如美國的 COMPAS 系統)來輔助量刑決策時,被告是否有權質疑演算法的偏見?這些問題觸及了程序正義的核心——在法治社會中,每一個影響個人權益的決定,都應當具備可解釋性與可挑戰性。但 AI 模型(特別是深度學習模型)的「黑箱」特性,使得「解釋」變得極為困難。[1]

第二波衝擊(2020-2022)來自自動駕駛。當自動駕駛車輛造成事故時,責任應由誰承擔——車主?製造商?軟體開發者?還是 AI 系統本身?傳統的侵權法(tort law)建立在「過失」(negligence)概念之上——行為人因未盡注意義務而造成損害,應承擔賠償責任。但自動駕駛的「行為人」是演算法,它不具有法律上的「注意義務」;而人類駕駛人在完全自動駕駛的場景下可能根本沒有介入事故的機會。這種「責任缺口」(liability gap)使得現行侵權法的適用面臨根本性的困難。[2]

第三波衝擊(2022 年至今)來自生成式 AI。ChatGPT、Midjourney、Stable Diffusion 等生成式 AI 工具的爆發,將 AI 法律挑戰推向了公眾視野的中心。這些工具能夠在幾秒鐘內生成文章、圖像、音樂、程式碼——而這些生成物的法律地位充滿爭議:它們是否構成著作權法保護的「作品」?訓練 AI 模型時使用的受版權保護的數據,是否構成侵權?生成物與訓練數據之間的「相似性」應如何判斷?

這三波衝擊揭示了一個結構性的問題:現行法律體系是在 AI 不存在的時代建構的,它的核心概念——創作者、過失、意圖、人格——都以人類為預設對象。當 AI 開始承擔越來越多原本由人類執行的功能時,法律體系需要的不僅是「修補」,而是「重構」——重新定義基本概念、重新設計責任框架、重新平衡權利與義務的分配。[3]

二、版權的困境:誰擁有 AI 的產出?

版權法(著作權法)或許是受 AI 衝擊最為劇烈的法律領域。在我的研究與實務中,我將 AI 版權問題歸納為三個層次:AI 產出的可版權性、AI 訓練的合法性,以及權利歸屬的模糊性。

第一個層次:AI 產出是否構成「作品」?著作權法保護的是「作者的獨創性表達」——在大多數法域中,「作者」被隱含或明確地定義為自然人。美國版權局在 2023 年的指導文件中明確表示:完全由 AI 自主生成、沒有人類創作性介入的內容,不符合著作權保護的要件。同年,美國法院在 Thaler v. Perlmutter 案中維持了版權局的立場,裁定 AI 系統 DALL-E 生成的圖像不能獲得版權註冊,因為著作權法要求人類作者身份(human authorship)。[4]

然而,在現實中,「完全由 AI 生成」與「完全由人類創作」之間存在大量的灰色地帶。當一位藝術家精心設計了詳細的提示詞(prompt),經過數十次的迭代與篩選,最終從 AI 的輸出中選取並修改了最終作品——這個過程中人類創作性的貢獻應如何量化?美國版權局在 2023 年 Zarya of the Dawn 案中給出了一個初步的答案:整部作品的「敘事編排」具有版權,但其中由 AI 生成的個別圖像不具有版權。這種「逐案審查」的方式雖然靈活,但也帶來了巨大的不確定性。

第二個層次:AI 訓練是否構成「合理使用」?生成式 AI 模型的訓練需要大量的數據——文本、圖像、音樂、程式碼——其中很大一部分受到著作權保護。訓練過程中,這些受保護的作品被複製、分析、統計,最終「學習」到的模式被編碼進模型的參數中。這個過程是否構成著作權法中的「合理使用」(fair use,美國法)或「文本與數據挖掘例外」(text and data mining exception,歐盟法)?

美國目前有多起重要的訴訟案件正在審理中——《紐約時報》訴 OpenAI、Getty Images 訴 Stability AI、多位作家訴 Meta 等。這些案件的核心爭議在於:AI 訓練是否符合「合理使用」的四要件——尤其是「對原作市場價值的影響」這一要件。AI 開發商主張訓練是一種「轉化性使用」(transformative use),因為 AI 學習的是統計模式而非複製原作;權利人則主張 AI 的產出直接與原作構成市場競爭,嚴重損害了其經濟利益。[5]

歐盟與日本在這一問題上採取了不同的立法路徑。歐盟《數位單一市場著作權指令》(2019)為文本與數據挖掘提供了兩項例外:科學研究目的的挖掘不受限制;商業目的的挖掘則允許權利人「選擇退出」(opt-out)。日本著作權法第 30 條之 4 則提供了更為寬泛的例外——允許在不以「享受作品表達」為目的的情況下使用受保護的作品,這被廣泛解讀為對 AI 訓練的一般性許可。

第三個層次:權利歸屬的問題。即使在 AI 產出被認定為可受版權保護的作品時,權利應歸屬於誰——提示詞的撰寫者?AI 模型的開發商?訓練數據的提供者?目前沒有任何法域對此問題有明確的立法回答。這種不確定性對商業應用構成了嚴重阻礙——當一家企業使用 AI 生成了行銷文案或產品設計時,它是否擁有這些產出的版權?如果不擁有,競爭對手是否可以自由使用相同的產出?在我帶領超智諮詢的 AI 開發項目中,這些問題是客戶最常提出的法律疑慮之一。[6]

三、責任框架:當 AI 造成損害,誰來負責?

如果版權問題關乎「創造的權利」,那麼責任問題則關乎「損害的歸屬」。當 AI 系統的決定或行為造成了損害——貸款審核中的歧視、醫療診斷中的誤判、自動駕駛中的事故——現行法律如何分配責任?

傳統的責任法有三種主要的歸責路徑:過失責任(negligence liability,證明被告未盡合理注意義務)、產品責任(product liability,製造商對有缺陷的產品承擔嚴格責任)、以及替代責任(vicarious liability,僱主對員工的侵權行為承擔責任)。AI 系統的特性使得這三種路徑都面臨適用困難。

過失責任的困難在於「可預見性」。過失的認定要求行為人「能夠合理預見」其行為可能造成的損害。但深度學習模型的行為具有本質上的不可預測性——即使是模型的開發者,也無法完全預見模型在所有可能的輸入條件下的行為。當一個醫療 AI 在某個罕見的病例中給出了錯誤的診斷,開發者是否能夠「合理預見」這個錯誤?如果不能,過失責任便無法成立。

產品責任的困難在於「缺陷」的定義。傳統的產品責任法區分了三種缺陷:設計缺陷、製造缺陷與警告缺陷。但 AI 系統的「缺陷」往往不屬於任何一種——模型可能在設計上是合理的、在「製造」(訓練)過程中沒有錯誤、也提供了適當的使用警告,但仍然在特定情境下產生了有害的輸出。此外,AI 系統是持續更新的——訓練後的模型可能透過在線學習(online learning)不斷調整行為,使得「出廠時」與「使用時」的產品特性可能完全不同。歐盟在 2022 年提出的《AI 責任指令》(AI Liability Directive)草案試圖解決這一問題,引入了「可反駁的因果關係推定」(rebuttable presumption of causation)——當 AI 系統存在不合規(non-compliance)的情況,且其與損害之間的因果關係是合理可能的,則推定因果關係成立,舉證責任轉移至被告。[7]

替代責任的困難在於 AI 不是「員工」。替代責任的前提是存在僱傭關係——僱主對員工在工作範圍內的侵權行為承擔責任。一些學者主張將 AI 系統類比為「數位員工」(digital employee),讓部署 AI 的組織承擔類似僱主的責任。這種類比在某些場景下具有直覺上的合理性(例如,銀行使用 AI 進行信用評估,就像使用信用分析師一樣)。但它也面臨理論上的挑戰——替代責任的基礎是僱主對員工行為的「控制權」,而 AI 系統的「自主學習」特性意味著部署者對其行為的控制可能遠不如對人類員工的控制。

在實務中,我認為最可行的方向是建立「基於風險的分層責任體系」——按照 AI 應用的風險等級,適用不同的歸責標準。高風險應用(如醫療診斷、刑事司法、自動駕駛)應適用嚴格責任——部署者無需證明過失即應承擔損害賠償責任,因為其選擇部署高風險 AI 本身即構成了風險的承擔。中風險應用(如信用評估、保險定價)應適用過失推定——部署者需證明其已盡合理注意義務。低風險應用(如推薦系統、內容生成)則適用一般過失責任。這種分層體系的精神,與歐盟《AI 法》(EU AI Act)的「基於風險的分級監管」理念高度一致。[8]

四、全球監管比較:歐盟、美國與中國的三條路徑

在 AI 的監管競賽中,歐盟、美國與中國走上了截然不同的路徑。這三種路徑的差異,深刻反映了不同法律傳統、政治制度與戰略優先序的影響。

歐盟路徑:「規則先行 + 權利導向」。歐盟《AI 法》(EU AI Act)是全球首部全面規範 AI 的立法,於 2024 年正式通過。它採用了「基於風險的分級監管」架構,將 AI 系統按風險等級分為四類:不可接受風險(如社會評分系統、即時遠程生物識別,原則上禁止)、高風險(如醫療器械中的 AI、關鍵基礎設施管理,需符合嚴格的合規要求)、有限風險(如聊天機器人,需滿足透明性義務)、最低風險(如垃圾郵件過濾器,不受額外監管)。[9]

歐盟路徑的核心理念是「基本權利保護」(fundamental rights protection)——AI 的使用不應侵害歐盟公民的基本權利,包括隱私權、非歧視權、有效救濟權等。這種「權利導向」的監管哲學與歐盟的 GDPR 一脈相承,反映了歐洲法律傳統中對個人權利的高度重視。其優勢在於法律的確定性與預見性——企業能夠明確知道什麼是被允許的、什麼是被禁止的。其劣勢在於可能抑制創新——嚴格的合規要求可能使歐洲企業在與美國和中國競爭者的 AI 開發競賽中處於不利地位。

美國路徑:「行業自律 + 執法引導」。與歐盟的全面立法形成鮮明對比,美國至今尚未通過聯邦層級的 AI 綜合立法。拜登政府在 2023 年發布的《AI 行政命令》(Executive Order on AI)設定了安全、隱私與公平的政策方向,但行政命令缺乏國會立法的約束力。美國 AI 監管的實際運作主要依靠兩種機制:一是現有監管機構的「擴大解釋」——例如 FTC(聯邦貿易委員會)將其在消費者保護與反不正當競爭方面的既有權限延伸至 AI 領域;二是行業自律——主要 AI 企業自願作出的安全承諾與最佳實踐指引。[10]

美國路徑的優勢在於靈活性——不預先設定嚴格的規則,而是根據實際問題的出現逐步回應,避免了「過早監管」對創新的壓抑。但其劣勢在於碎片化——不同的聯邦機構與各州可能對相同的 AI 問題採取不同甚至相互矛盾的立場,增加了企業的合規不確定性。加州、科羅拉多州、伊利諾伊州等已經或正在制定各自的 AI 法規,形成了「各州為政」的監管拼圖。

中國路徑:「分散立法 + 國家治理」。中國在 AI 監管方面的立法速度令人矚目。從 2021 年的《個人信息保護法》(PIPL),到 2022 年的《互聯網信息服務深度合成管理規定》(俗稱「深度偽造法」),再到 2023 年的《生成式人工智能服務管理暫行辦法》,中國在短短三年內出台了多部針對特定 AI 應用的法規。與歐盟的「單一綜合立法」不同,中國採取的是「分散立法」策略——針對不同的 AI 應用場景制定專門的管理辦法。

中國路徑的特點在於監管與產業政策的緊密結合。一方面,中國對 AI 的某些應用施加了嚴格的限制——例如要求生成式 AI 的產出必須符合「社會主義核心價值觀」,對深度偽造技術實施標記義務。另一方面,中國將 AI 視為國家戰略優先——「新一代人工智能發展規劃」(2017)設定了到 2030 年成為全球 AI 創新中心的目標。這種「管中有放、放中有管」的策略,反映了我在與 Milanovic 教授對話中所討論的「政治資本主義」的監管邏輯——國家在促進與限制之間靈活切換,服務於更廣泛的國家戰略目標。[11]

三條路徑的比較揭示了一個重要的啟示:AI 監管不存在「最佳模式」——每種路徑都是其所在法律體系、政治制度與經濟發展階段的產物。但無論採取哪種路徑,所有國家都面臨同一個核心挑戰:如何在「促進 AI 創新」與「防範 AI 風險」之間取得動態平衡。

五、前瞻建議:邁向「適應性 AI 法律框架」

基於法學研究訓練與科技政策實踐的雙重經驗,我對 AI 法律框架的未來發展提出以下五點建議。

第一,建立「技術中立、風險導向」的監管原則。AI 技術的演進速度意味著,任何針對特定技術的立法都可能在短期內過時。更有效的方式是制定「技術中立」的監管原則——不是針對「生成式 AI」或「深度學習」制定規則,而是針對「高風險的自動化決策」或「可能影響基本權利的演算法應用」制定規則。這樣,當新的 AI 技術出現時(如量子機器學習),現有的法律框架無需根本性修訂即可適用。歐盟《AI 法》在這方面做了重要的嘗試——它的監管對象是「AI 系統」而非特定的技術方法。[12]

第二,確立 AI 產出的版權「共創」框架。我建議各法域考慮建立一種新的版權類別——「AI 輔助作品」(AI-assisted works),承認人類使用者與 AI 系統的「共創」關係。在這個框架下,版權的授予取決於人類創作性貢獻的程度——貢獻越高,版權保護越強;貢獻越低(例如僅輸入簡單的提示詞),版權保護越弱甚至不存在。同時,應當建立強制性的「AI 生成標記」制度,要求所有包含 AI 生成內容的作品必須清楚標示,以確保公眾的知情權。

第三,建立「事前審計 + 事後追責」的雙軌責任機制。對於高風險 AI 應用,我主張引入強制性的「演算法影響評估」(Algorithmic Impact Assessment, AIA)制度——在 AI 系統部署之前,必須進行系統性的風險評估,包括偏見測試、公平性分析與安全性驗證。評估結果應向監管機構備案,並在必要時向受影響的公眾公開。同時,建立「事後追責」機制——當 AI 系統造成損害時,能否證明已完成事前審計並遵守了審計建議,將成為責任認定的重要考量因素。

第四,推動國際 AI 治理的最低共識。AI 的跨境特性意味著,純粹的國內監管註定是不足的。一個在歐盟開發、在美國訓練、在全球部署的 AI 系統,應適用哪國的法律?當不同法域的要求相互矛盾時(例如歐盟要求高透明度而中國要求內容審查),企業應如何應對?我認為國際社會需要建立 AI 治理的「最低共識」——不是統一的全球法律(這在短期內不可行),而是一組各國都能接受的最低標準,涵蓋安全性、透明性、非歧視與人類監督等核心原則。OECD 在 2019 年發布的《AI 原則》與 2023 年的《廣島 AI 進程》,是朝這個方向邁出的重要步伐。

第五,將「法律素養」納入 AI 教育與開發實踐。在我帶領超智諮詢的 AI 開發團隊時,我始終強調:每一個技術決策都蘊含著法律與倫理的維度。選擇什麼訓練數據,就是在做版權與隱私的決策;選擇什麼損失函數,就是在做公平性與歧視的決策;選擇什麼部署方式,就是在做責任與安全的決策。AI 開發者不需要成為律師,但他們需要具備基本的法律意識——理解自己的技術選擇可能產生的法律後果。同樣,法律工作者也需要理解 AI 的基本原理——否則他們無法有效地監管一項他們不理解的技術。

回顧全文,AI 時代的法律挑戰不僅是「技術問題的法律化」,更是「法律本身的現代化」。在名古屋大學攻讀法學博士時,我研究的是金融監管的法律架構——一個相對穩定的領域。而今天,AI 正以前所未有的速度重塑法律的對象、手段與目標。面對這種變革,法律體系需要的不是防守性的「堵漏」,而是進攻性的「重構」——重新思考創作、責任、公平與治理的基本概念,以適應一個人機共存的新時代。這是我們這一代法律研究者與政策制定者的核心使命。

References

  1. Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press.
  2. Scherer, M. U. (2016). Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, 29(2), 353–400.
  3. Calo, R. (2017). Artificial Intelligence Policy: A Primer and Roadmap. UC Davis Law Review, 51(2), 399–435. ucdavis.edu
  4. U.S. Copyright Office. (2023). Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence. Federal Register, 88 FR 16190. copyright.gov
  5. Samuelson, P. (2023). Generative AI Meets Copyright. Science, 381(6654), 158–161. doi.org
  6. Grimmelmann, J. (2016). There's No Such Thing as a Computer-Authored Work — And It's a Good Thing, Too. Columbia Journal of Law & the Arts, 39(3), 403–416.
  7. European Commission. (2022). Proposal for a Directive on Adapting Non-Contractual Civil Liability Rules to Artificial Intelligence (AI Liability Directive). COM(2022) 496 final.
  8. European Parliament. (2024). Regulation (EU) 2024/1689 Laying Down Harmonised Rules on Artificial Intelligence (AI Act). Official Journal of the European Union.
  9. Veale, M. & Borgesius, F. Z. (2021). Demystifying the Draft EU Artificial Intelligence Act. Computer Law Review International, 22(4), 97–112. doi.org
  10. The White House. (2023). Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. whitehouse.gov
  11. Roberts, H. et al. (2021). The Chinese Approach to Artificial Intelligence: An Analysis of Policy, Ethics, and Regulation. AI & Society, 36, 59–77. doi.org
  12. OECD. (2019). Recommendation of the Council on Artificial Intelligence. OECD/LEGAL/0449. oecd.ai
返回洞見