2024 年 2 月,加拿大不列顛哥倫比亞省民事仲裁庭作出了一項在 AI 法律史上具有里程碑意義的裁決:加拿大航空必須兌現其客服聊天機器人向乘客 Jake Moffatt 承諾的喪親折扣——儘管這項折扣政策實際上並不存在。[1]加拿大航空辯稱,聊天機器人是一個「獨立的法律實體」,其陳述不代表公司立場。仲裁庭駁回了這個論點,裁定企業對其部署的 AI 系統的所有輸出承擔責任——無論這些輸出是否正確。這個案例看似簡單,但它觸及了一個 AI 時代最根本的法律問題:當 AI Agent 自主做出決策、與人類互動、甚至造成損害時,誰應該承擔法律責任?這個問題不是學術空論——隨著代理式 AI(Agentic AI)從實驗室走向商業部署,AI 系統正在自主地執行越來越複雜的任務:預約航班、管理投資組合、撰寫法律文件、甚至進行醫療診斷輔助。每一個自主決策都潛藏著責任歸屬的法律風險。在我過去於劍橋大學從事科技治理研究,以及目前帶領超智諮詢為企業部署 AI 系統的經驗中,我深刻體會到:AI 責任問題不僅是法律技術問題,更是一個涉及效率、公平與創新激勵的制度設計挑戰。
一、傳統法律框架的三重困境
要理解 AI 責任問題的難度,首先需要理解為什麼現有的法律框架無法直接套用。
代理法(Agency Law)的困境。傳統代理法規範的是「本人」(principal)與「代理人」(agent)之間的法律關係——代理人在本人授權範圍內行為,其法律效果歸屬於本人。[2]表面上看,AI Agent 與人類代理人有結構相似性:企業(本人)部署 AI Agent(代理人)為其執行任務。然而,代理法的核心前提是代理人具有法律行為能力(legal capacity)——即理解其行為的法律含義並為之負責的能力。AI 不具備這種能力。更根本的是,代理法預設了代理人的行為可以被本人合理預見和控制——但對於使用深度學習的 AI 系統,其在特定情境下的具體輸出往往連開發者自己也無法完全預測。[3]加拿大航空案中,航空公司聲稱聊天機器人是「獨立實體」的辯護策略,正是試圖利用代理法的這個縫隙——如果 AI 不是合格的代理人,那麼企業是否仍需為其行為負責?仲裁庭的回答是明確的:是的。但這個回答更多是基於消費者保護的政策考量,而非對代理法理論的重新建構。
產品責任法(Product Liability)的困境。傳統產品責任法將產品區分為有形商品,並根據「製造缺陷」、「設計缺陷」或「警告缺陷」來判斷製造者的嚴格責任(strict liability)。[4]AI 系統挑戰了這個框架的多個前提。首先,AI 是軟體而非有形商品——多數產品責任法律的「產品」定義是否涵蓋純軟體,在各法域尚無定論。其次,AI 系統是持續學習的——一個經過部署後微調或再訓練的 AI 模型,其行為特徵可能與出廠時顯著不同,這使得「缺陷」的時間點難以確定。第三,AI 的行為具有情境依賴性——同一個模型在不同的輸入、不同的上下文中可能產生截然不同的輸出,「設計缺陷」的判斷標準因此變得模糊。[5]
過失侵權法(Negligence)的困境。過失侵權的核心要件是:被告違反了「合理注意義務」(duty of reasonable care),導致原告受到可預見的損害。[6]在 AI 語境中,每一個要件都變得模糊。「合理注意義務」的標準是什麼?——是業界最佳實踐?是現有技術所能達到的最低幻覺率?還是與人類專業人士相當的準確率?「可預見性」在統計學習系統中意味著什麼?——開發者可以預見模型「有時會出錯」,但無法預見它在哪個特定情境下會出什麼特定的錯。[7]「因果關係」在複雜的 AI 決策鏈中如何確定?——當一個 AI Agent 基於多個子模組的串聯輸出做出最終決策時,哪個環節的「錯誤」是損害的法律原因?
二、法經濟學分析:最優責任規則的設計
法經濟學(Law and Economics)為 AI 責任的制度設計提供了一個規範性的分析框架。Guido Calabresi 在其經典著作《事故的成本》中提出,事故責任制度的目標應該是「最小化事故的社會總成本」——包括事故本身的損害、預防事故的成本、以及行政處理事故的成本。[8]
在這個框架下,最優的 AI 責任規則應該滿足三個條件。第一,創造正確的預防激勵——責任應分配給最有能力以最低成本預防損害的一方(即「最低成本避免者」,least-cost avoider)。在 AI 供應鏈中,最低成本避免者通常是 AI 系統的開發者和部署者,而非終端使用者——因為前者擁有技術能力來改善系統的安全性,而後者通常缺乏理解和修改 AI 行為的能力。[9]
第二,不過度抑制創新。如果責任規則過於嚴格——例如對所有 AI 錯誤施加絕對的嚴格責任——可能導致企業放棄開發和部署有社會價值的 AI 應用。Steven Shavell 的分析表明,在加害人活動水平可變的情況下,嚴格責任優於過失責任,因為它同時激勵加害人採取最優的預防措施和最優的活動水平。[10]但這個結論需要在 AI 語境中被審慎適用——如果嚴格責任導致 AI 醫療診斷系統因責任風險而退出市場,社會可能因此失去該技術本可挽救的生命。
第三,降低資訊不對稱。AI 系統的內部運作對於受害者而言通常是不透明的——他們無法得知模型的訓練資料、架構選擇或已知的限制。這種資訊不對稱使得受害者在傳統的過失責任制度下幾乎不可能舉證證明開發者的「過失」。[11]歐盟的 AI 責任指令提案針對這個問題引入了「舉證責任轉換」(reversal of burden of proof)和「資訊揭露請求權」——讓受害者可以要求 AI 系統的提供者揭露相關技術資訊,並在特定條件下推定因果關係成立,由被告舉證反駁。
從賽局理論的視角,AI 責任規則的設計可以建模為一個「機制設計」(mechanism design)問題——設計者(立法者)需要設計一套規則,使得在這套規則下,各參與者(開發者、部署者、使用者)的自利行為能夠導向社會最優的結果。最優的機制應該是「激勵相容」(incentive compatible)的——即各方在追求自身利益的同時,自然地做出有利於整體社會福利的行為。
三、歐盟模式:AI 責任指令與新產品責任指令
歐盟在 AI 責任的制度建構上走在全球前列,提出了兩項相互配合的立法提案。
AI 責任指令(AI Liability Directive, AILD)於 2022 年 9 月提出,旨在調整非契約民事責任規則以適應 AI 系統。[12]其核心創新包括兩個機制。第一,「舉證責任推定」——當原告能夠證明被告未遵守特定的注意義務(如歐盟 AI 法案規定的義務),且存在與 AI 輸出相關的損害,則推定因果關係成立,除非被告能夠反駁。這大幅降低了受害者的舉證障礙。第二,「資訊揭露權」——受害者可以向法院申請要求高風險 AI 系統的提供者或使用者揭露與損害相關的技術證據。這個權利直接回應了 AI 系統「黑箱」特性所造成的資訊不對稱問題。
新產品責任指令(Revised Product Liability Directive, PLD)的修訂同樣具有深遠意義。2024 年通過的新 PLD 明確將「軟體」納入「產品」的定義——包括 AI 系統和 AI 驅動的服務。[13]這意味著 AI 軟體的開發者將像傳統製造商一樣,對其產品的缺陷承擔嚴格責任(無需證明過失)。更重要的是,新 PLD 將「產品缺陷」的定義擴展為包括產品在投入市場後因持續學習而產生的缺陷——直接回應了 AI 系統「動態演化」的特性。
這兩項立法的組合效果是建立了一個「雙軌制」:對於高風險 AI 系統(如歐盟 AI 法案定義的),採用嚴格責任(通過新 PLD)加上舉證責任轉換(通過 AILD);對於其他 AI 系統,採用過失責任但配備資訊揭露機制。[14]這個設計體現了風險分級的治理哲學——責任的嚴格程度與 AI 系統的風險等級成正比。
四、自動駕駛:責任歸屬的前沿戰場
自動駕駛是 AI 責任問題最具體、也最緊迫的應用場景。SAE International 定義的自動駕駛六級分類(Level 0 至 Level 5),不僅是技術標準——它也是責任轉移的光譜。[15]
在 Level 2(部分自動化,如特斯拉 Autopilot),人類駕駛必須持續監督系統運作——責任主體明確為人類駕駛。但隨著自動化程度提高至 Level 3(條件自動化)及以上,人類從「駕駛者」轉變為「乘客」,責任的重心必然從個人轉移至系統的開發者和部署者。[16]
各國採取了不同的立法策略。德國在 2021 年修訂《道路交通法》(StVG),成為全球首個為 Level 4 自動駕駛建立法律框架的國家。法案要求 Level 4 車輛配備「技術監督者」(technical supervisor),並建立了最高 1,000 萬歐元的專項賠償基金。[17]英國在 2024 年通過《自動駕駛車輛法案》(Automated Vehicles Act),引入了「授權自動駕駛實體」(Authorised Self-Driving Entity, ASDE)的概念——ASDE 對自駕模式下的事故承擔主要民事責任,替代了傳統的駕駛人責任。[18]美國則呈現碎片化格局——聯邦層面尚無統一立法,各州自行制定規則,加州、亞利桑那州與德州的標準各異。
特斯拉的案例是觀察 AI 責任爭議的窗口。2023 年至 2025 年間,美國多起涉及特斯拉 Autopilot 和「Full Self-Driving」(FSD)的致命事故引發了大量訴訟。特斯拉的辯護策略是:FSD 僅為 Level 2 輔助駕駛,人類駕駛必須隨時準備接管——因此責任在於人類。但原告律師反駁:特斯拉的行銷語言(「Full Self-Driving」)創造了「系統可以自主駕駛」的合理期待,構成了產品責任法上的「警告缺陷」。[19]這些案例揭示了一個更廣泛的張力:AI 企業在行銷時傾向於誇大系統的自主能力,但在面臨責任時又傾向於強調人類監督的必要性——這種「責任推卸的雙重標準」是 AI 責任治理中需要正面處理的問題。
五、AI 責任保險:風險分擔的市場機制
法律責任框架的有效運作需要保險市場的配合。如果 AI 開發者和部署者面臨無法保險的潛在責任,他們可能選擇不開發或不部署有社會價值的 AI 系統——這是一個社會損失。
AI 責任保險是一個正在快速發展的新興市場。2024-2025 年間,Lloyd's of London、AXA、Munich Re 等保險巨頭已推出了專門的 AI 責任保險產品。[20]然而,AI 系統的保險精算面臨獨特的挑戰:傳統保險精算依賴於大量的歷史損失數據來估算風險概率和損失分布——但 AI 技術的快速演化意味著歷史數據的預測價值有限。此外,AI 的「長尾風險」(low-probability, high-impact events)——如大規模的自動交易系統失靈或自駕車連鎖事故——可能超出傳統保險的承保能力。
一個可能的制度創新是「AI 損害賠償基金」——類似於環境污染損害賠償基金或核能事故賠償基金。[21]由 AI 產業鏈中的參與者(開發者、部署者)按比例繳納基金,用於賠償 AI 造成的損害。這種集體化的風險分擔機制可以解決個別企業無法承受的大規模損害問題,同時通過差異化的繳費費率(基於 AI 系統的風險等級)創造正確的預防激勵。德國自動駕駛法案中的 1,000 萬歐元賠償基金,可以被視為這個方向的先驅實驗。
六、台灣的制度建構:從基本法到實施細則
台灣《人工智慧基本法》(2025)確立了「以人為本」、「安全可信」、「公平透明」等基本原則,但在 AI 責任的具體制度設計上仍有顯著的空白。[22]
目前,台灣 AI 相關損害的法律處理主要依賴三個既有框架:民法侵權行為(第 184 條過失責任、第 191-1 條商品製造人責任)、消費者保護法(第 7 條企業經營者責任)、以及特定領域的專法(如醫療法、金融消費者保護法)。[23]然而,正如前述分析所揭示的,這些框架在面對 AI 系統的特殊性時都面臨適用上的困難。
我認為台灣應在人工智慧基本法的框架下,制定專門的 AI 責任實施細則。具體建議如下:
第一,採用風險分級的責任模式。參考歐盟的雙軌制設計:對高風險 AI 系統(如醫療診斷、信用評估、自動駕駛)採用嚴格責任或推定過失責任;對一般 AI 系統維持過失責任但強化舉證機制。風險分級應與台灣未來制定的 AI 風險分類框架相銜接。
第二,建立 AI 損害的舉證輔助機制。參考歐盟 AILD 的「資訊揭露權」設計,允許受害者在訴訟中要求 AI 系統的提供者揭露與損害相關的技術資訊——包括訓練資料的來源、模型的已知限制、以及輸出的決策邏輯(在技術可行的範圍內)。
第三,探索 AI 責任保險與賠償基金制度。對於高風險 AI 應用(如自動駕駛),要求提供者購買最低額度的責任保險或繳納賠償基金。這既保障了受害者的求償權,也為 AI 產業提供了可預測的風險管理框架。
七、結語:責任作為信任的基礎設施
AI 責任框架的建構,本質上是在回答一個社會契約的問題:我們願意在什麼條件下,將決策權委託給自主的 AI 系統?答案必然不是「無條件信任」,也不是「完全拒絕」——而是「在適當的責任機制保障下,有條件地信任」。
一個設計良好的 AI 責任框架應該同時服務三個目標:保護受害者——確保因 AI 系統造成損害的個人能夠獲得合理的補償;激勵安全——驅使 AI 開發者和部署者投入適當的資源來預防損害;以及促進創新——不因過度的責任風險而抑制有社會價值的 AI 應用的開發和部署。這三個目標之間存在張力,而任何責任規則都是在這些張力之間尋找動態平衡的嘗試。
回到加拿大航空案的啟示:企業不能一方面享受 AI 自動化帶來的效率收益,另一方面又試圖將 AI 的錯誤歸咎於「獨立的系統」。部署 AI 的決策帶來收益,也必須承擔相應的責任——這是市場經濟的基本原則,不會因為決策者從人類變成了演算法就有所不同。在AI Agent 經濟快速擴張的時代,建立清晰、公平、可執行的責任框架,不是阻礙創新——而是為創新提供信任的基礎設施。
References
- Moffatt v. Air Canada (2024). Civil Resolution Tribunal, British Columbia. Decision No. 2024 BCCRT 149. canlii.org
- Restatement (Third) of Agency. (2006). American Law Institute.
- Chopra, S. & White, L. F. (2011). A Legal Theory for Autonomous Artificial Agents. University of Michigan Press.
- Restatement (Third) of Torts: Products Liability. (1998). American Law Institute. §§ 1-2.
- Selbst, A. D. (2020). Negligence and AI's Human Users. Boston University Law Review, 100(4), 1315–1376. bu.edu
- Prosser, W. L. (1971). Handbook of the Law of Torts (4th ed.). West Publishing.
- Scherer, M. U. (2016). Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, 29(2), 353–400. jolt.law.harvard.edu
- Calabresi, G. (1970). The Costs of Accidents: A Legal and Economic Analysis. Yale University Press.
- Shavell, S. (2004). Foundations of Economic Analysis of Law. Harvard University Press.
- Shavell, S. (1980). Strict Liability versus Negligence. The Journal of Legal Studies, 9(1), 1–25. doi.org
- Buiten, M. C. (2019). Towards Intelligent Regulation of Artificial Intelligence. European Journal of Risk Regulation, 10(1), 41–59. doi.org
- European Commission. (2022). Proposal for a Directive on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directive). COM(2022) 496 final. eur-lex.europa.eu
- European Parliament and Council. (2024). Directive (EU) 2024/2853 on liability for defective products (Revised Product Liability Directive). eur-lex.europa.eu
- Wendehorst, C. (2023). Liability for AI-Based Products and Services. In The Cambridge Handbook of Responsible Artificial Intelligence. Cambridge University Press.
- SAE International. (2021). Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles. SAE J3016. sae.org
- Geistfeld, M. A. (2017). A Roadmap for Autonomous Vehicles: State Tort Liability, Automobile Insurance, and Federal Safety Regulation. California Law Review, 105(6), 1611–1694. doi.org
- Bundesministerium für Digitales und Verkehr. (2021). Gesetz zum autonomen Fahren (Autonomous Driving Act). BGBl. I S. 3108. bmdv.bund.de
- UK Parliament. (2024). Automated Vehicles Act 2024. legislation.gov.uk
- Reuters. (2025). Tesla faces lawsuits over Autopilot and Full Self-Driving crashes. reuters.com
- Lloyd's of London. (2024). AI Risk: The Insurance Opportunity. lloyds.com
- Vladeck, D. C. (2014). Machines without Principals: Liability Rules and Artificial Intelligence. Washington Law Review, 89(1), 117–150. digitalcommons.law.uw.edu
- 行政院. (2025). 人工智慧基本法. 行政院
- 全國法規資料庫. 民法、消費者保護法. law.moj.gov.tw