2025 年《人工智慧基本法》三讀通過,標誌著台灣正式進入 AI 治理的制度建構期。這是一個值得肯定的里程碑,但通過只是起點,而非終點。基本法的本質是原則性框架,其七大指導原則雖確立了透明度、可問責性、人本主義等核心價值,但若缺乏配套的子法規、跨部會協調機制與執法能量,再精緻的立法語言也將淪為宣示性文件。環顧國際,歐盟《人工智慧法案》從立法通過到各條款生效,設計了長達 24 至 36 個月的過渡期,且配備了專責的「歐洲人工智慧辦公室」;美國的 AI 治理則透過行政命令與聯邦機構問責指引並行推進。台灣如何在有限的行政資源下,將基本法的精神轉化為可執行的制度架構,是當前政策精英必須直面的核心課題。
一、立法設計邏輯:七大原則的架構意涵
《人工智慧基本法》確立的七大指導原則——以人為本、透明可解釋、隱私與資料保護、安全可靠、公平無歧視、永續發展,以及促進創新——並非隨機排列,而是反映了一套內在一致的治理哲學。細讀立法院審議過程,可以觀察到立法者刻意在「促進創新」與「風險管控」之間尋求平衡:七大原則中前六項皆為約束性原則,最後一項才是賦能性原則,這一排序隱含了「責任先於發展」的立法意志。[1]
然而,原則的排列無法自動解決執行的難題。「透明可解釋」原則涉及的演算法可解釋性要求,在深度學習模型普遍的今日,本身就是一個尚未解決的技術與法律雙重難題。「公平無歧視」原則要求 AI 系統的輸出不得對特定族群產生系統性不利,但什麼是「不公平」的法律定義標準?由誰認定?採用何種測試方法?這些問題在基本法中付之闕如,必須由後續的子法規填補。基本法的價值,更多在於確立了台灣 AI 治理的「憲政慣例」——為未來立法與行政解釋提供了解釋框架,而非直接產生法律效力的操作性規範。[2]
二、跨部會協調的制度困境
AI 治理的本質是跨域的,但台灣的行政體系是垂直分工的——這一結構性矛盾,是 AI 基本法落實最大的障礙。數位部負責數位政策整體協調,科技部(國科會)掌管研發資源,衛福部關切醫療 AI 的安全規範,金管會監管金融 AI 的風險,勞動部面對 AI 取代就業的社會衝擊,教育部思考 AI 時代的人才培育戰略。七個部會,七套優先排序,七種官僚文化。[3]
更深層的問題是「主責機關」的模糊性。基本法並未明確指定哪個部會為 AI 治理的主責機關,僅以「中央主管機關」泛稱,並授權行政院另定。這種設計固然保留了靈活性,卻也埋下了部會間相互推諉的風險。比較日本的經驗:日本在 2023 年於內閣府設置「AI 戰略會議」,由首相直轄,作為跨省廳的最高協調平台,明確賦予內閣府統籌各省廳 AI 相關政策的法定授權。台灣若缺乏類似的頂層協調架構,AI 治理極可能陷入「多頭馬車、各自為政」的困局。
三、國際比較:歐盟、美國與新加坡的治理模型啟示
三個國際模型各有值得台灣借鑒之處。歐盟《AI 法案》(EU AI Act)採用「風險分級監管」架構,將 AI 應用依風險等級分為不可接受風險(全面禁止)、高風險(嚴格規範)、有限風險(透明義務)與最低風險(自願守則)四類。這一框架的優點是監管資源聚焦——高風險領域如生物辨識、關鍵基礎設施、信用評分等,接受最嚴格的事前合規審查;低風險應用則幾乎不受監管,保留創新空間。缺點是分類邊界的認定本身需要極高的技術與法律專業能力,中小企業的合規成本也可能形成市場准入壁壘。[4]
美國拜登政府 2023 年發布的《AI 行政命令》(Executive Order on Safe, Secure, and Trustworthy AI)採取了截然不同的路徑:不立法、而是透過行政命令要求各聯邦機構制定本機構的 AI 使用指引,並授權商務部(NIST)建立 AI 風險管理框架(AI RMF)。這種「去中心化」模式的優點是速度快、靈活度高,缺點是缺乏統一的法律效力與監督機制。新加坡則走了一條務實的「軟法」路線——以《AI 治理框架》(Model AI Governance Framework)作為企業自願遵循的指引,強調可問責性與可解釋性,並配合監管沙盒機制鼓勵創新。[5]
台灣的最優解可能是一個「歐盟框架 + 美國彈性 + 新加坡務實性」的混合模型:以風險分級為基礎架構,以行政指引作為快速回應工具,以監管沙盒作為前沿技術的測試場。這需要的不僅是立法智慧,更是行政能量的大規模提升。
四、部會推進藍圖:從基本法到可執行制度的路徑建議
將基本法的精神轉化為可執行的制度架構,需要在立法後 18 個月內完成以下關鍵行動:
- 設立跨部會 AI 治理委員會——由行政院長直轄,數位部長兼任執行秘書,建立具備法定協調授權的頂層架構,避免部會本位主義瓦解橫向整合。
- 制定 AI 風險分級子法——委託國科會與數位部聯合研擬,明確高風險 AI 應用的定義標準、合規要求與主管機關,參照歐盟 AI 法案附件一的高風險用例清單,建立台灣版的風險地圖。
- 建立演算法透明度稽核機制——要求政府機關使用的 AI 決策系統(如社福資格審查、犯罪風險評估)定期接受第三方稽核,並公開稽核摘要報告,落實「公部門 AI 透明度義務先於私部門」的治理原則。
- 擴大 AI 治理人才儲備——在考試院修正公務人員職系分類,新增「AI 治理與政策分析」職系,並在國家文官學院建立 AI 監理能力培訓課程,讓各部會具備基礎的技術審查能力。
- 推動 AI 治理的雙邊互認協議——以台灣的半導體與 AI 產業優勢為籌碼,與日本、歐盟、英國等民主陣營推動 AI 安全與信任標準的雙邊互認,將 AI 治理能力轉化為外交資產。
References
- 立法院. (2025). 《人工智慧基本法》. 立法院公報, 114 卷第 1 期. ly.gov.tw
- Kaminski, M. E. (2019). Binary Governance: Lessons from the GDPR's Approach to Algorithmic Accountability. Southern California Law Review, 92(6), 1529-1616.
- 行政院. (2023). 台灣 AI 行動計畫 2.0. 國家發展委員會. ndc.gov.tw
- European Parliament. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.
- The White House. (2023). Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Executive Order 14110.
- Personal Data Protection Commission, Singapore. (2023). Model Artificial Intelligence Governance Framework (3rd ed.). pdpc.gov.sg
- NIST. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology. nist.gov
- Dafoe, A. (2018). AI Governance: A Research Agenda. Future of Humanity Institute, University of Oxford.