2025 年《人工智慧基本法》三讀通過,標誌著台灣正式進入 AI 治理的制度建構期。這是一個值得肯定的里程碑,但通過只是起點,而非終點。基本法的本質是原則性框架,其七大指導原則雖確立了透明度、可問責性、人本主義等核心價值,但若缺乏配套的子法規、跨部會協調機制與執法能量,再精緻的立法語言也將淪為宣示性文件。環顧國際,歐盟《人工智慧法案》從立法通過到各條款生效,設計了長達 24 至 36 個月的過渡期,且配備了專責的「歐洲人工智慧辦公室」;美國的 AI 治理則透過行政命令與聯邦機構問責指引並行推進。台灣如何在有限的行政資源下,將基本法的精神轉化為可執行的制度架構,是當前政策精英必須直面的核心課題。

一、立法設計邏輯:七大原則的架構意涵

《人工智慧基本法》確立的七大指導原則——以人為本、透明可解釋、隱私與資料保護、安全可靠、公平無歧視、永續發展,以及促進創新——並非隨機排列,而是反映了一套內在一致的治理哲學。細讀立法院審議過程,可以觀察到立法者刻意在「促進創新」與「風險管控」之間尋求平衡:七大原則中前六項皆為約束性原則,最後一項才是賦能性原則,這一排序隱含了「責任先於發展」的立法意志。[1]

然而,原則的排列無法自動解決執行的難題。「透明可解釋」原則涉及的演算法可解釋性要求,在深度學習模型普遍的今日,本身就是一個尚未解決的技術與法律雙重難題。「公平無歧視」原則要求 AI 系統的輸出不得對特定族群產生系統性不利,但什麼是「不公平」的法律定義標準?由誰認定?採用何種測試方法?這些問題在基本法中付之闕如,必須由後續的子法規填補。基本法的價值,更多在於確立了台灣 AI 治理的「憲政慣例」——為未來立法與行政解釋提供了解釋框架,而非直接產生法律效力的操作性規範。[2]

二、跨部會協調的制度困境

AI 治理的本質是跨域的,但台灣的行政體系是垂直分工的——這一結構性矛盾,是 AI 基本法落實最大的障礙。數位部負責數位政策整體協調,科技部(國科會)掌管研發資源,衛福部關切醫療 AI 的安全規範,金管會監管金融 AI 的風險,勞動部面對 AI 取代就業的社會衝擊,教育部思考 AI 時代的人才培育戰略。七個部會,七套優先排序,七種官僚文化。[3]

更深層的問題是「主責機關」的模糊性。基本法並未明確指定哪個部會為 AI 治理的主責機關,僅以「中央主管機關」泛稱,並授權行政院另定。這種設計固然保留了靈活性,卻也埋下了部會間相互推諉的風險。比較日本的經驗:日本在 2023 年於內閣府設置「AI 戰略會議」,由首相直轄,作為跨省廳的最高協調平台,明確賦予內閣府統籌各省廳 AI 相關政策的法定授權。台灣若缺乏類似的頂層協調架構,AI 治理極可能陷入「多頭馬車、各自為政」的困局。

三、國際比較:歐盟、美國與新加坡的治理模型啟示

三個國際模型各有值得台灣借鑒之處。歐盟《AI 法案》(EU AI Act)採用「風險分級監管」架構,將 AI 應用依風險等級分為不可接受風險(全面禁止)、高風險(嚴格規範)、有限風險(透明義務)與最低風險(自願守則)四類。這一框架的優點是監管資源聚焦——高風險領域如生物辨識、關鍵基礎設施、信用評分等,接受最嚴格的事前合規審查;低風險應用則幾乎不受監管,保留創新空間。缺點是分類邊界的認定本身需要極高的技術與法律專業能力,中小企業的合規成本也可能形成市場准入壁壘。[4]

美國拜登政府 2023 年發布的《AI 行政命令》(Executive Order on Safe, Secure, and Trustworthy AI)採取了截然不同的路徑:不立法、而是透過行政命令要求各聯邦機構制定本機構的 AI 使用指引,並授權商務部(NIST)建立 AI 風險管理框架(AI RMF)。這種「去中心化」模式的優點是速度快、靈活度高,缺點是缺乏統一的法律效力與監督機制。新加坡則走了一條務實的「軟法」路線——以《AI 治理框架》(Model AI Governance Framework)作為企業自願遵循的指引,強調可問責性與可解釋性,並配合監管沙盒機制鼓勵創新。[5]

台灣的最優解可能是一個「歐盟框架 + 美國彈性 + 新加坡務實性」的混合模型:以風險分級為基礎架構,以行政指引作為快速回應工具,以監管沙盒作為前沿技術的測試場。這需要的不僅是立法智慧,更是行政能量的大規模提升。

四、部會推進藍圖:從基本法到可執行制度的路徑建議

將基本法的精神轉化為可執行的制度架構,需要在立法後 18 個月內完成以下關鍵行動:

  1. 設立跨部會 AI 治理委員會——由行政院長直轄,數位部長兼任執行秘書,建立具備法定協調授權的頂層架構,避免部會本位主義瓦解橫向整合。
  2. 制定 AI 風險分級子法——委託國科會與數位部聯合研擬,明確高風險 AI 應用的定義標準、合規要求與主管機關,參照歐盟 AI 法案附件一的高風險用例清單,建立台灣版的風險地圖。
  3. 建立演算法透明度稽核機制——要求政府機關使用的 AI 決策系統(如社福資格審查、犯罪風險評估)定期接受第三方稽核,並公開稽核摘要報告,落實「公部門 AI 透明度義務先於私部門」的治理原則。
  4. 擴大 AI 治理人才儲備——在考試院修正公務人員職系分類,新增「AI 治理與政策分析」職系,並在國家文官學院建立 AI 監理能力培訓課程,讓各部會具備基礎的技術審查能力。
  5. 推動 AI 治理的雙邊互認協議——以台灣的半導體與 AI 產業優勢為籌碼,與日本、歐盟、英國等民主陣營推動 AI 安全與信任標準的雙邊互認,將 AI 治理能力轉化為外交資產。

References

  1. 立法院. (2025). 《人工智慧基本法》. 立法院公報, 114 卷第 1 期. ly.gov.tw
  2. Kaminski, M. E. (2019). Binary Governance: Lessons from the GDPR's Approach to Algorithmic Accountability. Southern California Law Review, 92(6), 1529-1616.
  3. 行政院. (2023). 台灣 AI 行動計畫 2.0. 國家發展委員會. ndc.gov.tw
  4. European Parliament. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union.
  5. The White House. (2023). Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Executive Order 14110.
  6. Personal Data Protection Commission, Singapore. (2023). Model Artificial Intelligence Governance Framework (3rd ed.). pdpc.gov.sg
  7. NIST. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology. nist.gov
  8. Dafoe, A. (2018). AI Governance: A Research Agenda. Future of Humanity Institute, University of Oxford.
返回洞見