2025 年 1 月,一項發表於《自然醫學》(Nature Medicine)的研究震動了全球醫療界:Google Health 與多國醫學中心合作開發的 AI 系統 AMIE(Articulate Medical Intelligence Explorer),在模擬臨床對話中的診斷準確率與資訊蒐集能力,首度全面超越了受過專科訓練的人類醫師。[1]這不是 AI 醫療的第一個里程碑,但它象徵了一個關鍵的轉折——AI 不再僅僅是輔助醫師判讀影像的工具,它正在進入醫療決策的核心地帶:問診、鑑別診斷與治療建議。然而,技術的突破速度遠遠超越了治理框架的建構。當 AI 系統建議的診斷與醫師的專業判斷相左時,應以誰為準?當演算法因訓練資料的偏差系統性地低估某些族群的疾病風險時,誰應為此負責?當醫療 AI 的「黑箱」特性使病患無法理解自己為何接受特定治療時,知情同意(informed consent)的法律基礎還能成立嗎?這些問題不是遙遠的假設——它們正在全球各地的醫院、法院與監管機構中真實上演。在我過去於劍橋大學從事科技治理研究,以及目前帶領超智諮詢為企業部署 AI 系統的經驗中,我深切體認到:AI 醫療的治理不能等到技術成熟後才開始——治理框架必須與技術同步演進,甚至引領技術的發展方向。

一、AI 醫療的現狀與突破:從影像判讀到藥物研發

要理解 AI 醫療治理的複雜性,首先需要認識 AI 在醫療領域的應用已經遠遠超越多數人的想像。

影像診斷的革命。醫學影像是 AI 醫療最成熟的應用領域。截至 2025 年底,美國 FDA 已核准超過 950 項 AI/ML 驅動的醫療器材,其中約七成與醫學影像相關。[2]在放射科領域,AI 系統已能在乳房攝影中偵測早期乳癌,其靈敏度與特異度均優於單一放射科醫師的判讀。[3]在眼科,Google DeepMind 與 Moorfields 眼科醫院合作開發的 AI 系統能夠從視網膜 OCT 掃描中偵測超過 50 種眼科疾病,準確率達到頂尖眼科專家的水準。[4]在病理學,AI 輔助的數位病理系統正在改變癌症分期的方式——透過分析全切片影像(whole slide images),AI 能夠識別人眼難以察覺的微觀組織特徵,為治療方案的制定提供更精確的依據。[5]

藥物研發的加速。AI 正在根本性地改變藥物研發的範式。傳統的藥物研發流程平均需要 10-15 年、耗資超過 20 億美元,且成功率不到 10%。AI 的介入在多個環節帶來突破:在靶點發現(target identification)階段,深度學習模型能夠從海量的基因組與蛋白質組數據中識別新的藥物靶點;在分子設計(molecular design)階段,生成式 AI 能夠設計出具有特定藥理特性的全新分子結構;在臨床試驗設計(clinical trial design)階段,AI 能夠優化病患招募策略、預測試驗結果並識別最有可能受益的患者亞群。[6]2023 年,由 Insilico Medicine 利用 AI 從零開始發現並設計的抗纖維化藥物 INS018_055 進入二期臨床試驗——從靶點發現到臨床試驗僅用了約 30 個月,打破了傳統藥物研發的時間框架。[7]

精準醫療的深化。AI 與基因組學的結合正在推動醫療從「一體適用」走向「量身訂製」。多組學數據(基因組、轉錄組、蛋白質組、代謝組)的整合分析,使得 AI 系統能夠為個別患者建構精細的疾病模型,預測其對特定治療的反應。[8]在腫瘤學領域,AI 驅動的液態切片(liquid biopsy)分析能夠從血液中偵測微量的腫瘤 DNA 片段,實現癌症的早期偵測與治療反應的即時監測。在罕見疾病領域,AI 正在縮短診斷的漫長等待——平均而言,罕見疾病患者從出現症狀到確診需要約 5-7 年,而 AI 輔助的表型分析系統能夠將這個時間大幅縮短。[9]

二、全球監管框架的比較:FDA、EMA 與 TFDA

AI 醫療的快速發展對傳統的醫療器材監管框架構成了根本挑戰。傳統醫療器材——無論是心臟支架還是 X 光機——在取得上市許可時,其功能和特性是固定的。但 AI 醫療器材,尤其是基於機器學習的軟體即醫療器材(Software as a Medical Device, SaMD),具有一個根本不同的特性:它可以持續學習、不斷演化。一個在上市時表現合格的 AI 診斷系統,在經過大量新數據的再訓練後,其行為特徵可能發生顯著改變——可能變得更好,也可能產生新的偏差。[10]

美國 FDA 的適應性監管。FDA 在 AI 醫療器材監管上走在全球前列。2021 年發布的《AI/ML 軟體即醫療器材行動計畫》提出了五項核心策略,其中最具創新性的是「預定變更控制計畫」(Predetermined Change Control Plan, PCCP)。[11]PCCP 允許 AI 醫療器材的製造商在提交上市申請時,同時提交一份「預定變更計畫」——預先描述 AI 系統未來可能進行的修改類型(如再訓練的資料範圍、演算法調整的參數邊界),以及確保這些修改不會降低安全性和有效性的驗證方法。一旦 PCCP 獲得核准,製造商可以在計畫範圍內更新 AI 系統,而無需每次修改都重新提交上市申請。這是一個「受控彈性」的監管哲學——在預先設定的安全邊界內,給予 AI 系統持續改善的空間。截至 2025 年,FDA 已核准了數十個包含 PCCP 的 AI 醫療器材。[12]然而,批評者指出,PCCP 的有效性高度依賴製造商自我監測的誠信——如果製造商對 AI 系統行為變化的監測不夠嚴謹,「受控彈性」可能變成「監管真空」。

歐盟 MDR/IVDR 的全生命週期監管。歐盟的醫療器材監管框架——《醫療器材法規》(MDR, 2017/745)與《體外診斷醫療器材法規》(IVDR, 2017/746)——對 AI 醫療器材採取了更為嚴格的立場。[13]MDR 將 AI 軟體明確納入醫療器材的範疇,並要求其通過與硬體醫療器材相當的合規性評估程序(conformity assessment)。對於高風險的 AI 診斷系統(如 Class IIb 或 Class III),必須由公告機構(Notified Body)進行獨立審查。更重要的是,MDR 要求醫療器材製造商建立全面的上市後監測系統(Post-Market Surveillance, PMS)和上市後臨床追蹤(Post-Market Clinical Follow-up, PMCF),持續監測 AI 系統在真實臨床環境中的表現。[14]與 FDA 的 PCCP 不同,歐盟目前對 AI 醫療器材的「持續學習」採取較為保守的態度——任何可能影響器材安全性或性能的顯著變更,原則上都需要重新進行合規性評估。這個立場雖然強化了安全保障,但也引發了擔憂:過於嚴格的變更管理可能延緩 AI 系統的改善速度,使歐洲患者無法及時受益於最新的演算法改進。此外,歐盟《AI 法案》(AI Act)將醫療 AI 歸類為「高風險 AI 系統」,疊加了額外的合規要求——包括人類監督、透明度、數據治理和風險管理——這使得在歐盟市場推出 AI 醫療器材的監管負擔顯著高於美國。[15]

台灣 TFDA 的發展中框架。台灣衛生福利部食品藥物管理署(TFDA)對 AI 醫療器材的監管正在快速演進中。TFDA 參考國際醫療器材論壇(IMDRF)的 SaMD 風險分類框架,將 AI 醫療軟體依其臨床影響程度(從提供資訊到驅動治療決策)及健康狀況的嚴重程度(從非嚴重到危及生命)進行風險分級。[16]2024 年,TFDA 發布了《人工智慧/機器學習技術之醫療器材軟體審查指引》,明確了 AI 醫療器材的查驗登記要求,包括演算法描述、訓練資料說明、臨床驗證數據等。[17]然而,台灣的監管框架在幾個關鍵面向仍有待補強。首先,對於適應性演算法(adaptive algorithm)——即部署後能持續學習和更新的 AI 系統——TFDA 尚未建立類似 FDA PCCP 的明確監管路徑。其次,本土化臨床驗證的要求有待強化——多數獲准的 AI 醫療器材主要基於歐美人群的訓練與驗證數據,其在台灣族群中的表現是否等效,需要更嚴謹的本土驗證機制。

三、臨床決策支援系統的法律地位與責任歸屬

AI 在臨床場域的應用形態是多樣的,但從法律責任的角度,最關鍵的區分在於:AI 是「提供資訊」還是「建議決策」。這個區分直接決定了 AI 系統的監管分類和責任歸屬

臨床決策支援系統(CDSS)的光譜。美國 FDA 在 21st Century Cures Act 中建立了一個重要的區分框架:如果一個軟體僅提供臨床資訊供醫療專業人員獨立審查,且不打算替代醫師的專業判斷,則它可能被豁免於醫療器材監管。[18]但如果軟體直接提供診斷或治療建議,且醫師在實踐中高度依賴這些建議(即使名義上仍保留最終決策權),則它構成需要監管的醫療器材。問題在於,這條界線在實踐中極為模糊。一個標示為「僅供參考」的 AI 診斷系統,如果在實際臨床場景中的準確率極高(例如 99.5%),醫師在使用過程中會自然地形成對系統的「自動化信任」(automation trust)——逐漸減少獨立判斷,轉而依賴 AI 的輸出。[19]當系統在 0.5% 的情況下出錯,而醫師因為過度信任未加覆核時,責任應由誰承擔?

責任歸屬的多層結構。AI 醫療誤診的責任鏈涉及多個主體。AI 開發商可能因演算法缺陷、訓練資料不足或未充分揭示系統限制而承擔產品責任。醫療機構可能因未適當評估 AI 系統的適用性、未提供充分的使用訓練、或未建立適當的人類監督機制而承擔組織責任。個別醫師可能因未合理使用 AI 建議——無論是過度依賴還是不當忽略——而承擔專業過失責任。[20]這個多層的責任結構產生了幾個棘手的法律問題。第一,「合理醫師標準」(reasonable physician standard)在 AI 時代如何界定?當多數同儕已使用 AI 輔助診斷時,拒絕使用 AI 的醫師是否構成「低於業界標準」的過失?反過來,當 AI 系統建議與醫師的臨床經驗相矛盾時,醫師應該遵從 AI 還是自己的判斷?[21]第二,產品責任的「缺陷」在學習型 AI 系統中如何認定?一個在特定患者群體中表現優異但在另一群體中表現不佳的 AI 系統,究竟是「有缺陷」還是「有限制」?第三,當 AI 系統的「黑箱」特性使得醫師無法向病患解釋診斷的具體理由時,知情同意的法律要件是否仍被滿足?

四、演算法偏見與醫療公平:被數據遮蔽的不平等

AI 醫療最深層的治理挑戰不是技術問題,而是公平問題。演算法看似客觀中立——它們基於數據做出判斷,不受人類的偏見與成見影響。但這是一個危險的幻覺。演算法的「客觀性」完全取決於訓練數據的品質,而數據本身就是社會不平等的鏡像。

Obermeyer 的警示。2019 年,Obermeyer 等人在 Science 期刊發表了一項具有里程碑意義的研究,揭示了美國一個被廣泛使用的醫療風險預測演算法中的系統性種族偏見。[22]這個演算法被用於識別需要額外照護資源的高風險患者,影響了全美約 2 億人的醫療資源分配。研究發現,在同等健康狀況下,黑人患者被系統判定為「高風險」的機率顯著低於白人患者。原因出在代理變數(proxy variable)的選擇:演算法使用「過去的醫療支出」作為「健康需求」的代理指標。由於結構性的社會經濟不平等,黑人患者即使在相同的健康狀況下,其醫療支出也系統性地低於白人患者——不是因為他們更健康,而是因為他們面臨更多的醫療取得障礙(access barriers)。演算法忠實地「學習」了這個不平等的模式,並將其轉化為系統性的資源分配偏差。

偏見的多重來源。醫療 AI 的偏見不僅來自代理變數的選擇,還有多重來源。訓練資料的代表性偏差是最普遍的問題。全球多數 AI 醫療研究的訓練數據來自歐美醫學中心——這意味著 AI 系統在針對白人、中產階級患者的數據上訓練出來,可能對其他族群、其他社會經濟背景的患者表現不佳。一項針對皮膚科 AI 診斷系統的研究發現,在深色皮膚上的診斷準確率顯著低於淺色皮膚——因為訓練集中的深色皮膚影像嚴重不足。[23]標籤偏差(label bias)同樣危險——如果歷史上某些疾病在特定群體中被系統性地低估診斷(如女性的心臟病、少數族裔的精神疾病),則基於這些歷史診斷數據訓練的 AI 系統會延續甚至放大這種低估。[24]部署環境的偏差也不可忽視——一個在大型醫學中心開發和驗證的 AI 系統,在資源有限的社區醫院或偏鄉診所中可能表現截然不同,因為影像設備的品質、臨床工作流程和患者群體特徵都不同。

治理回應。針對演算法偏見,全球的治理回應正從多個面向展開。FDA 在 2024 年發布的指引草案中,要求 AI 醫療器材的製造商在提交上市申請時,必須提供按照年齡、性別、種族/族裔等人口學分層的性能數據,以揭示潛在的群體間差異。[25]世界衛生組織(WHO)在 2021 年發布的《醫療 AI 倫理與治理指引》中,將「確保包容性」列為六項核心原則之一,強調 AI 醫療系統不應擴大既有的健康不平等。[26]學術界則積極發展「公平性指標」(fairness metrics)和「偏見審計」(bias audit)工具——但一個根本的困難是:公平性有多種數學定義(如人口統計均等性、均等化機會率、預測校準等),而這些定義之間在數學上往往不可能同時滿足。[27]選擇哪種公平性定義,本質上是一個價值判斷而非技術問題。

五、醫病關係的重構:專業判斷 vs. 統計預測

AI 醫療對醫學的衝擊不僅是技術層面的——它正在動搖醫療體系最根本的人際關係:醫師與病患之間的信任。

醫師角色的轉型。Eric Topol 在其具有廣泛影響力的著作《深度醫療》(Deep Medicine)中提出了一個看似矛盾的論點:AI 的最大價值不是取代醫師的專業判斷,而是將醫師從繁瑣的資料處理中解放出來,使他們能夠回歸醫療的人文本質——傾聽、同理與陪伴。[28]然而,這個樂觀的願景與臨床現實之間存在顯著的落差。在實務中,AI 工具的引入往往不是「解放」醫師,而是改變了醫師的工作型態——從直接的臨床觀察轉向對 AI 輸出的審核與管理。當 AI 系統處理了多數的影像判讀、實驗數據分析和風險評估,醫師的角色從「專業判斷者」逐漸向「品質監督者」移動。這個轉變引發了一個深層的專業認同危機:如果 AI 在多數情況下比醫師更準確,那麼醫師的「專業判斷」價值何在?

「自動化信任」的風險。認知科學研究顯示,人類在與高度可靠的自動化系統互動時,會逐漸形成「自動化偏差」(automation bias)——即傾向於接受自動化系統的建議,即使這些建議與其他可用資訊相矛盾。[29]在航空領域,自動化偏差已被確認為多起空難的促因之一。在醫療領域,這個風險同樣嚴峻。一項針對放射科醫師使用 AI 輔助判讀的研究發現,當 AI 系統提供了錯誤的建議時,部分醫師的判讀準確率反而低於不使用 AI 時——因為 AI 的「錯誤建議」扭曲了醫師的認知框架。[30]這意味著,AI 的錯誤不是「中性」的——它可能主動地降低醫師的表現,而非僅僅未能提升表現。

知情同意的重構。知情同意(informed consent)是現代醫療倫理的基石——病患有權在充分了解診斷、治療選項及其風險的基礎上,做出自主的醫療決定。[31]AI 的介入對知情同意提出了新的挑戰。首先,醫師是否有義務告知病患其診斷或治療建議是基於 AI 系統的輸出?多數醫學倫理學者認為答案是肯定的——但這在實務中如何操作,尚無共識。其次,當 AI 系統的決策邏輯無法被人類理解(即「可解釋性問題」)時,醫師如何向病患「解釋」診斷的理由?如果醫師自己都無法理解 AI 的推論過程,他又如何確保病患的「知情」是真正的知情?The Lancet Digital Health 的一篇社論指出,可解釋性(explainability)不僅是技術問題,更是醫療倫理的基本要求——一個無法解釋的診斷,即使統計上更準確,也可能損害病患的自主權和對醫療體系的信任。[32]

六、數據治理與隱私保護:醫療 AI 的資料倫理

AI 醫療的另一個核心治理挑戰在於數據。AI 系統的訓練需要大量的醫療數據——病歷、影像、基因資訊、用藥紀錄——這些是人類最敏感的個人資訊。如何在推動 AI 醫療創新與保護病患隱私之間取得平衡,是一個制度設計的難題。

全球隱私框架的張力。歐盟 GDPR 對醫療數據的處理設定了嚴格的限制——健康數據被歸類為「特殊類別個人資料」,其處理原則上被禁止,除非符合特定的法律基礎(如當事人的明確同意、公共衛生目的等)。[33]GDPR 第 22 條更賦予資料當事人「不受純自動化決策拘束」的權利——這在 AI 醫療的語境中意味著,病患有權要求對影響其健康的 AI 決策進行人類審查。美國的 HIPAA 對醫療數據的去識別化提供了兩種路徑(專家判定法與安全港法),但在 AI 時代,傳統的去識別化技術面臨新的挑戰——研究顯示,「去識別化」的醫療數據在與其他數據集交叉比對後,重新識別個人身份的風險顯著高於預期。[34]

台灣的資料治理挑戰。台灣擁有全球獨特的醫療數據資產——全民健康保險資料庫涵蓋了超過 99% 的人口,提供了連續超過 25 年的就醫紀錄。這是訓練醫療 AI 的寶貴資源。然而,2022 年憲法法庭 111 年憲判字第 13 號判決對健保資料的目的外利用設下了重要限制——判決認定,現行《個人資料保護法》對公務機關目的外利用個人資料的規範不夠完善,要求立法者在三年內修法建立更完善的保護機制。[35]這個判決對台灣醫療 AI 的發展具有深遠影響——如何在尊重病患隱私權的前提下,建立合法、透明、可受監督的醫療數據利用機制,將決定台灣在全球 AI 醫療競爭中的位置。

新興技術的解決路徑。幾項新興的技術框架正在為醫療 AI 的數據治理提供新的可能性。聯邦式學習(Federated Learning)允許 AI 模型在各醫療機構本地訓練,僅共享模型參數而非原始數據——實現「數據不動、模型共享」的隱私保護設計。[36]差分隱私(Differential Privacy)通過在數據或模型中注入精心校準的隨機噪聲,在數學上保證個別病患的資訊不會被推論出來。合成數據(Synthetic Data)則利用生成式模型創造與真實數據具有相同統計特性但不包含任何真實個人資訊的人工數據集。[37]這些技術各有優劣,但它們共同指向一個重要的治理原則:隱私保護不應是 AI 醫療創新的阻礙,而應透過「隱私增強技術」(Privacy-Enhancing Technologies, PETs)被嵌入系統設計之中——這就是「設計即隱私」(privacy by design)在醫療 AI 中的具體體現。

七、台灣智慧醫療的機遇與挑戰

台灣在發展 AI 醫療方面具有多項獨特的結構性優勢。全民健保制度提供了全球罕見的完整、連續、高品質的全人口健康數據;頂尖醫學中心(如台大醫院、長庚紀念醫院、榮民總醫院體系)具備國際水準的臨床研究能力;活躍的 ICT 產業(尤其是半導體和資通訊硬體)為 AI 醫療器材的硬體端提供了堅實的產業基礎。[38]

然而,要將這些優勢轉化為全球 AI 醫療的領導地位,台灣需要克服幾個關鍵挑戰。

法規框架的現代化。TFDA 需要加速建立 AI 醫療器材的適應性監管機制——特別是針對持續學習型 AI 系統的變更管理路徑。參考 FDA 的 PCCP 模式,台灣可以建立「預先核准的演化範圍」框架,在安全的前提下允許 AI 醫療器材持續改善。此外,TFDA 應與國際監管機構建立更緊密的合作——例如加入 FDA 的「國際醫療器材監管論壇」(IMDRF)的相關工作小組,確保台灣的監管標準與國際接軌。

跨域人才的培育。AI 醫療需要同時具備臨床醫學知識與 AI 技術能力的跨域人才——這在台灣乃至全球都是稀缺資源。台灣的醫學教育體系需要系統性地整合 AI 與數據科學的課程;同時,理工科系的 AI 人才需要接受醫療領域的專業訓練。超高齡社會的來臨更加劇了這個人才需求的迫切性——AI 正是應對高齡化醫療負擔的關鍵技術。

本土化驗證的制度化。鑑於 AI 醫療模型的表現高度依賴訓練和驗證數據的代表性,台灣應建立系統性的本土化驗證機制。這包括:建立包含台灣多元族群的醫療 AI 訓練資料庫;要求引進的 AI 醫療器材在取得台灣上市許可前,必須提供基於台灣人群的驗證數據;以及建立持續性的上市後性能追蹤系統,監測 AI 系統在台灣臨床環境中的實際表現。[39]

醫療數據生態系的建構。台灣應借鏡國際經驗(如英國的 NHS Health Data Research UK、芬蘭的 Findata),建立國家級的醫療數據治理平台——在尊重隱私權的法律框架下,為 AI 醫療的研發與驗證提供安全、合規、高品質的數據存取機制。2022 年的憲法法庭判決是一個契機,促使台灣建立比過去更加透明、更加尊重當事人權益的醫療數據利用制度。全球衛生法治的發展經驗表明,數據開放與隱私保護並非零和關係——關鍵在於制度設計。

八、結論:以病患為中心的 AI 醫療治理框架

AI 醫療的治理困境,本質上是一個多方利益平衡的制度設計挑戰。我們需要同時顧及六個維度的價值:安全(AI 系統不應對病患造成傷害)、有效(AI 系統應實質改善醫療結果)、公平(AI 系統不應加劇健康不平等)、透明(AI 的決策邏輯應在可行範圍內可被理解和審查)、隱私(病患的醫療數據應受到充分保護)、以及可及(AI 醫療的效益應惠及所有人,而非僅服務於有資源的群體)。[40]

這些價值之間存在張力——例如,透明性的要求可能與演算法的商業秘密保護相衝突;安全性的嚴格標準可能延緩 AI 醫療器材的上市速度;數據隱私的保護可能限制 AI 訓練所需的數據可及性。任何治理框架都是在這些張力之間尋求動態平衡的嘗試。

基於以上分析,我提出一個以病患為中心的 AI 醫療治理框架的五項核心原則:

第一,風險比例原則(Risk Proportionality)。監管的嚴格程度應與 AI 系統的臨床風險成正比。對直接影響治療決策的高風險 AI 系統(如癌症診斷、用藥建議),應施加嚴格的上市前審查和持續的上市後監測;對提供一般健康資訊的低風險 AI 系統,則應採取較輕的監管觸碰。

第二,持續驗證原則(Continuous Validation)。AI 醫療器材的監管不應是「一次審查、終身有效」的模式。應建立持續性的真實世界效能監測機制,要求製造商定期提供 AI 系統在臨床環境中的實際表現數據——包括準確率、偏見指標和不良事件報告。

第三,有意義的人類監督原則(Meaningful Human Oversight)。在 AI 輔助的臨床決策流程中,應確保醫師的監督是「有意義的」——不是僅僅形式上保留人類在迴路中(human-in-the-loop),而是確保醫師具備理解、質疑和推翻 AI 建議的能力和條件。這需要在醫學教育中納入 AI 素養的培訓,在臨床工作流程中建立 AI 輸出的獨立覆核機制。[41]

第四,演算法公平原則(Algorithmic Equity)。AI 醫療系統應接受系統性的偏見審計,確保其在不同人口群體中的表現不存在不合理的差異。監管機構應要求製造商提供分層的性能數據,並建立偏見報告和修正的機制。

第五,資料信託原則(Data Stewardship)。醫療數據的利用應在獨立的治理機構監督下進行,確保數據的使用符合原始蒐集的目的、當事人的合理期待以及公共利益的要求。病患應被賦予對其數據如何被用於 AI 訓練的知情權和在合理範圍內的選擇權。

人口結構的變遷——特別是全球性的高齡化趨勢——使得 AI 醫療不再是可有可無的選項,而是維繫醫療體系可持續性的必要工具。但技術的必要性不能成為忽視治理的藉口。恰恰相反,正因為 AI 將深刻影響每一個人的健康和生命,我們更需要一個嚴謹、公正、以病患為中心的治理框架——不是為了阻止創新,而是為了確保創新真正服務於它應服務的對象:每一位需要醫療照護的人。

References

  1. Tu, T. et al. (2024). Towards Conversational Diagnostic AI. Nature Medicine. doi.org
  2. U.S. FDA. (2025). Artificial Intelligence and Machine Learning (AI/ML)-Enabled Medical Devices. fda.gov
  3. McKinney, S. M. et al. (2020). International evaluation of an AI system for breast cancer screening. Nature, 577, 89–94. doi.org
  4. De Fauw, J. et al. (2018). Clinically applicable deep learning for diagnosis and referral in retinal disease. Nature Medicine, 24, 1342–1350. doi.org
  5. Bera, K. et al. (2019). Artificial intelligence in digital pathology — new tools for diagnosis and precision oncology. Nature Reviews Clinical Oncology, 16, 703–715. doi.org
  6. Vamathevan, J. et al. (2019). Applications of machine learning in drug discovery and development. Nature Reviews Drug Discovery, 18, 463–477. doi.org
  7. Ren, F. et al. (2024). AlphaFold accelerates artificial intelligence powered drug discovery. Nature Reviews Drug Discovery, 23, 1–2. doi.org
  8. Topol, E. J. (2019). High-performance medicine: the convergence of human and artificial intelligence. Nature Medicine, 25, 44–56. doi.org
  9. Dias, R. & Torkamani, A. (2019). Artificial intelligence in personalized medicine. Expert Review of Precision Medicine and Drug Development, 4(4), 239–248. doi.org
  10. Gerke, S., Babic, B., Evgeniou, T. & Cohen, I. G. (2020). The need for a system view to regulate artificial intelligence/machine learning-based software as medical device. NPJ Digital Medicine, 3, 53. doi.org
  11. U.S. FDA. (2021). Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan. fda.gov
  12. U.S. FDA. (2023). Marketing Submission Recommendations for a Predetermined Change Control Plan for AI/ML-Enabled Device Software Functions — Guidance for Industry. fda.gov
  13. European Parliament and Council. (2017). Regulation (EU) 2017/745 on Medical Devices (MDR). eur-lex.europa.eu
  14. European Parliament and Council. (2017). Regulation (EU) 2017/746 on In Vitro Diagnostic Medical Devices (IVDR). eur-lex.europa.eu
  15. European Parliament and Council. (2024). Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (AI Act). eur-lex.europa.eu
  16. IMDRF. (2014). Software as a Medical Device (SaMD): Key Definitions. IMDRF/SaMD WG/N10FINAL:2013. imdrf.org
  17. 衛生福利部食品藥物管理署. (2024). 人工智慧/機器學習技術之醫療器材軟體審查指引. fda.gov.tw
  18. U.S. Congress. (2016). 21st Century Cures Act. Public Law 114-255, Section 3060. congress.gov
  19. Parasuraman, R. & Manzey, D. H. (2010). Complacency and Bias in Human Use of Automation. Human Factors, 52(3), 381–410. doi.org
  20. Price, W. N. & Cohen, I. G. (2019). Privacy in the age of medical big data. Nature Medicine, 25, 37–43. doi.org
  21. Maliha, G. et al. (2021). Artificial Intelligence and Liability in Medicine: Balancing Safety and Innovation. The Milbank Quarterly, 99(3), 629–647. doi.org
  22. Obermeyer, Z. et al. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. doi.org
  23. Adamson, A. S. & Smith, A. (2018). Machine Learning and Health Care Disparities in Dermatology. JAMA Dermatology, 154(11), 1247–1248. doi.org
  24. Rajkomar, A., Hardt, M., Howell, M. D. et al. (2018). Ensuring Fairness in Machine Learning to Advance Health Equity. Annals of Internal Medicine, 169(12), 866–872. doi.org
  25. U.S. FDA. (2024). Recommendations for the Use of Artificial Intelligence and Machine Learning in the Development and Regulation of Drug and Biological Products — Draft Guidance. fda.gov
  26. World Health Organization. (2021). Ethics and Governance of Artificial Intelligence for Health. who.int
  27. Chouldechova, A. (2017). Fair Prediction with Disparate Impact: A Study of Bias in Recidivism Prediction Instruments. Big Data, 5(2), 153–163. doi.org
  28. Topol, E. (2019). Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books.
  29. Goddard, K., Roudsari, A. & Wyatt, J. C. (2012). Automation bias: a systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association, 19(1), 121–127. doi.org
  30. Gaube, S. et al. (2021). Do as AI say: susceptibility in deployment of clinical decision-aids. NPJ Digital Medicine, 4, 31. doi.org
  31. Beauchamp, T. L. & Childress, J. F. (2019). Principles of Biomedical Ethics (8th ed.). Oxford University Press.
  32. The Lancet Digital Health. (2019). Walking the tightrope of artificial intelligence guidelines in clinical practice. The Lancet Digital Health, 1(3), e100. doi.org
  33. European Parliament and Council. (2016). Regulation (EU) 2016/679 — General Data Protection Regulation (GDPR). eur-lex.europa.eu
  34. Sweeney, L., Abu, A. & Winn, J. (2013). Identifying Participants in the Personal Genome Project by Name. SSRN. doi.org
  35. 司法院. (2022). 憲法法庭 111 年憲判字第 13 號判決. cons.judicial.gov.tw
  36. Rieke, N. et al. (2020). The future of digital health with federated learning. NPJ Digital Medicine, 3, 119. doi.org
  37. Chen, R. J. et al. (2021). Synthetic data in machine learning for medicine: promise and challenges. Nature Medicine, 27, 1664–1669. doi.org
  38. Stanford HAI. (2024). Artificial Intelligence Index Report 2024. Stanford University. aiindex.stanford.edu
  39. 行政院. (2024). 臺灣 AI 行動計畫 2.0. 行政院
  40. BMJ. (2020). Artificial Intelligence in Health Care: Accountability and Safety. BMJ, 368, l6927. doi.org
  41. MIT Technology Review. (2024). The year AI truly entered the clinic. technologyreview.com
返回洞見