臨床權限的歷史性變革
猶他州近期通過一項爭議性政策,正式授權一套 AI 系統在無需醫生直接監督的情況下,為患者開立精神科藥物處方。這是美國國內首次將此類臨床決策權交予人工智慧系統。州政府官員表示,這項措施旨在解決醫療資源分配不均,並緩解心理健康護理服務的嚴重短缺問題。然而,此舉隨即在醫學界引發巨大震盪。
醫學界與倫理爭議
許多精神科醫師對此政策表示強烈憂慮。批評者認為,目前的 AI 模型在臨床決策上仍存在「黑箱」問題,且無法完全理解患者的複雜生理與心理狀態。儘管官方強調 AI 的運算優勢,醫師們擔心缺乏醫師把關將導致診斷錯誤、藥物誤用,甚至是嚴重的副作用。此舉觸及了醫學倫理與醫療責任的邊界——若 AI 開出的處方導致醫療事故,相關責任該由開發商、系統架構師還是州政府承擔,目前仍無明確的法律定論。
監管挑戰與未來風險
將控制藥物的處方權委託給 AI,不僅是技術問題,更涉及聯邦與州政府法規的交互衝突。目前醫學執照法規通常強制要求醫師介入。猶他州的這項政策可能被視為一種「監管沙盒」,用以評估 AI 在醫療領域的影響。然而,這種快速的臨床授權是否會犧牲患者安全,是未來觀察重點。此外,FDA 對於這類 AI 醫療設備的藥物裝置分類與標準,也將成為後續討論的焦點。
產業與未來觀察
此案例無疑為醫療科技產業樹立了一個極端的先例。如果執行成效良好,可能引發其他州份效仿;但若出現明顯的醫療偏差,這將成為 AI 醫療監管史上的一大警示。隨著科技與醫療的深度整合,未來在 AI 診斷、治療流程與倫理規範之間,將有更多挑戰等待解決。
