跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
科技前線

AI 聊天機器人獲准在猶他州開立精神科藥物處方

猶他州授權 AI 系統開立精神科處方,旨在緩解醫師短缺,但遭醫界批評缺乏監督並存有安全與倫理風險。

Jessy
Jessy
· 2 分鐘閱讀
更新於 2026年4月3日
A medical-themed conceptual art piece showing a digital brain interface transitioning into a medical

⚡ TL;DR

猶他州授權 AI 開立精神科處方,引發醫學界對倫理與責任的激烈討論。

臨床權限的歷史性變革

猶他州近期通過一項爭議性政策,正式授權一套 AI 系統在無需醫生直接監督的情況下,為患者開立精神科藥物處方。這是美國國內首次將此類臨床決策權交予人工智慧系統。州政府官員表示,這項措施旨在解決醫療資源分配不均,並緩解心理健康護理服務的嚴重短缺問題。然而,此舉隨即在醫學界引發巨大震盪。

醫學界與倫理爭議

許多精神科醫師對此政策表示強烈憂慮。批評者認為,目前的 AI 模型在臨床決策上仍存在「黑箱」問題,且無法完全理解患者的複雜生理與心理狀態。儘管官方強調 AI 的運算優勢,醫師們擔心缺乏醫師把關將導致診斷錯誤、藥物誤用,甚至是嚴重的副作用。此舉觸及了醫學倫理與醫療責任的邊界——若 AI 開出的處方導致醫療事故,相關責任該由開發商、系統架構師還是州政府承擔,目前仍無明確的法律定論。

監管挑戰與未來風險

將控制藥物的處方權委託給 AI,不僅是技術問題,更涉及聯邦與州政府法規的交互衝突。目前醫學執照法規通常強制要求醫師介入。猶他州的這項政策可能被視為一種「監管沙盒」,用以評估 AI 在醫療領域的影響。然而,這種快速的臨床授權是否會犧牲患者安全,是未來觀察重點。此外,FDA 對於這類 AI 醫療設備的藥物裝置分類與標準,也將成為後續討論的焦點。

產業與未來觀察

此案例無疑為醫療科技產業樹立了一個極端的先例。如果執行成效良好,可能引發其他州份效仿;但若出現明顯的醫療偏差,這將成為 AI 醫療監管史上的一大警示。隨著科技與醫療的深度整合,未來在 AI 診斷、治療流程與倫理規範之間,將有更多挑戰等待解決。

常見問題

為什麼猶他州要讓 AI 開藥?

州政府表示這是為了緩解醫療資源短缺及心理健康護理服務的嚴重不足,希望透過 AI 提高效率。

醫學界為何強烈反對?

醫師認為 AI 診斷過程具備黑箱特質,缺乏對患者個體差異的理解,可能導致誤診或藥物濫用風險。

如果發生醫療事故誰負責?

目前法律尚未明確規範,這也是該政策最受爭議的地方,責任歸屬可能涉及開發商、運營單位或批准政策的政府機關。