跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
焦點追蹤

信任危機:美國 AI 工具採用率創新高,公眾對結果透明度與監管憂慮同步上升

奎尼匹克大學民調顯示,雖然 AI 採用率持續成長,但美國民眾對於 AI 輸出結果的信任度下降,並擔憂監管透明度與技術的社會影響。

Jessy
Jessy
· 2 分鐘閱讀
更新於 2026年3月31日
A conceptual image of a human hand interacting with a digital AI interface, featuring a mix of clear

⚡ TL;DR

最新民調顯示,美國民眾對於 AI 的採用率雖在提升,但對結果的信任度卻因缺乏監管透明度與倫理疑慮而持續下降。

AI 普及與信任的悖論

隨著生成式 AI 工具逐漸滲透到美國職場與日常生活,一項由奎尼匹克大學(Quinnipiac University)發布的最新民調揭示了一個引人注目的悖論:美國民眾在 AI 工具採用率不斷攀升的同時,對於這些工具輸出結果的信任度卻在大幅下降。雖然越來越多的個人與企業開始使用 AI 來協助工作、排程甚至自動化決策,但絕大多數受訪者對於技術背後的透明度、監管框架以及其潛在的社會影響力表現出深刻的疑慮。

調查關鍵亮點

民調數據顯示,儘管採用率在成長,但在接受調查的群體中,對於 AI 輔助結果的信任程度正處於低點。特別是在涉及法律、醫療診斷與公共政策等關鍵性決策領域,公眾的信任感最為薄弱。此外,民調中還提及一個有趣的數字:僅有 15% 的美國民眾表示願意接受 AI 直接作為其職場的「直屬長官」,這反映出在涉及人類尊嚴、指令與責任分配的核心問題上,AI 仍難以獲得大眾的感性認可。

監管缺失引發社會擔憂

除了對輸出結果的準確性存疑,公眾對於 AI 技術的監管透明度也缺乏信心。調查指出,許多民眾認為,科技巨頭在開發與部署 AI 的過程中缺乏足夠的公眾監督,這導致了對 AI 可能被用於操縱舆論、歧視性招聘或演算法偏見的普遍恐懼。專家分析,若無法建立一個強大且透明的法律與技術監管框架,AI 普及的進程可能會因這種持續的信任缺失而面臨嚴重的社會抵制。

未來展望:信任作為 AI 下一階段的挑戰

如果說過去兩年 AI 競爭的核心是「技術能力」,那麼未來兩年將是「信任與合規」的競爭。企業與政策制定者若想讓 AI 真正實現大規模商業化應用,就必須先解答「如何確保透明度」這一難題。未來的 AI 產品若想在市場脫穎而出,除了算力與模型參數,可解釋性(Explainability)與符合倫理架構的數據隱私保護,將成為最核心的競爭門檻。

常見問題

為什麼民眾信任 AI 的程度下降?

主要原因在於對演算法偏見、錯誤資訊、隱私問題以及科技巨頭在開發過程中的監管透明度不足感到憂慮。

民眾最擔心的 AI 領域為何?

民調顯示民眾對於醫療診斷、法律判決與公共政策等需要精確性與公正性的高風險領域最不信任 AI。

如何建立 AI 信任感?

專家認為需建立強健且透明的法規監管架構,並提升 AI 系統的「可解釋性」,確保技術運用符合倫理規範。