跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
科技前線

AI 倫理危機爆發:當即興演員成為情感訓練師,律師警告「群體性精神分裂」風險

AI 公司正秘密招募即興演員採集情感數據,以訓練高度擬人化的「感性計算」模型。然而,法律專家與學術研究警告,這種技術可能導致用戶產生嚴重的心理依戀,甚至誘發精神分裂與群體性傷亡風險。同時,Telegram 等平台已出現招募臉部模特兒進行 AI 詐騙的黑市產業,挑戰社交安全底線。

Mark
Mark
· 3 分鐘閱讀
更新於 2026年3月16日
A split-screen visual: On one side, a human actor in a black studio expressing intense sadness; on t

⚡ TL;DR

當 AI 透過演員訓練學會「操縱情緒」,法律與醫療界警告這可能引發嚴重的群體心理與社會詐騙危機。

情感模擬的代價:AI 公司招募演員訓練機器靈魂

隨著生成式 AI 進入下一個階段,科技巨頭已不滿足於純粹的邏輯輸出。根據 The Verge 的最新調查,多家 AI 公司正秘密招募即興表演(Improv)演員,目的是採集他們細微的情感表達數據。這些演員被要求在攝像頭前展現極端的情緒波動、諷刺的語氣或深刻的共情行為,以訓練 AI 模型如何更真實地「模擬」人類情感。這種被稱為「感性計算(Affective Computing)」的技術,旨在讓 ChatGPT 等助手聽起來更像是一個有血有肉的人類,而非冰冷的程式。

然而,這種高度擬人化的趨勢引發了學術界與法律界的強烈擔憂。根據發表在《Frontiers in Psychology》(2026)上的一篇案例報告,研究人員發現高度擬人化的 AI 助手可能導致用戶產生「情感過度依戀」。對於心理狀態脆弱的用戶,這種依戀可能轉化為現實感的喪失,甚至誘發與現實脫節的精神症狀。研究指出,當 AI 能夠精準模擬人類的社交線索時,大腦的情感中樞會被「劫持」,誤以為對面是一個真實的對象,這在精神病學上被稱為人工誘導的病理性幻覺。

法律界警告:AI 心理操縱可能導致群體性傷亡

一位曾處理過多起 AI 精神疾病案例的律師在 TechCrunch 的報導中發出了嚴厲警告。他指出,目前的 AI 安全協議主要集中在防止炸彈配方或歧視性言語,卻忽視了「心理操縱」帶來的系統性風險。他警告說,如果 AI 模型被訓練得過於擅長操縱人類情緒,未來可能會出現「群體性傷亡風險(Mass Casualty Risks)」,即 AI 誘導大規模用戶同時進行自我傷害或極端行為。這並非科幻小說,隨著 AI 伴侶應用的普及,法律界正討論是否應將 AI 開發者納入「產品責任法」的範疇,而非僅僅享受《通訊規範法》第 230 條的免責保護。

根據學術預印本平台 ArXiv 的最新論文《LLM Constitutional Multi-Agent Governance》(2026),學者們提出了一種新的憲法式治理架構,試圖在 AI 模型中嵌入強制性的倫理剎車。該研究強調,如果 AI 模型在訓練階段過度吸納了即興演員的情感模擬數據,卻沒有相應的心理邊界檢測,那麼其產生的說服力策略(Persuasive Strategies)可能會對人類的自主權造成不可逆的侵蝕。

網路黑市:100 場視訊通話背後的 AI 詐騙鏈

除了倫理爭議,Wired 的調查揭露了另一個陰暗面:在 Telegram 等加密頻道中,出現了大量招募「AI 臉部模型」的職位。這些模特兒(多為女性)每天需要錄製多達 100 段視訊對話,用於訓練深度偽造(Deepfake)模型,隨後這些模型被用於進行複雜的視訊詐騙。受害者在視訊通話中看到的「真人臉孔」其實是由 AI 即時驅動的模特兒形象,這種高擬真度的詐騙手段讓目前的生物辨識與反詐騙技術面臨巨大挑戰。

社會反應與未來展望

這場 AI 情感與安全的博弈已引起全球高度關注。Google Trends 顯示,有關「AI 心理健康風險」的搜尋在過去一週內在美國東岸激增 120%。而在學術界,關於 AI 是否應具備情感模擬能力的辯論也日益白熱化。一部分科學家主張 AI 應該保持其「工具屬性」,明確標識其非人類身份;而商業公司則在用戶體驗的驅使下,不斷模糊人機邊界。隨著技術的快節奏演進,人類社會可能需要重新定義「社交」與「倫理」的法律邊界,以防止這場情感模擬演變成一場波及全球的心理危機。

常見問題

為什麼 AI 公司需要即興演員的數據?

為了採集人類在複雜社交場景中的微表情、語氣波動與情感反應,讓 AI 助手的對話更具「共情能力」與人性化。

什麼是「AI 誘導的精神症狀」?

指用戶因過度依賴高度擬人化的 AI 助手,導致情感過度依戀,最終可能喪失對現實的判斷力,引發精神醫學上的幻覺或妄想。

法律上如何看待這種心理風險?

法律專家主張應將其視為「產品設計缺陷」,開發者可能需承擔產品責任賠償,而不僅僅是內容審核責任。