跳至主要內容
科技前線生醫突破政策解讀成長思維焦點追蹤
設定興趣偏好EN
政策解讀

AI 身份盜用的邊界:Grammarly 因「專家審查」未經授權克隆作家身份遭集體訴訟

線上寫作工具 Grammarly 因其「專家審查」功能面臨集體訴訟。訴方指控該功能在未經授權的情況下,擅自使用知名作家(如 Julia Angwin)的姓名與聲譽來品牌化 AI 修改建議,涉嫌「身份盜用」與侵犯公開權。Grammarly 目前已關閉該功能,此案將成為 AI 時代保護個人數位人格權的重要判例。

Jessy
Jessy
· 3 分鐘閱讀
更新於 2026年3月12日
A courtroom setting where a digital silhouette of a human writer is being fragmented into binary cod

⚡ TL;DR

Grammarly 因 AI 模仿專家風格卻未獲授權,遭知名記者集體訴訟,被迫下架功能,掀起 AI 身份權戰火。

權利金與虛擬化的衝突:Grammarly 的法律風暴

生成式人工智慧(Generative AI)的發展正撞上智慧財產權與個人人格權的紅線。知名線上寫作輔助平台 Grammarly 目前正陷入一場嚴重的集體訴訟風暴。根據 Wired 與 The Verge 的綜合報導,該公司近期推出的一項名為「專家審查」(Expert Review)的 AI 功能,被指控在未經授權的情況下,擅自克隆了多位知名作家與學者的身份。該功能宣稱其修辭與修改建議是「靈感源自」特定的專業人士,但事實上這些專家從未同意將其姓名、聲譽或風格用於該系統的商業推廣。

這場法律行動由著名記者 Julia Angwin 領銜發起。訴狀指出,Grammarly 將 AI 生成的內容包裝成彷彿是由真實人類專家背書的樣子,這不僅誤導了消費者,更侵犯了專家的「公開權」(Right of Publicity)。隨著事件發酵,Grammarly 已於 2026 年 3 月 11 日緊急關閉了該功能,並發表聲明表示將「重新想像」該功能,以確保專家擁有真正的控制權。然而,這項亡羊補牢的舉動未能阻止法律程序的進行。

法律核心:公開權與《蘭哈姆法》的博弈

本案的法律焦點集中在美國《蘭哈姆法》(Lanham Act)以及各州的「公開權」法案。法律專家指出,Grammarly 的做法可能觸犯了虛假代言與誤導性商業行為的條款。當一個平台宣稱 AI 的編輯風格「受 Julia Angwin 啟發」時,即使沒有直接使用其肖像,但在商業語境下建立這種強烈的身份關聯,已足以構成侵權嫌疑。根據加州民法典第 3344 條,未經許可在商業中使用他人姓名、聲音、簽名或肖像,需承擔相應的損害賠償責任。

此外,本案也探討了「合理使用」(Fair Use)在 AI 訓練與輸出階段的邊界。Grammarly 或許會辯稱其 AI 僅是學習了公開作品的風格,並不構成直接複製。但訴方強調,問題不在於 AI 的學習過程,而在於「品牌化」階段。將 AI 包裝成特定知名人士的「虛擬替身」進行收費服務,已遠遠超出了數據分析的範疇,而是一種商業性的身份剝削。這項訴訟的判決結果,將成為未來 AI 產業如何合法引用個人聲譽的重要標竿。

市場反應與數據:AI 倫理的搜尋熱度

這起訴訟在科技界引發了巨大震盪。觀察 Google Trends 的數據,可以發現自 3 月 11 日事件爆發以來,關於「AI 法律訴訟」、「Grammarly 爭議」以及「Julia Angwin」的搜尋熱度在紐約與加州等創意產業聚集地顯著上升。台灣科技社群也對此展開討論,特別是針對中文 AI 模型開發中是否也存在類似的「風格克隆」問題。數據顯示,在台灣,關於「AI 著作權」的長期搜尋趨勢與此次事件呈現正相關,反映出創作者對於自身數位資產被濫用的普遍擔憂。

行業觀察家認為,Grammarly 的失誤反映了許多 AI 公司在追求「人性化體驗」時的盲點。為了讓 AI 聽起來更專業、更有說服力,開發商往往忽視了法律上的「姓名權」與「聲譽權」。隨著用戶對 AI 內容來源的要求日益透明,這種「偽裝成人類專家」的產品策略將面臨越來越大的監管壓力。這不僅是法律問題,更是品牌信任度的崩塌危機。

行業影響:AI 產品設計的典範轉移

Grammarly 事件將迫使所有 Generative AI 開發商重新評估其產品介面(UI)與功能描述。以往那種含糊其辭的「向某某大師致敬」或「靈感來自某某」的標籤,未來可能需要更嚴謹的合約授權與利潤分成機制。正如 The Verge 所評論的,這標誌著 AI 產業「野蠻生長」時代的終結,取而代之的是對個人權利更精細化尊重的「授權時代」。

目前,許多 AI 新創公司已開始尋求與內容創作者達成正式協議。例如,某些 AI 語音平台已開始向配音員支付「數位孿生」的使用費。Grammarly 的案例則將這一討論延伸到了文字風格與編輯邏輯領域。如果 AI 學習了某位經濟學家的思考方式並以此提供諮詢,是否應該支付版稅?這些問題目前雖然沒有統一答案,但訴訟的推進正迫使法律界與產業各界儘快達成共識。

未來展望:數位人格的保護新紀元

展望未來,這場集體訴訟可能促成新的立法,專門保護個體在 AI 時代的「數位人格」。這包括對個人風格、邏輯習慣甚至聲譽價值的法律界定。隨著 AI 代理(AI Agents)變得越來越普及,我們每個人都可能面臨被 AI「模仿」的風險。建立一套公平的授權與補償體系,已成為維持創新生態系平衡的當務之急。

Grammarly 的退卻只是一個開始。隨著 Julia Angwin 等具備法律意識的創作者站出來維權,AI 技術的開發將被置於更嚴格的道德光譜下。我們期待看到一個更透明、更公平的 AI 未來,在那裡,技術的進步不再以犧牲個人的身份權利為代價。這場法律戰役的進展,將決定未來十年數位內容生產的遊戲規則。

常見問題

Grammarly 的「專家審查」功能究竟做了什麼?

該功能利用 AI 生成寫作修改建議,並在 UI 中標註這些建議是「受到某知名作家(如 Julia Angwin)啟發」。問題在於,這些被點名的專家從未同意將其姓名或聲譽用於此項商業功能。

為什麼這被稱為「身份盜用」?

訴方認為,Grammarly 不僅僅是讓 AI 學習某人的寫作風格,而是直接利用這些專家的姓名和公眾聲譽來行銷其付費產品,這在法律上侵犯了個人的「公開權」(Right of Publicity)。

這場訴訟會對其他 AI 公司產生什麼影響?

這將迫使 AI 開發商在將產品「人格化」或「品牌化」時必須更加謹慎。未來任何涉及特定個人風格或名聲的 AI 功能,可能都需要簽署正式的授權合約並支付分潤,而非含糊地標註「致敬」。