作家的反擊:我的風格不是你的訓練集
知名的 AI 寫作助手 Grammarly 正陷入一場關於知識產權與個人權利的法律風暴。根據 TechCrunch 報導,知名調查記者 Julia Angwin 正發起一項針對 Grammarly 的集體訴訟,指控該公司未經許可將她的作品以及其他成千上萬作家的寫作風格轉化為「AI 編輯」功能。作家們批評這項功能實質上是「AI 身份冒充」,利用他們的姓名和風格作為商業產品,卻沒有提供任何補償或徵求同意。
法律核心:公開權與「非虛構冒充」
這起訴訟的核心在於法律上的「公開權(Right of Publicity)」。根據加州民法第 3344 條,未經許可將他人的姓名、聲音、簽名或形象用於商業用途是違法的。原告律師指出,Grammarly 的行為不僅僅是簡單的 AI 訓練,而是直接銷售基於特定真人風格的「數位替身」。這一法律挑戰測試了 AI 時代下,個人的「風格」是否能像姓名或長相一樣受到法律保護。目前,美國兩黨支持的《NO FAKES Act》法案也正在推進,旨在防止未經授權的 AI 數位副本。
Grammarly 的回應:撤回工具以平息眾怒
麵對強烈的法律與社會反彈,Grammarly 已經迅速採取了降溫行動。根據 BBC Tech 的報導,Grammarly 已正式關閉了這項「專家審核」AI 功能,該功能曾被批評為「竊取身份」。公司表示正在審查其數據處理做法,但這未能阻止法律訴訟的進程。聯邦貿易委員會(FTC)也已釋出信號,將根據《FTC 法案》第 5 條加強對「不公平」數據做法的審查,特別是當消費者未被明確告知其數據會被用於商業冒充工具時。
數據安全:銀行業的技術事故與 AI 玩具的風險
AI 與數據處理的亂象不僅侷限於寫作領域。BBC 同日報導,英國 Lloyds Banking Group 旗下的多款銀行 App 出現技術故障,導致客戶能看見他人的交易記錄,引發嚴重的隱私擔憂。而在兒童領域,劍橋大學的研究人員警告,目前的 AI 玩具經常誤讀兒童的情緒並給出不恰當的回應。這些事件共同勾勒出一個警訊:當技術的擴展速度超過了安全驗證與倫理約束時,社會將面臨巨大的隱形風險。
未來展望:建立 AI 伦理的新標杆
Grammarly 案將成為 AI 行業的分水嶺。這不僅僅是一家公司的法律糾紛,更將定義生成式 AI 公司在利用個人數據時的邊界。未來,我們可能會看到「強制性徵得同意」成為 AI 訓練的行業標準。對於創作者而言,這場訴訟是維護個人數位主權的重要一步;對於科技巨頭而言,這是一個迫切需要重新評估商業模式的信號:在 AI 時代,數據不僅僅是石油,它是有溫度的、具備人格屬性的財產。

