政策解讀
Jessy·
Anthropic 陷法律泥淖:美軍 AI 應用恐受阻
Anthropic 因美國法院對其 Claude 模型軍事用途的判決出現分歧,陷入法律不確定性,導致其聯邦政府採購業務面臨供應鏈風險,同時影響了其企業 AI 代理產品的擴張。
Anthropic 因美國法院對其 Claude 模型軍事用途的判決出現分歧,陷入法律不確定性,導致其聯邦政府採購業務面臨供應鏈風險,同時影響了其企業 AI 代理產品的擴張。
美國司法部表示 Anthropic 的 AI 模型因過度限制而不適合作戰,五角大廈正計劃建立機密訓練環境以開發「軍用主權版」模型,並尋求其他科技合作夥伴。
美軍國防部披露考慮使用 AI 機器人輔助目標打擊決策,引發倫理爭議。與此同時,Anthropic 與國防部因採購與安全性爆發法律糾紛,而一名政府效率組織人員約翰·索利則因疑似竊取敏感社會安全資料面臨調查。
五角大廈將 Anthropic 列為「供應鏈風險」後,雙方價值 2 億美元的合約談判宣告破裂。與此同時,OpenAI 選擇擁抱軍事合約,導致其機器人團隊負責人 Caitlin Kalinowski 辭職抗議,產業內部對於 AI 軍事化的道德分歧正式公開化。