DeepSeek-V4 以超高性價比挑戰 AI 模型市場壟斷
DeepSeek 發佈 V4 模型,聲稱以 1/6 的成本達到頂尖效能,此舉展現了 AI 高效模型架構的競爭力,並挑戰由美國巨頭主導的技術門檻與市場壟斷。
DeepSeek 發佈 V4 模型,聲稱以 1/6 的成本達到頂尖效能,此舉展現了 AI 高效模型架構的競爭力,並挑戰由美國巨頭主導的技術門檻與市場壟斷。
DeepSeek 推出全新旗艦模型 V4,強調以極具競爭力的成本提供接近頂尖 AI 模型的效能,意圖挑戰閉源模型霸權。
中國 AI 新創 DeepSeek 發布 V4 模型,以驚人的低成本(約為頂尖模型 1/6)實現接近業界標竿的性能,對全球 AI 定價與算力市場產生顯著影響。
DeepSeek 發布了最新 V4 模型預覽版,該模型在效能上逼近業界最尖端的邊界模型,但在效率與成本控制上實現了顯著突破,這可能將對全球 AI 模型市場的定價與生態產生結構性影響。
中國 DeepSeek 發布 V4 模型預覽,強調以競爭對手六分之一的成本實現與頂尖模型相當的智慧能力,在開源 AI 領域引發高度關注。
OpenAI 發布 GPT-5.5 模型,在運算效率與編碼能力上有顯著提升,並在 Terminal-Bench 2.0 測試中險勝 Anthropic 的 Claude Mythos Preview,進一步鞏固市場領先地位。
Anthropic 發布 Claude Opus 4.7,重奪通用 LLM 性能領先地位,同時積極在倫敦擴張辦公空間,並伴隨人事變動與進軍設計工具市場的計畫。
Anthropic 發布 Claude Opus 4.7,宣布超越 GPT-5.4 重奪最強 LLM 地位,同時將更強大的 Mythos 模型保留在內部進行資安測試。
Anthropic 推出 Claude Opus 4.7,在基準測試中重奪大模型性能榜首,並計畫在倫敦大規模擴張。
Anthropic 發布了 Claude Opus 4.7,此模型專注於複雜的軟體工程與自動化任務,旨在鞏固該公司在通用 LLM 市場的領導地位。
Meta 正式發布全新自有 AI 模型 Muse Spark,源自其重組後的超智能實驗室。此舉標誌著 Meta 策略從開源 Llama 轉向競爭更激烈的商業模型市場,旨在加強代理與編碼性能。
Meta 宣布推出全新封閉式 AI 模型「Muse Spark」,由其新成立的超級智慧實驗室開發。此舉標誌著 Meta 從過去的開源策略轉向,試圖彌補在代理 AI 和程式開發上的性能劣勢。
Meta 發布首個來自「超級智慧實驗室」的專有 AI 模型 Muse Spark,象徵公司策略轉向封閉創新,挑戰 AI 龍頭地位。
Meta 成立超級智慧實驗室並推出全新 proprietary 模型 Muse Spark,正式終止對 Llama 系列的過度依賴,旨在透過全面重整 AI 戰略,縮小在代理型 AI 與程式碼系統上的競爭差距。
中國新創公司 Z.ai 發布開源模型 GLM-5.1,並採用 MIT 許可證。其在 SWE-Bench Pro 測試中展現超越 Opus 4.6 與 GPT-5.4 的潛力,為企業提供高靈活度的 AI 工具。
數位流量消費模式正在改變,企業需從 SEO 轉向 AEO(答案引擎優化),透過結構化內容讓 AI 模型選中並引用,以掌握高達 30%-40% 的轉化流量。
中國新創公司 Zhupai AI 發布 GLM-5.1 開源大型語言模型,採用 MIT 授權。官方數據顯示其性能在技術基準 SWE-Bench Pro 上超越 GPT-5.4 與 Opus 4.6,為開源生態注入新動力。
微軟發布 MAI-Transcribe-1、MAI-Voice-1 及 MAI-Image-2 三款自研模型,意圖在基礎模型開發上直接競爭。
Google 推出 TurboQuant AI 記憶體壓縮演算法,宣稱可將 LLM 工作記憶體需求縮減 6 倍並大幅降低營運成本,但目前缺乏獨立學術驗證。
AI 程式設計平台 Cursor 承認其最新模型採用 Moonshot AI 的 Kimi 技術,此舉在西方科技界引發了關於地緣政治敏感性與數據安全的廣泛關注。
小米發布了擁有兆級參數的 MiMo-V2-Pro 模型,而 AI 初創公司 MiniMax 則推出了具備自我演進能力的 M2.7。這兩款模型在效能上直逼 GPT-5.2,且調用成本遠低於美國競爭對手。這標誌著中國 AI 技術在 2026 年實現了質的飛躍,並將引發全球 AI 市場的價格戰與技術洗牌。
大英百科全書與韋伯字典起訴 OpenAI,指控其 GPT-4 模型未經授權「背誦」並重現了近 10 萬篇版權文章。原告認為 OpenAI 的 AI 已成為其內容的市場替代品,威脅到訂閱制商業模式。此案將成為 AI 平法使用與版權保護之間的重要判例。
Andrej Karpathy 提出 AI「九的進軍」理論,強調從 90% 到 99.999% 可靠性的工程難度。與此同時,LangChain 執行官與 Google 專家正致力於「支架工程」與持久記憶技術。MIT 的新技術據傳可壓縮 記憶體 50 倍,這些突破正試圖解決 AI 代理從演示轉向生產環境的瓶頸。
MIT 研究人員推出名為「Attention Matching」的技術,可將 LLM 的 KV 快取記憶體消耗降低 50 倍而不失準確度。結合 Andrej Karpathy 對 AI 可靠性的觀察,這標誌著 AI 產業正從「功能演示」轉向追求高穩定性與低部署門檻的生產階段。
MIT 研究人員發表了 Attention Matching 技術,能將大語言模型的 KV 快取記憶體需求降低 50 倍,且不失精度。同時 Google 開源了基於 Gemini 3.1 的持續性記憶體代理,標誌著 AI 從外部向量資料庫轉向原生記憶體工程。