科技前線AI 可靠性進展:MIT 研發 KV 快取壓縮技術,將記憶體消耗大幅降低 50 倍MIT 研究人員推出名為「Attention Matching」的技術,可將 LLM 的 KV 快取記憶體消耗降低 50 倍而不失準確度。結合 Andrej Karpathy 對 AI 可靠性的觀察,這標誌著 AI 產業正從「功能演示」轉向追求高穩定性與低部署門檻的生產階段。Jason·2026年3月8日