在LLM模型開始風行後,雲端AI應用限制無法滿足部分使用者需求,開始轉向於PC上部署地端開源模型。尤其在DeepSeeK爆紅後,再度帶起一波在消費級PC上使用開源AI模型的討論,但受到記憶體容量限制,PC能下載執行的AI模型規模有限,2025年初NVIDIA及AMD推出高容量記憶體之晶片,為AI PC在NPU及顯卡外開拓新戰場。本篇將從桌機的記憶體容量與頻寬限制切入,觀察 AI桌機當前發展與產品定位。
不是會員?