訓練大語言模型(LLM)所需的高算力及高記憶體需求,使多數企業對於所需投入之硬體建置成本望之卻步。為改善此一狀況,產學研各界開始更關注LLM演算法的優化與改良,希望使LLM更容易在資源有限的設備上部署。其中,微軟在2月份提出一高效率、極低延遲的「1位元」權重的LLM模型引起眾多矚目,而其他AI底層演算法也都陸續被提出,預期帶動新興邊緣硬體發展契機。
不是會員?