AI專用處理晶片發展動向
  • 2564
  • 出版日期
    02月07日, 2024
  • 作者
    NIKKEI XTECH
前言

半導體的性能為AI技術發展的關鍵。本文聚焦AI晶片相關議題,從大型語言模型的骨幹「Transformer」切入,探討需要AI處理專用晶片的緣由,並討論日本AI專用晶片的發展動向,分析低耗電的新世代的記憶體技術「CiM」,以及未來AI半導體市場的動向。

目錄
    LLM的基礎架構「Transformer」
    有了GPU還需要AI處理專用晶片的理由
    日本市場的AI處理專用晶片發展動向
    新世代記憶體技術「CiM」
    AI半導體市場今後會如何發展
圖目錄
    圖一、迄今的深度學習模型源流
    圖二、導入「將焦點放在何處」的注意力機制
    圖三、Transformer的計算流程
    圖三、Transformer的計算流程(續)
    圖四、GPU面臨的課題
    圖五、Google的「TPU」為初期的AI處理專用晶片
    圖六、TPU的基本內部結構
    圖七、SambaNova採用資料流程型架構
    圖八、Cerulean SN40L RDU
    圖九、Tenstorrent的小晶片(chiplet)結構
    圖十、全球與日本的AI半導體性能比較
    圖十一、Preferred Networks的「MN-Core2」
    圖十二、AI晶片設計點的「AI One評測基板」
    圖十三、LeapMind代表董事CEO松田聰一
    圖十四、學習用需要較高的位元數
    圖十五、LLM用途亦可採用「學習用、FP8」
    圖十六、在記憶體近端計算處理的動向加速發展
    圖十七、採用CiM技術的硬體耗電量低
    圖十八、以記憶體的阻抗値來代表權重的類比方式
    圖十九、以AND/NOR邏輯計算處理的數位方式
    圖二十、記憶體將持續縮減與MPU及AI處理專用晶片間的距離
表目錄
推薦報告
  • 以上研究報告資料係經由MIC內部整理分析所得,並對外公告之研究成果, 由於產業倍速變動、資訊的不完整,及其他不確定之因素,並不保證上述報告於未來仍維持正確與完整, 引用時請注意發佈日期,及立論之假設或當時情境,如有修正、調整之必要,MIC將於日後研究報告中說明。 敬請參考MIC網站公告之最新結果。
  • 著作權所有,非經本會書面同意,不得翻印或轉讓。
  • BACK
    評論此篇報告
    您的評論已送出
    我們會竭誠盡快地回覆您。
    分享此篇報告
    Facebook
    Line
    複製連結
    登入
    正式會員第一次使用,請輸入會員編號/會員密碼/Email,系統會偵測第一次使用,註冊/認證之後,即可上線使用

    不是會員?

    邀請您申請免費試閱聯絡我們