日本大廠小型LLM發展策略
  • 687
  • 出版日期
    03月29日, 2024
  • 作者
    NIKKEI XTECH
前言

生成式AI風潮下,作為其資料基礎的大規模語言模型,也成為業界關注的焦點。雖然目前仍以美國OpenAI的「GPT」一枝獨秀,但日本企業開始著手開發參數數量相對較少的「小型LLM」,希望能開拓利基市場。本文將分析小型LLM的特徵與優勢,並介紹NEC、NTT投入開發的概念發想、鎖定的市場標的、採用的技術,以及未來的目標。

目錄
    日本大廠相繼開發「小型LLM」
    提升小型LLM精度關鍵在實質資料量
    小型LLM也能因應NTT客製化需求
    SoftBank開發3,500億參數LLM
圖目錄
    圖一、日本大廠預定提供的LLM概要
    圖二、參數量大的LLM與小型LLM的特徵
    圖三、美國OpenAI的「規模法則(Scaling Laws)」
    圖四、資料淨化作業示意圖檢索
    圖五、大型與小型LLM的比較
    圖六、NTT的「調適模組技術」示意圖
    圖七、NEC提供LLM時的示意圖
表目錄
推薦報告
  • 以上研究報告資料係經由MIC內部整理分析所得,並對外公告之研究成果, 由於產業倍速變動、資訊的不完整,及其他不確定之因素,並不保證上述報告於未來仍維持正確與完整, 引用時請注意發佈日期,及立論之假設或當時情境,如有修正、調整之必要,MIC將於日後研究報告中說明。 敬請參考MIC網站公告之最新結果。
  • 著作權所有,非經本會書面同意,不得翻印或轉讓。
  • BACK
    評論此篇報告
    您的評論已送出
    我們會竭誠盡快地回覆您。
    分享此篇報告
    Facebook
    Line
    複製連結
    登入
    正式會員第一次使用,請輸入會員編號/會員密碼/Email,系統會偵測第一次使用,註冊/認證之後,即可上線使用

    不是會員?

    邀請您申請免費試閱聯絡我們