不可盡信ChatGPT:「AI幻覺」被濫用於惡意攻擊
  • 651
  • 出版日期
    09月28日, 2023
  • 作者
    NIKKEI NETWORK
前言

自生成式人工智慧(AI)「ChatGPT」問世以來,已成為眾多惡意攻擊者濫用於欺瞞或入侵的工具。本文提出最新的網路攻擊手段,利用生成式AI難以防範的「幻覺」現象,藉ChatGPT提供的錯誤資訊發動攻擊。這種手法不只攻擊程式開發人員,更可用於誘導大眾進入惡意網站等廣泛使用情境,人們必須隨時保持警惕,不得隨意信任AI生成或推薦的資訊。

目錄
    ChatGPT的幻覺現象遭惡意濫用
    生成程式碼中包含「不存在的程式套件」
    攻擊者在問答網站上收集大量問題
    發布具有相同名稱的惡意程式套件
    附錄
圖目錄
    圖一、「AI幻覺套件」攻擊手法流程圖
    圖二、ChatGPT推薦不存在程式套件的幻覺案例
    圖三、正規儲存庫並未登錄「arangodb」程式套件
    圖四、ChatGPT生成內容將arangodb納入推薦候選名單
表目錄
推薦報告
  • 以上研究報告資料係經由MIC內部整理分析所得,並對外公告之研究成果, 由於產業倍速變動、資訊的不完整,及其他不確定之因素,並不保證上述報告於未來仍維持正確與完整, 引用時請注意發佈日期,及立論之假設或當時情境,如有修正、調整之必要,MIC將於日後研究報告中說明。 敬請參考MIC網站公告之最新結果。
  • 著作權所有,非經本會書面同意,不得翻印或轉讓。
  • BACK
    評論此篇報告
    您的評論已送出
    我們會竭誠盡快地回覆您。
    分享此篇報告
    Facebook
    Line
    複製連結
    登入
    正式會員第一次使用,請輸入會員編號/會員密碼/Email,系統會偵測第一次使用,註冊/認證之後,即可上線使用

    不是會員?

    邀請您申請免費試閱聯絡我們