可信任人工智慧大廠動態觀測
  • 615
  • 出版日期
    12月02日, 2022
  • 作者
前言

隨著人工智慧大量學習人類行為的數據,由資料、演算法所出現的偏差(Bias),甚至導致機器採取了錯誤決策,反映出人工智慧在不知不覺中也學會了人類的歧視與偏見;而演算法黑箱的問題,使得開發者也無法理解做出機器進行決策的脈絡,進而無從進行校正甚至究責。於是可信任人工智慧(Trustworthy AI)逐漸成為全球重視的議題;如何讓AI能保護數據隱私,且更具有公平性、透明性與可解釋性、穩健性與安全性,以及最重要的可問責性,成為探討可信任人工智慧的核心精神。

目錄
    可信任人工智慧發展現況
    可信任人工智慧大廠動態觀測
    MIC觀點
    附錄
圖目錄
    圖一、人工智慧發展歷程
    圖二、可解釋人工智慧與可信任人工智慧的關係
    圖三、全球可信任人工智慧原則
    圖四、AI研發生命週期與可信任AI原則的關係
    圖五、科技大廠所開發的可信任AI工具
    圖六、Meta、Google從自身產品應用出發打造具公平性原則的可信任AI應用
    圖七、微軟、AWS、IBM從從開發端出發打造具可解釋性原則的可信任AI應用
表目錄
推薦報告
  • 以上研究報告資料係經由MIC內部整理分析所得,並對外公告之研究成果, 由於產業倍速變動、資訊的不完整,及其他不確定之因素,並不保證上述報告於未來仍維持正確與完整, 引用時請注意發佈日期,及立論之假設或當時情境,如有修正、調整之必要,MIC將於日後研究報告中說明。 敬請參考MIC網站公告之最新結果。
  • 著作權所有,非經本會書面同意,不得翻印或轉讓。
  • BACK
    評論此篇報告
    您的評論已送出
    我們會竭誠盡快地回覆您。
    分享此篇報告
    Facebook
    Line
    複製連結
    登入
    正式會員第一次使用,請輸入會員編號/會員密碼/Email,系統會偵測第一次使用,註冊/認證之後,即可上線使用

    不是會員?

    邀請您申請免費試閱聯絡我們