隨著人工智慧大量學習人類行為的數據,由資料、演算法所出現的偏差(Bias),甚至導致機器採取了錯誤決策,反映出人工智慧在不知不覺中也學會了人類的歧視與偏見;而演算法黑箱的問題,使得開發者也無法理解做出機器進行決策的脈絡,進而無從進行校正甚至究責。於是可信任人工智慧(Trustworthy AI)逐漸成為全球重視的議題;如何讓AI能保護數據隱私,且更具有公平性、透明性與可解釋性、穩健性與安全性,以及最重要的可問責性,成為探討可信任人工智慧的核心精神。
不是會員?