人工智慧的技術演進,逐漸朝向「高模仿力」發展,有心人士可以藉由大量資料來創造以假亂真的影視音內容,AI的深度造假(deep fakes)能力,將成為資訊安全的勁敵。資策會MIC資深產業分析師韓揚銘認為,新形態的人工智慧犯罪,恐將對國家或企業帶來新的資安隱憂,甚至因為難以辨識或疏忽而造成損害或提高營運風險成本。展望2020年,企業應該積極思考如何提升假訊息的防範能力,如何辨識與解讀正確訊息,將成為提升競爭力的關鍵因素。
資策會MIC指出,人工智慧的高模仿能力,源自深度學習的生成對抗式網路(Generative Adversarial Network, GAN)技術,衍生讓AI擁有「換臉」與「模仿聲線」的能力,難以辨識的深度造假,為臉書(Facebook)、微軟(Microsoft)、谷歌(Google)等國際科技大廠,帶來高度的資安隱憂,相繼投入開發偵測與辨識技術的解決方案。
同時,為了更積極有效的對抗GAN技術對資訊安全的威脅性,Facebook、Microsoft也都提供高額獎金,懸賞能夠研發出「辨識假影像」技術的團隊,Google則提供「合成語音資料庫」、「Deepfake影片檢測資料庫」,包括28個場景、3,000多段的真實演員現場拍攝影片,期許能透過揭露大量真實資料來鼓勵更多的開發者,積極投入開發新的「影視音造假資訊」檢測工具。
雖然社會道德規範不容許造假資訊,但規範仍然不足以防止假影音在網路流傳。資策會MIC表示,隨著AI技術愈來愈親近使用者的終端載具,未來勢將出現更多難以辨認來源出處與真實性的假影音、假新聞,除了考驗大眾的媒體識讀能力,同時也考驗國家與企業,是否具備假影音辨識技術與能力,才能防範更多的詐騙與資安危機。