自從1994年YANN LECUN(為現任臉書的人工智慧研究院院長)發展出卷積式神經網路(CNN,CONVOLUTIONAL NEURAL NETWORK)方法用於手寫辨識後,成為現今大部分CNN的重要基礎,爾後由於大廠擁有大量資料及運算能力,近年則紛紛提出準確度更高、模型層次更多的CNN模型來辨識圖像。
而且為了讓深度學習的模型可獲得更廣泛的運用,像是GOOGLE、微軟或是研究單位皆將研究成果開放或以API型式讓廠商直接使用,又或者再結合遷移學習(TRANSFER LEARNING)的方式,把預先訓練好的資料,再依廠商自己所收集的資料重新訓練,做為更適性的辨別模型來應用於專屬的領域中。
由於已訓練好的大規模CNN模型容易取得,又有不同資訊服務廠運用遷移學習協助建立特用化的模型,產業已逐漸接受及運用CNN於不同的領域中,近期就有相當多的圖像辨識用於人臉、光學檢測、攝影機監控、門禁系統等。
ALPHAGO的成功,除了讓一般人認識到新一波人工智慧技術的來臨,對於人工智慧新興技術的開發者來說,也從ALPHAGO認識到深度學習加上「增強式學習」(REINFORCEMENT LEARNING)所帶來的自主學習系統的威力。
對此,過去深度學習整合增強式學習時,必須從底層處理過多的程式細節,使得程式撰寫過程過於複雜。如今,愈來愈多大廠整合原有深度學習框架,再重新建立或結合一個新的框架來支援深度增強式學習的訓練,藉此達到快速布建自主學習系統,以達成實驗不同的學習策略。
藉由大廠布局中瞭解,人工智慧現行除了加速擴張深度學習的應用外,運用增強式學習來建立具有自主學習能力的系統,已成為下一階段重要發展的項目之一。
生成對抗式網路(GENERATIVE ADVERSARIAL NETWORK,GAN),自從於2014年被IAN GOODFELLOW提出後,就快速獲得深度學習的專家大量研究,並還被MIT REVIEW於2018年選為10大突破科技,至今有相當多令人驚艷的研究成果,如:可以進行換臉的DEEPFAKE、可自動上色的STYLE2PAINTS或PAINTSCHAINER等。
生成對抗式網路主要建立兩個深度學習網路,一個稱為生成網路(GENERATOR),另一個為判別網路(DISCRIMINATOR),生成網路有如一個學徒,而判別網路就像一名老師,學徒每次作畫後就讓老師去評論,久而久之,讓學徒不斷向老師學習而得到認可後,學徒就用學習到的網路去運用到領域中,因此可以出現換臉或像有經驗的繪畫師般進行漫畫上色的動作,這樣的方法已快速應用在許多行業中,例如建築業的管線、IC設計業的電路設計等。
隨著深度學習需求的快速成長,也帶動人工智慧科學家的需求。然而業界普遍找不到人工智慧人才之時,更別說中小企業要聘請一位人工智慧專家來建立深度學習模型更是難上加難。
基於上述原因,因此2018年底GOOGLE正式提供自動機器學習模型如AUTOML VISION、AUTOML NATURAL LANGUAGE及AUTOML TRANSLATION的服務,另外像是微軟的CUSTOM VISION、OPEN-SOURCE的AUTO-KERAS,皆可讓企業將資料或圖片上傳後,便自動設計出神經網路。此外,除了自主建模的服務外,2019年5月GOOGLE提出MORPHNET及FACEBOOK的F8大會提到的BOTORCH,也相繼提出模型最佳化服務,讓模型在不失準確度情況下得以縮小深度學習模型,藉由提供自主建模及最佳化服務給沒有人工智慧專家的廠商使用時,廠商有機會運用自家的資料來建構出具領域特性的深度學習模型,以此達到人工智慧擴散使用的民主化。
隨著深度學習大量運用需求,科技大廠提供不同軟體框架及硬體元件,應用端則藉由這些軟硬體快速進行深度學習的訓練,但是,各家提出不同訓練數據來宣稱效能的同時,有採購需求的廠商往往無法有效及正確的判斷宣稱是否屬實。
也因此,由GOOGLE、百度、哈佛大學、史丹佛大學等知名企業及學校,共同針對機器學習建立訓練品質測試標準MLPERF,協助廠商在採購AI產品時可獲得相對客觀的判斷標準。
目前MLPERF主要在訓練的軟硬體產品為主,針對視覺、語音、商業(推薦系統)及通用AI(以增強型學習為主)等人工智慧的模型建構、處理速度、參數運作及辨識率上進行不同分析,然而,對於在終端且已訓練完成的應用上,MLPERF仍需要精進。若未來可針對終端產品的人工智慧產品提出一套標準,將會有助未來智慧商品的發展。
隨著深度學習的辨識及預測能力愈來愈高,也開始出現干擾的手法。由於深度學習的特性是由許多線性公式所組成,運用不同的網路結構加上不同的參數及權重的計算後,得到對事物的判讀,試圖干擾者可運用逐漸逼進的方式破解深度學習網路,找到深度學習的辨別規則,進而影響、誤導深度學習,近期就出現將部分黃色像素印出貼到眼鏡上後,影響影像辨識的判斷。
基於這種干擾或誤導手法,也造成具深度學習的產品被攻擊的可能,許多深度學習網路會運用終端所將所收集到的圖像資料直接辨識及註記標籤,若遇上這種干擾手法的話,會產生許多具誤導性的資料結果,影響未來重新訓練模擬時的成效。
(本文刊登於2019/08/04 工商時報 A9版)