越來越多的人工智能(AI)投入實際應用,包括在線客服、網絡搜尋、甚至臉書上的訊息呈現,背后其實都是靠強大的算法執行。只不過,AI本身的局限性,也將在投入應用越來越明顯,這也將是決定AI乃至于人類生活能否持續進步的一大關鍵。在AI領域中,引領風騷的不只是掌握用戶數據、用戶數量龐大的科技巨人,從生產制造端切入,在某個特定產業稱王的也大有人在。日本的Preferred Networks(PFN)就是最好的例子。2014年創業的PFN,可以說是不折不扣的新創獨角獸。他們專精的領域,是把深度學習(Deep Learning)技術導入在產業應用上,目前在三大應用領域:運輸、制造生產以及醫療上,都與日本的一級大廠進行合作研發,例如從創業開始,PFN就與豐田汽車一起投入自駕車技術,去年(2017)七月更與日本國家癌癥中心合作,建構癌癥的早期血液診斷系統。在PFN看來,深度學習的本質,其實就是建構統計性的預測模型。PFN Fellow丸山宏形容,深度學習具備大量的參數,經過多次的反復操作后,可以形成任何多維、非線性的函數系統,逼近人類的思考模式,可以大幅提升預測的準確度。機器學習本質,不脫統計歸納分析這種預測模型該如何建立?以國際兩大溫度單位:攝氏(℃)與華氏(℉)的對應關系為例,從人類的觀點看,因為已經有一套標準的換算公式,丸山宏解釋,對于任何一個給定的華氏溫度,只要套入公式運算,就能得出相對應、即使測量也不會出錯的攝氏溫度;但對于機器來說,如果這套換算公式并不存在,就只能靠長期觀測、記錄攝氏與華氏兩套溫度數據,再對這些數據進行分析,慢慢推導出兩者之間的對應關系(圖1)。
圖1:使用觀測數據進行訓練,使機器學習溫度單位換算的方法
因為機器學習的對象只有被給定的參數,不論給定的參數再多、數據的規模再大,得出的僅是「近似」結果。丸山宏指出,歸納法的限制之一,就是只能根據過去的歷史資料預測未來;但如果未來出現不可知或根本無法預測的意外,任何AI技術都無法得出對的結果。此外,機器學習所處理的參數,多半都被嚴格定義過,如果此時出現了與眾不同的參數,也就是訓練數據中未曾出現的稀有事件,系統對其也無能為力。“機器學習或者AI,還是跟人腦不一樣,”丸山宏指出,“它不會靈光乍現,也不會進行臨機應變的處理,更難以避免偏誤的發生。”技術面以外,關于AI另一個更嚴肅的議題,可能發生在應用場域上。丸山宏解釋,在自動駕駛上,現在PFN的技術,已經達到可以同時控制多部車輛依其規劃路線行駛,又不至于出現壅塞。“在這輛紅色汽車上,我們的算法更可以設定所有車輛一碰到他就得轉彎或減速,降低車禍發生率。”這套系統明明運作地相當完美,但丸山宏卻提出另一個尖銳問題:這輛紅色汽車的“安全系數”該拉到多高?AI的應用,仍然有其局限性
圖2:Preferred Networks開發的分布式自動駕駛系統
他補充,一般人可能認為,為了避免發生危難,安全系數當然越高越好,“可是我們發現,當這輛紅色車的安全系數不斷提高、其他車輛在這個參數環境下不斷學習之后,居然都靜止不動了!”丸山宏解釋,正因為其他車輛被訓練的內容是“絕對不能碰到紅色車”,而只要一開動就會有碰撞的風險,所以才出現全部靜止的結果。只不過,這樣一來交通系統也跟癱瘓無異了。因為機器只能在被給定的參數框架內思考,如果人們給予的指令過于簡化,在實際生活中恐怕會出現難以預料的結果。他舉例,“好比你今天命令機器人去星巴克幫你買杯咖啡,如果指令內容只是『把咖啡拿過來』,那么機器人的行動,可能是到星巴克,把排隊的其他客人都打開推開甚至殺死,再把咖啡拿給你。”AI跟人類一樣并非萬能,類似這樣的“框架問題(Frame Problem)”,是人工智能領域中困擾許久卻尚未解決的問題。隨著這項技術逐漸被人類社會所使用,我們一方面固然可以因為生活更加方便而欣喜,但更要謹記的是必須以謹慎、注意的態度來使用這些科技,才不會制造更多無解的難題。
-
人工智能
+關注
關注
1791文章
47352瀏覽量
238791 -
機器
+關注
關注
0文章
783瀏覽量
40744
原文標題:AI無所不能?未必!
文章出處:【微信號:iot12345,微信公眾號:物聯之家網】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論