摘要:在剛剛結束的微軟Build 2018開發者大會上,微軟小娜展示了自己是如何智能地預定會議室的,似與常人無異,但實際上人工智能還遠不像你想的那么聰明!微軟亞洲研究院院長洪小文在接受“21世紀經濟報道”采訪時談到,現在的人工智能更像是一個無法歸納和理解的黑盒,只能匹配預設的模型并根據輸入導出結果。相反,人類卻是能夠理解、總結、預測的白盒。AI可以幫助人類完成很多專業性任務,而面對需要分析決策的環節,則更需要人類的智力。
AI(人工智能)帶給人類的驚喜還在繼續
當地時間5月8日(北京時間5月9日凌晨),2018谷歌I/O開發者大會開幕。在整個大會過程中,最抓人眼球的莫過于谷歌助手打電話以假亂真:在預訂理發店時間時,谷歌助手不僅清晰表達了自己的預訂訴求,甚至在面對復雜對話場景應對自如。例如,當理發店服務員告知它所要求的12點到店時間排滿、最近時間只有下午1:15分的時間段時,它再次詢問是否有早上10點到12點排期。
就在前一天的2018微軟Build開發者大會上,微軟的語音助手小娜同樣“秀”了一筆自己的“表演”。在智能會議室的現場展示環節,演示人員利用搭載了小娜的智能設備語音預訂了會議室,甚至,當每位參會人員進入會議室時,小娜還能夠念出其名字、主動打招呼以及進行各種交互,與一位常人無異。
但人工智能真的如看起來的那么“聰明”嗎?
“今天,無論是語音識別、文本翻譯、或是計算機視覺等技術所支撐的人工智能,都沒有真正理解自己所接受信息的含義。它們只是在匹配預設的模型。”5月8日,微軟全球資深副總裁、微軟亞太研發集團主席兼微軟亞洲研究院院長洪小文直言,“它只是一個黑盒,無法歸納和理解,只知道根據輸入導出結果?!?/p>
與之相對應的是,人類能夠理解。不僅是理解自己已知的概念,甚至面對未知的事物,也可以根據自己過去的經驗去嘗試理解,去歸納總結,舉一反三,這便是所謂“白盒”。
值得注意的是,白盒智慧,但存在偏差,黑盒機械,但更加公正,這其中各有優劣。因此,洪小文認為,AI可以幫助人類去做一些專業性的任務,面對需要分析決策的環節,則需要人類的智力,“AI+HI(人工智能+人類智能)非常重要。”
不過,盡管AI本身仍處于黑盒階段,但搭載AI終端的智能邊緣計算正在撲面而至,這一點,從今年微軟Build開發者大會上頻頻提及智能邊緣計算,并與大疆無人機、高通合作開發相關開發工具包便可見一斑。在洪小文看來,智能邊緣計算必將發生,也特別值得期待。
黑盒與白盒
《21世紀》:今年Build大會上現場展示了智能語音技術。當前國外智能語音技術已經找到了智能音箱作為一個較為普及的落地場景,國內則仍在苦苦探索。這背后是中文語音技術本身的問題嗎?
洪小文:即便擁有方言,中文的語音識別也并不難于英文,只要收集到足夠多的數據,就不是問題。國外智能音箱(尤其是搭載亞馬遜Alexa的Echo)之所以普及,還是與亞馬遜電商業務本身有關,外國用戶習慣在亞馬遜上購物后,就愿意嘗試使用更方便的智能音箱來購物。另外外國用戶家里空間大又喜歡聽音樂,本身就有音箱的需求,所以這種形態的終端更容易普及。
至于國內用戶,平時更喜歡與自己的智能手機交互,在手機上體驗購物、聽音樂等功能,對于這些用戶而言已經足夠便捷和直觀,并已經養成了這樣的習慣,這些因素導致智能音箱在國內沒有普及。
《21世紀》:就語音技術而言,你提到識別不是問題,那目前的問題在哪里?
洪小文:當前人工智能對語音的反饋包括三個階段:識別、理解和提供服務,問題的難點是在理解上。由于要理解的內容本身擁有無窮組合,因此便沒有精確模型,無法只用建構模式去進行,這還不論更復雜的言外有意的情況。今天的AI只是一個黑盒,但理解本身是白盒,也就是人類擁有的能力:不僅理解所接受的信息本身,甚至還可以對本身不了解的信息進行猜測,部分理解其含義。這對于今天的AI而言非常難解,需要更新的技術才行。
《21世紀》:存在黑盒與白盒的應用界限嗎?或是黑盒必將需要轉變為白盒?
洪小文:對于一些推理過程而言,一定需要白盒,沒有白盒的系統很難進行推理。即便黑盒可進行推理,也只存在于某個輸出剛好是下一個輸入的情況下,這是黑盒的局限性。
但黑盒也有其好處,從某個角度而言,它不會存在偏差,是什么就是什么,非常公平。白盒推理存在既定立場,例如人類心理狀態中多少會有一些偏見,比如關于墮胎、性別傾向等各種容易引起爭議的問題,便是源于每個人的既定立場。在這個立場下推理出的東西必然會有所偏頗。黑盒就不會,因此類似于法官這樣的角色就需要黑盒的思維,怎樣輸入就怎樣輸出。
因此,當前的合理狀態應該是AI+HI(人工智能+人類智能)。AI可以致力于流程性分析,但深度分析、理解和創造仍需要依靠人類。
可解釋AI
《21世紀》:人工智能盡管還處于黑盒階段,但已不可解釋和理解,即將無法確切了解其內部運作方式,進而導致人類對人工智能產生不信任感。事實上,最近歐盟也在力圖推動AI算法透明化。你如何理解這種不可解釋AI?
洪小文:先來說一說可解釋AI??山忉孉I擁有兩層意義,第一層意義是指,輸入信息后得出結果,能夠知道得出這個結果的原因,從這個角度而言,我認為它可以解釋,只是解釋的過程非常復雜。比如AlphaGo使用增強學習后,在棋盤上最終落子,你無法講明其背后的決策規則,但你了解它在使用增強學習得出這一步,而這一步的目的是贏棋。知道結果,只是不知道結果背后的規則究竟如何,它一定有規則,只不過這個規則繁瑣到無法窮舉,這就是可解釋AI。
通常所說的不可解釋AI,在我看來其實是第二層意義的可解釋AI,即一般人無法理解的結果,例如將黑人辨認為猩猩等。在我看來,這依然是可解釋AI:之所以出現這樣的結果,是因為訓練數據里擁有偏差,因此還是可解釋。
此外,設計AI系統的人是否能預期到輸入信息、得出結果后的后果。如果能夠預期到這個后果,一定會準備一套理論去加以解釋,即便遇到危機事件,也能擁有一套自己的邏輯。
《21世紀》:所以從技術角度而言,通常意義的AI不可解釋性是數據偏差導致的,這種情況下AI技術人員可以有怎樣的作為?
洪小文:數據偏差所導致的結果很嚴重。以實際生活為例,比如風控系統判定某人無法貸款,原因是此人來自一個平均收入較低的區域,根據這個基礎規則設定下的AI就會進而導致偏見甚至歧視。對于技術人員而言,能否預先知曉有這樣的不合理漏洞,甚至最好能夠將漏洞堵住,就是其職責所在。
智能邊緣已來
《21世紀》:無論人工智能當前實力如何,但畢竟已經有了許多應用甚至是在終端的應用。相較于往年而言,今年微軟Build大會上智能邊緣計算高頻出現,您如何看待邊緣計算未來適用的行業和場景?
洪小文:AI應用剛發生時,絕大部分都發生在云端。但如今,以視覺應用為例,視頻畫面采集設備正在從4K進化到8K,相應地像素幀數也在大幅提升,導致數據量呈現爆發式增長。即便未來5G技術發展,但也存在巨大的數據量需要傳輸。因此我大膽預測,許多視覺相關的服務、智能工廠等場景會產生大量終端計算,即邊緣計算。
《21世紀》:邊緣計算場景的特點是怎樣的?
洪小文:大部分的數據訓練會發生在云端,因為云端在數據收集和訓練上存在優勢。但諸如智能工廠、智能安防等場景需要有即時反饋,需要當機立斷,因此大部分終端至少需要執行和辨認的能力。
除了傳輸速度之外,還有傳輸能耗的問題,大量數據傳輸必然會存在大量能耗。事實上,智能工廠中即便終端要與云端互動,也是短途傳輸再聚總傳送至云端。既然有一個聚總過程,就可以在這個過程中本地賦予一些處理和智能的功能。從能耗的角度而言,這種方式也最為節能。所以終端計算必然會發生。
-
語音識別
+關注
關注
38文章
1742瀏覽量
112782 -
人工智能
+關注
關注
1793文章
47566瀏覽量
239413
原文標題:洪小文: 今天的AI只是一個黑盒,仍需與HI密切配合
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論