9月6日,以“AI賦能,驅動未來”為主題的2018中國人工智能峰會(CAIS 2018)在南京國際博覽會議中心成功召開。本次峰會匯聚了Leslie Valiant、吳恩達、周志華、李波等人工智能領域的多位頂級大咖以及京東、ARM、華為、小米、拜騰等企業代表。其中,2010年圖靈獎得主、英國皇家學會會士,美國科學院院士,哈佛大學教授Leslie Valiant帶來了主題為《Challenges for Machine Learning》的演講 。
Leslie Valiant在演講中說,人類在1950年就開始探討機器學習。近年來,有一個重要概念就是監督學習,即首先獲取信息以及知識然后執行一個動作。機器學習可以通過不斷訓練,不斷得到反饋修正它的行為,減少錯誤率,從而提高機器預測的準確度。
機器學習的局限在于數據運算方式不能改變太多。人類可以在機器學習當中不斷做進一步補充,讓機器可以像人一樣推理分析。機器學習可以實現分析推理,但需要訓練它,讓它獲取知識然后進行訓練或學習。
學習和推理能力對機器學習是一個巨大的挑戰。因為學習和推理是按照不同方式構成的,它們之間目前還不兼容。對于人工智能方面的預測能力來說,只有訓練數據可靠,才能讓人工智能掌握一些人類具備的能力,執行一些人類目前才能執行的任務。
以下為Leslie Valiant演講實錄:
今天我給大家講的主要是關于人工智能,介紹一下機器學習的歷史,它的發展現狀以及什么是人工智能。人工智能指的是計算機能夠獲取知識,可以根據獲取到的知識執行一些指令做出行動。
首先,介紹關于它的歷史背景信息。對于機器人也就是沒有實體形狀的大腦來說,在眾多的游戲中,比如圍棋、橋牌、撲克游戲、學習語言、翻譯語言、密碼學、數學。我們研究發現,機器在圍棋和學習語言方面表現比較好,而翻譯的表現就沒那么好。另外想強調的就是語言學習,我認為語言學習對于機器是非常困難的。這就是圖靈1948年的手稿內容。
在1950年開始有人工智能概念,此后一直都在不斷發展,但還有一個尚未解決的挑戰,即獲取信息的問題。在1950年就開始探討機器學習,知識獲取是程序化還是像人類一樣學習式的。眾所周知,機器需要進行編程,但我想說這個觀點也許有一點誤導。在這個階段,我們開始研究程序是如何運行的,機器的程序跟人腦的運作有哪些相同的地方以及不同的地方。
近年來人工智能領域研究以及發展有突破性的進展。有一個很重要的概念——監督學習。監督學習首先需要獲取信息以及知識然后執行一個動作。比如識識別圖像上的花朵,在獲取知識階段,它需要給圖像加標簽;在執行的階段,需要對圖像的信息進行分類。那機器的監督學習主要怎么做?
我們都知道圖像識別和語音識別近年來發展很快,也是以這種方法進行的。重要的是,我們要了解這些現象背后的原理。有些人會擔心智能機器人會不會有一天會取代人類,或者摧毀人類。其實,技術的發展總會給我們帶來一些挑戰及問題,它一定是有風險的,但如何尋找更加合理的方式去應對這種挑戰以及風險,這是需要去考慮的。因為,科學也不是百分之百正確,有時候它們會犯一些錯誤,我們需要去梳理這其中的邏輯。我們應該把人工智能看作一項非常有前景的科研技術,但是也應該理性的去看待它。
監督學習是什么?我們都知道做預測無論是人或機器都會犯一些錯誤。如果我們增加訓練的頻率、計算的次數、預測的錯誤率會改變。在機器人學習里面,獎賞是很重要的概念。在不斷訓練中,機器不斷得到反饋,然后修正它的行為。經過多次計算訓練之后,錯誤率明顯減少,因此機器的表現是跟訓練的模式相關。通過大量數據的訓練,可以逐步減少錯誤的概率,從而提高機器預測的準確度。
簡單介紹機器學習后,接下來介紹機器學習能夠幫助我們做什么、以及它的應用。這里有一些科學家做的研究并提出八個點,包括哪些機器學習能夠去做、哪些是機器學習的局限。比如,我們有清晰定義的目標、衡量的方式、計算方式是非常明確定義的、我們需要清晰的輸入、一定程度的容錯區間、大量的數據集用于訓練。
另外一個局限,這些數據運算方式不能不斷去改變太多。比如推理,目前,這些推理和復雜環境相關的因素現在機器學習做得不夠好,所以,機器學習還要進一步去推進。
我們可以在機器學習當中不斷做進一步補充,讓機器像人一樣可以推理、分析。這些問題不那么容易解決。如果問人類“孔子是有筆記本電腦嗎?”你能夠簡單的回答這些問題,機器學習也可以實現,但要去訓練它。在人類看來很簡單的問題機器也需要學習。當它回答“孔子到底有沒有筆記本電腦這個問題”,需要去訓練它,它首先要獲取知識,然后再進行訓練或學習,這個時候才可能回答這個問題。
通過回答古代的人是否有筆記本電腦這個問題可以說明,很多人能夠簡單做的事,機器很難做到。人們獲取的知識是用自己的推理或分析,就可以回答一些之前沒有見過的問題。這樣一個簡單的黑盒學習,圖像是大象還是別的動物,對于機器來說需要先訓練或學習才能回答。人類是憑知覺,是否有科學方式可以去問一些問題,在機器學習當中,我們到底還要做什么樣的工作才能確保它們將來具備像人類那樣的推理和分析能力。人類經常做完形填空的練習,比如,《中國日報》英文版上周有三句話,把其中的一個單詞拿走,讓人們做完形填空,來測試人類的智能和機器的智能,這很容易測試。因此,我們可以對此展開一些科學的研究,人會怎么樣回答這個問題。如果你不知道這個背景知識,很難回答這樣的一些問題,你需要背景知識,你必須要用已經儲備的知識、認知和推理分析能力,才能進行黑盒學習,進行完形填空,以背景知識回答。
顯然,機器學習需要進行訓練,但人有推理能力,即使之前不知道也可以根據已有知識進行推理和分析。如果出現一個前所未有的東西,這時候需要人類才具備的推理能力,機器就落了下風。
講到推理、常識方面的東西,可能這時候要帶雨衣,因為有可能下雨。這對人類是簡單的理解和推理,但讓機器能夠獲取這一的知識和認知,很多時候機器是沒有答案的。這對人類是嘗試,不用寫下來,但是這對于人工智能的挑戰就是要讓機器理解人類達成的嘗試。即這個世界的通用規則,并且機器利還要用這些常識進行推理,然后產生人類才有的一些決策和行動。當然,可以通過監督式的學習進行對機器的訓練。也有這樣的一些規則可以使用,通過機器監督學習讓它們獲得這樣的嘗試,但之前那種編程式的方法是失敗的。因為這個環節非常脆弱,編程的碼農在這方面可能都會有自己的一些假設。
由此可見,這八個點在機器學習中哪些能做、哪些不能做、有哪些挑戰。當中有很多黑盒,給大家舉一些例子,在高層次做一些解釋,一些基礎的東西則不用解釋。所有做決策給到的信息,只要部分的給到就可以做出一些判斷、得出一些想法。如果給到機器足夠的解釋,是否它就能做和人類一樣的推理和分析?
顯然,挑戰是存在的,一些業內精英也在這方面做具體的工作,邏輯推理、邏輯分析、通過監督機器學習的方式進行訓練和學習,讓它取得成功,這樣機器可以學習人類世界更多的常識和規則。這個不隨著時間的變化而變化,而是一些永恒不變的真理,或是人類社會的一些常識,讓機器可以去掌握,那么,它就可能具備推理和分析的能力。目前的挑戰在于,學習和推理是按照不同的方式構成的,它們相互之間目前還不兼容,因此,在大腦當中,學習和推理是形成統一體的,機器也必須做到這一點。我們需要某種機制,讓它們像人類一樣具備強大的學習和推理能力的結合。
我認為學習和推理能力的結合是一個巨大的挑戰,很多人正在努力開展相關的工作。前面也講過預測,預測能力在將來的人工智能方面是很重要的一個發展領域,能夠產生數據組,有相關學習推理的方法,并可以不斷改善。這方面還停不下來,在人類的一些智能方面還要進行很多研究,像對待人類精英教育一樣,不斷的用一些課件和方法來教會機器。這個挑戰始終是存在的。因為需要去訓練機器,而且我們提供給機器的訓練材料或課件必須要適合機器的特點,所以,人工智能這方面目前有很多的挑戰。
只有訓練的數據可靠,才能讓人工智能掌握一些人類具備的能力,從而執行一些人類目前才能執行的任務。這是挑戰,我先講到這里,感謝各位的耐心聆聽。
-
人工智能
+關注
關注
1791文章
47279瀏覽量
238513 -
機器學習
+關注
關注
66文章
8418瀏覽量
132646
發布評論請先 登錄
相關推薦
評論