?
人物觀點:
25年前,當網絡剛出現的時候,每個人都變成了電子商務,每一個過程都變得“網絡化”。現在,隨著AI技術的發展,每個人都將成為“AI企業”,或者是“C企業”,即認知企業,每個人都在獲得“認知能力”。每一個過程都會被“認知化”。每一個過程都將從新的數據和新的互動中學習。
本期嘉賓是瑪諾基·薩克森納(Manoj Saxena),他和我們討論了認知計算、意識、數據、DARPA、AI解釋能力以及超收斂性(superconvergeni)等話題。
瑪諾基·薩克森納(Manoj Saxena),他擁有密歇根大學的工商管理碩士學位以及印度伯拉理工學院的管理學碩士學位。是CognitiveScale公司的執行總裁,該公司為醫療保艦商業和金融服務市場開發機器智能軟件。在此之前,薩克森納曾是IBM沃特森項目的總經理,他也是該項目的第一任總經理。此外,他還在五年內創辦并出售了兩家由風投機構支持的初創公司,是創業者基金IV的創始董事總經理,這是個價值1美元的種子基金,專門投資于認知計算技術。
關于AI的五個誤區
【問】:眾所周知,你總是回避“人工智能(AI)”這個詞,而傾向于使用“認知計算”,甚至你的個人簡介里也只提到了在認知計算方面取得的成就。這是為什么?
薩克森納:對我來說,AI是制造智能系統和智能機器的科學,而認知計算以及AI的大部分都是圍繞著取代人類的思維而開發的,并創造出能夠更好完成人類工作的系統。我認為這項技術最大的機遇(已經在多項研究報告中得到證實)是在增強人類方面。因此,對我來說,AI并非指人工智能,而是增強智能。你可以用機器來增強和擴展人類的能力。認知計算就是利用AI技術和其他技術將人類與機器進行匹配,從而增強人類的決策能力和體驗。
我把認知計算看作是AI和其他技術的應用,具體來說,我稱之為“鋼鐵俠的賈維斯套裝”,它讓每個人都成為了超人。這就是認知計算的意義所在,坦白地說,這是我們在運行IBM沃特森項目時就開創的領域,我們相信,它也是IT和企業領域的“下一個大事件”。
【問】:當AI的概念首次被提出時,研究人員在達特茅斯會面,他們認為自己可以在當年夏天就讓它成為現實。他們在論文中認為,就像物理學中只有少數定律,電力學中也只有幾個定理那樣,他們認為AI也只需要幾條規則即可。AI最初出現了很多錯誤,但是現在,我們對它的發展前景以及可以用它做什么更為樂觀。在過去的十年里,AI領域發生了哪些變化?
薩克森納:我認為其中有兩個維度需要關注,一個是當AI最初發展的時候,其全部意圖是“人工模擬世界。”然后,它轉向“模擬人類思維”。而現在,我認為最有潛力的應用是“模擬人類和商業體驗”。每個目標都非常龐大。最初的“模擬世界”和“模擬大腦思維”都可以被看做大規模的練習。在很多情況下,我們甚至都不知道大腦是如何運作的,所以你如何對自己都不理解的東西進行建模呢?這個世界太復雜、變化太快,以至于我們根本無法做出如此大的模型。
我認為,更實用的方法是使用AI來模擬微體驗,無論是Uber應用還是Waze都是如此。或者是對一個商業過程進行建模,不管它是索賠解決方案,還是承接保險,亦或是糖尿病管理。我想這就是第三個AI時代將更加專注的領域,它不是為世界建模,也不是為思維建模,而是為人類體驗和商業過程建模。
【問】:那么,這是否意味著我們降低了對它的期望?
薩克森納:我想我們是專門從事這項工作的。如果你再仔細看看人類的思維,你可能不會相信某個孩子能一夜之間就變成天才。更不用說一個能理解所有科學、所有語言和所有國家的天才了。我認為,在如何以及哪里應用AI方面,我們得到了更務實的結果,而不是更多研究和科學驅動的結果。
【問】:我注意到你曾兩次使用“思維”這個詞,而不是“大腦”。這是故意的嗎?如果是,你認為“思維”是從哪里來的?
薩克森納:我認為現在AI有很多炒作,而且出現了很多誤解。我很想這樣說:“如今的AI等同于‘人工膨脹(artificially?inflated)’或‘驚人的創新(amazing?innovations)’。我認為在‘人工智能等同于人工膨脹’的領域里有五個誤區。”最早的誤區之一是,AI等同于人類思維的替代品。我將人類大腦與人類思維、人類意識區分開來。所以,在最好的情況下,我們想要做的就是利用AI的某些部分模擬人腦的功能,而不是說模仿人類思維或人類意識。
我們上次討論過這個問題,我們甚至不知道意識是什么,除了靠醫生宣布病人是死是活外,我們根本沒有意識探測器。而對于人類思維有一種說法是,你可能需要量子計算機才能真正了解一個人的思維是如何工作的,它不是布爾型機器或馮諾依曼機器,而是一種不同類型的處理器。但我認為,人類的大腦可以被分解,可以通過AI增強,從而創造出非凡的結果。我們已經在放射學、華爾街、定量分析和其他領域看到了這一點。我認為更令人興奮的是,可以將AI應用于這些領域。
【問】:你知道,這真的很有趣,因為有個持續了20年的研究項目OpenWorm。即專門研究線蟲的大腦,它有302個神經元組成,研究人員希望對它進行建模。即使是在20年后,從事這個項目的研究人員也說,這或許是不可能實現的。所以,如果你不能模擬線蟲的思維,那么有一件事是肯定的,在模擬線蟲的大腦之前,你更無法對人類思維進行建模。
薩克森納:完全正確。你知道我的看法,我更感興趣的是“更富有”,而不是“更聰明”。我們需要變得更聰明,但同時我們也需要變得更加富有。我所謂的“更富有”并非單單指有錢,我的意思是:我們如何利用AI來改善我們的社會、我們的企業以及我們的生活方式。這就是我為何認為應以“更注重結果”而不是“科學研究”的方式來解決這個問題的原因,我認為前者是一種更實用的AI應用方式。
【問】:所以,你提到了五個誤解,它就是其中之一。其他的四個誤解都是什么?
薩克森納:第一個誤解是,AI等同于取代人類思維。第二個誤解是,將AI與自然語言處理等同起來,但實際上這與事實相去甚遠。自然語言處理只是AI中的一種技術。這就像是在說:“我有能力理解和閱讀一本書,而這就是我的大腦的全部能力。”這是第二個誤解。
第三個誤解是,AI和大數據、分析數據沒什么分別,大數據和分析工具是用來捕捉更多AI輸入的工具。但認為大數據和AI沒有分別,只是因為我能感知到更多,可以變得更聰明。所有大數據都會給你更多的信息,讓你有更多的感覺。它不會讓你變得更聰明。這是第三個誤解。
第四個誤解是,與垂直應用相比,水平部署的AI更好用。我相信真正的AI以及在企業中取得成功的AI,必然是垂直領域的AI。因為說“我有個AI”是一回事兒,而“我有一個懂得保險的AI”則是另一回事兒,還有能理解糖尿病的AI,能理解“超級碗”廣告的AI等。每個AI分支都需要對數據、模型、算法和經驗進行特定領域的優化。這是第四個誤解。
第五個誤解是,AI完全是關于技術的。而在最好的情況下,AI只有一半與技術有關。這個等式的另一半與技能有關,與新流程、方法和管理有關,比如如何在企業中負責任地管理AI等。就像互聯網出現的時候,你沒有辦法和流程來創建網頁,建立網站,管理網站不被入侵,以及管理網站的更新等。類似地,有個完整的AI生命周期管理,這也是CognitiveScale公司關注的問題:如何以負責的、大規模的方式創建、部署和管理AI?
傳統IT系統不具備學習能力,它們主要是基于規則建立的系統,以規則為中心的系統不會學習,而以AI為基礎系統是基于模式的,它們可以從模式中學習。因此,與不具備學習能力的傳統IT系統不同,AI系統有自學和幾何級數提升自我的能力。如果你無法獲得對這些AI系統的可見性和控制能力,那么你可能會面臨CognitiveScale公司所謂的“流氓AI”的巨大問題,它是不負責任的AI。你知道恐怖電影《鬼娃孽種》(Seed of Chucky)中的場景吧,就像許多鬼娃在你的企業里跑來跑去,將那里搞得一團糟。我們需要的是全面的端對端視圖,從設計、部署到生產,以及在規模上管理AI。這需要的不僅僅是技術,還需要技能、方法以及過程。
AI必須作為一項商業戰略來完成
【問】:在我們更早的聊天中,你提到有些人在擴展他們的AI項目時遇到了困難,他們在自己的企業里開始,讓他們的企業有了準備。我們來談談這個問題。為什么會這樣,那么解決方法是什么呢?
薩克森納:是的。在過去五年中,我與超過600名客戶進行了交流,從IT級別到董事級別,再到首席執行官級別。有三件大事正在發生,他們正在努力獲取AI的價值。第一,AI被認為是數據科學家和分析人員才可以做的事情。然而AI實在太重要了,不能只留給數據科學家去做。AI必須作為一項商業戰略來完成。AI必須通過自頂向下的方式來驅動業務成果,而不是自下而上地尋找數據模式。這是第一部分。我看到很多正在進行的科學項目。其中一位客戶將其稱為“飛鏢vs泡沫”。他說:“有很多項目正在進行中,但我怎么知道泡沫在哪里,這對我所擁有的數十億美元的業務真的有幫助嗎?”有很多我稱之為“自下而上的工程實驗”正在進行中,它們可能不會有太大幫助。
第二,數據科學家和應用開發人員正在努力將這些項目投入生產,因為他們無法為你在企業中需要的AI提供基本能力,比如解釋能力。我相信,目前99.9%的AI公司在未來3年內無法實現這一目標,因為它們缺乏一些基本的能力,即解釋能力。在互聯網上通過深度學習網絡找到喵星人的照片是一回事,向首席風險官解釋為什么某項指控被拒絕、病人為何死亡則是另一回事,而現在他們又面臨著一場價值數百萬美元的訴訟。AI必須是負責任的、值得信賴的、能夠解釋的,并能夠說明為什么當時做出了這樣的決定。由于缺乏這種能力,而且有五種我們稱之為“企業級AI”的能力,大多數項目都無法進入生產階段,因為它們無法滿足安全性和性能方面的要求。
最后,這些技能依然非常稀少。有人曾告訴我,在這個世界上只有七千個人擁有能夠理解和運行AI模型和網絡的技能,比如深度學習和其他網絡。想象一下,7000人。我知道有一家銀行,它有22000名開發者,這僅僅是一家銀行。如今AI投入實踐中使用的方式依然存在著巨大分歧,與此同時,AI技能的發展也面臨著巨大的挑戰。
這是CognitiveScale公司正在做的另一件事,我們創造了這個平臺來幫助AI民主化。如何讓應用開發者、數據科學家和機器學習人員協同工作,并在90天內部署AI?我們有一種名為“10-10-10”的方法,即在10小時內,我們選擇一個用例;在10天內,我們使用它們的數據建立參考應用程序;最后在10周內,我們將它們投入生產實踐中。我們通過幫助這些團隊合作開發一個名為“Cortex”的新平臺,讓你可以安全地將AI大規模地投入生產。
【問】:在這一點上,歐洲人正在努力,以弄明白AI是否為你做出了決定,你有權利知道為什么它會拒絕為你貸款。所以,你是說這是現在還沒有發生的事情,但這是有可能發生的。
薩克森納:實際上,目前已經有很多正在進行的類似努力。DARPA已經圍繞“XAI”(可解釋AI)這個概念提出了一些倡議。我知道其他公司也在探索這個問題,但這仍然是一項水平非常低的技術工作。在商業流程層面,在行業層面上,“XAI”不會出現,因為AI的解釋性要求因過程而有所不同,行業之間也存在差異。對于喉癌專家來說,關于AI為何推薦當前療法的解釋性要求,與財富管理領域的投資咨詢經理的解釋性要求不同,后者可能會說:“這是我和AI系統向你推薦的投資組合。”因此,解釋性要求存在于兩個層面。它作為一種技術存在于水平層面上,而且它也存在于行業優化層面上,這就是為什么我認為AI必須進行垂直化和行業優化才能真正實現起飛的理由。
【問】:你認為這是詢問AI系統的有效請求。
薩克森納:我認為這是必要條件。
【問】:但如果你問谷歌員工:“我在搜索中排名第三,另一人排在第四位。為什么我第三他第四?他們會說:‘我不知道。’因為有六千種不同的事情正在發生。”
薩克森納:完全正確。
【問】:那么,解釋性要求難道不會阻礙技術發展嗎?
薩克森納:或者會,但它也可以創造出一個新的領導階層,他們知道如何解決這個難題。這就是我們建立CognitiveScale公司的初衷。這是我們在創建“企業級AI”的六項要求之一。當我們在研發IBM超級電腦沃特森的時候,我學到了一個重要的東西,那就是你如何建立一個可以信任的AI系統,就像人類那樣?解釋能力就是其中之一。另一個原因是,有理由的進行推薦。當AI給你提供了一個洞見時,它還能給你提供支持洞見的證據:“為什么我認為這是你最好的行動方式?”當對AI建立起信任后,也就是人類能夠采取行動的時候。提供證據和解釋能力是“企業級AI”需要的兩大要求,也是AI取得大規模成功的前提。
【問】:有七千人明白這一點。假設這是真的,那是它有多困難?
薩克森納:我認為,這是一種技能的不同之處,我們正試圖將其引入企業。這也非常困難,就像網絡一樣,我一直在上網,我們現在就像處于1997年互聯網剛剛誕生時的狀態。在那個時候,可能只有幾千人知道如何開發基于html的應用程序或網頁。今天的AI就像1996年和1997年的互聯網,當時人們通過手工制作網頁,這與構建web應用程序有很大的不同。網絡應用將一系列web頁面連接起來,并將它們編排到一個業務流程中來驅動結果。這與優化某個行業的過程有很大不同,而且要在可解釋性、管理和可擴展性等要求下對其進行管理。圍繞“企業級AI”的創新還有很多,但我們還沒有觸及到這個領域。
【問】:1997年互聯網問世時,人們爭相在自己的公司里建立網絡部門。我們現在也處于那種狀態嗎?我們是否在爭相建立AI部門,難道不是這樣的嗎?
薩克森納:絕對如此。我不會說這不是解決問題的方法。我得說這是必要的第一步,需要真正的理解和學習。不僅僅是AI,甚至是區塊鏈——CognitiveScale公司將其稱為“大腦區塊鏈”。我認為這是一個巨大的轉變,雖然這還沒有發生,但在未來三到四年的時間里,你會開始建立自我學習和自我保證的過程。回到網絡的類比上,這是需要三四步才能實現的目標(讓企業成為電子商務)邁出的第一步。25年前,當網絡剛出現的時候,每個人都變成了電子商務,每一個過程都變得“網絡化”。現在,隨著AI技術的發展,每個人都將成為“AI企業”,或者是“C企業”,即認知企業,每個人都在獲得“認知能力”。每一個過程都會被“認知化”。每一個過程都將從新的數據和新的互動中學習。
它們將經歷的這些步驟與他們在網絡誕生時所經歷的過程并沒有什么不同。一開始,有一群人在開發網絡應用,CEO在一段時間之后說:“我已經花了一百萬美元,我在網站上有了智能數字手冊。但它對我的生意有何幫助?”這正是我們目前所處的階段。然后,另一個人說:“嘿,我可以把購物車連接到這個特定的網頁上,我可以圍繞它設置一個支付系統,我可以用它創建一個電子商務系統。我有一個名叫JBoss的開源項目,你可以用它來做這些事情。”這有點類似于Google TensorFlow今天為AI提供的支持,然后,像Siebel和Salesforce這樣的下一代公司會說:“我可以為你打造一個商業化的、基于網絡的CRM系統。”同樣,這也是CognitiveScale公司在做的。我們正在打造下一代智能CRM系統,或稱智能HRM系統,讓你以可靠和可擴展的方式從這些系統中獲得價值。所以AI的發展過程與我們在互聯網誕生后經歷的情況類似。而且,這期間仍有大量的創新,并形成新的市場領導力量。我相信會有一家價值數千億美元的AI公司,它將在未來7到10年內崛起。
未來,AI的發展速度會更快
【問】:AI發展的時間框架發生了什么變化,它會更快還是更慢?
薩克森納:我想會更快一些。這可能有很多原因。關于這一點,我曾圍繞著技術超收斂性(superconvergence)的概念發表過TED演講。當網絡出現時,我們正從一種技術轉向另一種技術,從客戶端服務器轉移到Web。現在,你已經有了這些正在融合的六項超級技術,這將使AI的普及速度更快,它們包括云計算、移動、社交、大數據、區塊鏈和分析。所有這些都以特定的速度匯聚起來,使計算和訪問成為可能,這是以前不可能做到的,而且你還可以將其與企業能力相結合,從而產生戲劇性的顛覆效果。
AI與互聯網不同的一個最大原因是,這些網絡系統是基于規則建立的,它們沒有幾何級數的學習和改進能力。與基于網絡的系統不同,CEO和董事會成員所擔憂的是,有AI支持的系統會隨著時間的推移而不斷改進,并隨著時間的推移而不斷學習。因此,要么“我將在競爭中獲得巨大的成功,要么我將被遠遠甩在后面。”有些人稱之為企業的“Uber化”。這是一種威脅,也是將AI作為一種商業模式轉型和加速的機會。在我們所擁有的超收斂性的支持下,這將成為一項非常令人興奮的技術。
【問】:如果一位CEO正在傾聽,他可能會說:“聽起來很有道理。”但他應該采取的第一步行動是什么?
薩克森納:我認為有三個步驟。第一步是讓你自己和你的領導團隊了解AI的商業可行性,即AI的商業轉型,而不是AI的技術可能性。所以,第一步就是教育,包括教育自己。第二步就是開始試驗。通過部署90天的項目,花費幾十萬美元,而不是投入數百萬美元進行為期兩年的項目,這樣你就能真正開始理解其中的可能性了。此外,你還可以從供應商的宣傳中了解什么是產品,什么是PowerPoint。不幸的是,如今對AI的態度要么受好萊塢影響,要么被來自大公司的營銷人員所左右,所以90天的項目將幫助你完成這一任務。所以,首先是教育,其次是實驗,第三是啟用。讓你的員工真正開始擁有技能、治理和流程,并建立一個生態系統,找到真正合適的合作伙伴(有技術、數據和技能),并開始熟悉你的業務。
【問】:你知道,AI總是以游戲為基準進行衡量,特別是它能打敗人們的游戲。我認為,這是因為游戲屬于封閉的環境,有固定的規則。企業應該去尋找候選項目,尋找看起來像游戲的東西嗎?我有一堆簡歷,我有一群績效評價很高的員工,還有評價不太高的員工,哪些是可匹配的?
薩克森納:我認為這是一個錯誤的比喻。我認為,企業應該圍繞3件事思考AI:他們的客戶、他們的員工以及他們的業務流程。他們必須思考:“我怎樣才能以一種改變客戶體驗的方式來使用AI呢?每個顧客都覺得自己是獨特的個體,我該如何與他們接觸并吸引他們?”所以,這就是客戶體驗高度個性化和高度語境化的體驗。其次是員工的專業技能。“我怎樣才能增加我的員工的經驗和專業知識,讓每一個員工都成為我最聰明的員工?”這就是“鋼鐵俠賈維斯”套裝。“如何提高員工的技能,讓他們在做決定時、在處理異常時保持最聰明的狀態?”第三件事就是我的業務流程。“我如何從新的數據和新的客戶互動中部署不斷自我學習的業務流程?”我認為,如果我是一家企業的首席執行官,我會從這三個方面來看待這個問題,然后在90天內部署項目,以了解這三個方面的可能性。
【問】:談下有關CognitiveScale的經驗,它是如何處理這種組合的呢?
薩克森納:CognitiveScale公司是由IBM沃特森的一部分高管創立的,也就是我和負責沃特森實驗室的人。我們在頭三年運行它,但我們馬上意識到這項技術是多么強大,多么具有顛覆性。我們有三件事要做:首先,我們意識到,對于AI來說,要想取得真正的成功,它必須是垂直的,而且必須對一個行業進行優化。第二,AI的力量并不是人類在問AI問題,而是AI告訴人類應該問什么問題以及需要尋找什么信息。我們稱之為“已知的未知”和“未知的未知”。今天,為什么我要問Alexa?當我醒來的時候,Alexa為什么不告訴我:“嘿,當你睡覺的時候,英國退出歐盟了。”如果我是一名投資顧問,它為什么不說:“這里是你今天應該打電話給你的第十七位客戶,讓他們了解其中的含義,因為他們可能感到恐慌。”它使用的是一個與BI相反的系統。BI屬于“已知的未知”,即我知道自己不知道什么,因此我需要進行查詢。AI則屬于“未知的未知”,這意味著它在拍我的肩膀說:“你應該知道這個”或者“你應該這樣做”。所以,這是第二個主題。第一是垂直化,第二是“未知的未知”,第三個是90天增量啟動,這是用我們稱為“10-10-10”的方法來實現的,我們可以在90天內開發出實用的AI。
CognitiveScale公司大約三年半前開始運營,其使命是在醫療保艦金融服務、電信和媒體領域創造指數級的業務成果。這家公司的表現非常好,我們有來自微軟、英特爾、IBM和Norwest的投資,融資總額超過5000萬美元。在奧斯廷紐約、倫敦和印度都有辦事處。我們有超過三十個客戶正在部署這一系統,現在有將其擴大為企業范圍的計劃。而且,它再次建立在推動指數業務成果的假設之上,而不是利用AI推動科學項目。
【問】:CognitiveScale公司是一家總部位于奧斯汀的公司,與Gigaom則是奧斯汀的公司,在奧斯汀有很多AI活動。這是怎么發生的,奧斯汀是一個AI樞紐嗎?
薩克森納:當然,這是我正在做的一件令人興奮的事情。我的一個角色是CognitiveScale公司的執行主席。我的另一個角色是,我有一個價值1億美元的種子基金會,專注于投資垂直的AI公司。去年我們剛剛在奧斯汀宣布推出名為“AI?Global”的項目,它的重點是促進負責任的AI部署。
我相信東海岸和西海岸將在AI領域擁有自己的技術創新。AI將比互聯網更強大。AI將達到無所不在的程度。我們周圍的一切(從椅子到燈泡,再到眼鏡),都將在未來10年內將AI元素融入其中。而且,我相信奧斯汀擁有的一個機會,正因為如此,我們在奧斯丁創建了“AI Global”項目,旨在幫助企業以負責任的方式部署AI,從而以一種合乎道德和負責任的方式為企業創造良好的業績。
以符合道德和負責任的方式合理地使用AI讓奧斯汀社區團結起來,也讓它成為著名的、開發負責任AI系統的天堂。我們與UT法學院、UT設計學院、UT商學院以及UTIT學院合作,我們與市長辦公室和整座城市都有廣泛的合作。我們也有一些像USAA這樣的本地公司作為合作伙伴,他們作為創始成員加入了進來。我們現在所做的是幫助那些來找我們的公司,為它們提供如何設計、部署和管理負責任的AI系統的處方。我認為,對于Gigaom和AI?Global來說,有很多的機會可以幫助我們共同開發負責任的AI系統。
AI會抹去人類文明嗎
【問】:你可能聽說過,IBM的沃特森在智力游戲《Jeopardy》中擊敗了人類冠軍肯·詹尼斯(Ken Jennings)。詹尼斯在TED上做了一個演講,他說,有一張圖表,隨著沃森變得更好,它會顯示出其進步曲線。每周,IBM會給他發一個更新,顯示沃特森的表現越來越接近他。詹尼斯還說,看著沃特森的進步讓他感到害怕。但他承認:“這就是AI的本質,它不是終結者。這是你做得最好的一件事,只是沃特森會越來越擅長這方面的工作。”你說過好萊塢為AI敘事定下了論調,其中一種說法是AI對就業的影響,人們對此有很多不同意見。有些人認為它會取代大量低技能的工作,我們會遭遇長期的失業危機,就像大蕭條一樣。第二種觀點認為,AI實際上也會創造許多工作崗位。AI就像任何其他的變革技術一樣,它將提高生產率,而這正是我們提高工資的方式。那么,你同意這些敘述中的哪一種?
薩克森納:還有第三種觀點,宣稱AI可能是我們的最后一個重大創新,它將導致我們這個物種滅絕。我認為前兩種情況很有可能,事實上,這三種觀點都是真的。
【問】:你認為AI會抹去人類文明嗎?
薩克森納:如果我們沒有做出正確決定的話,并非不存在這種可能。我已經聽說了自動化戰爭之類的東西,這讓我感到害怕。讓我們舉三個例子:就AI搶走人類工作而言,我認為每項重大技術(從蒸汽機到拖拉機再到半導體)總是會取代大量工作,AI也不會有什么不同。有一項預測顯示,到2020年,AI將使1800萬人失去工作崗位。這些任務都是可以由機器自動完成的日常任務。
【問】:稍等一下,那是27個月以后的事了。
薩克森納:是的,1800萬份工作將被取代。
【問】:這是誰說的?
薩克森納:這是一份報告,來自世界經濟論壇,但我認為這是事實。但我并不擔心這一點,因為我關注的是AI將提升13億個工作崗位。這就是為什么我把增強人類能力而不是取代人類視為更大機會的理由。是的,AI將會移除和取代部分工作,但利用AI來增強和提高員工的技能,就像網絡那樣,可能帶來更大的機會。網絡為你提供了更多的接觸和連接,這種規模是前所未有的,就像之前的電話以及電報那樣。我認為AI將給我們帶來巨大的創造機會,有人稱之為“新領工作”。不僅僅是藍領或白領,而是“新領”工作。我確實相信這一點,我認為AI能將會帶來一系列的全新工作。第二種說法是AI是我們將會進行的最后一項重大創新。
我認為這是完全有可能的。如果你在互聯網出現的時候仔細審視它,你會發現互聯網早期的兩個頂級應用就是賭博和色情。然后,我們開始讓互聯網為企業和民眾謀福祉而工作,我們做出的選擇讓我們更善于利用互聯網。我想AI領域也會發生同樣的事情。如今,AI已經被廣泛應用于各種各樣的事情,從處理有爭議的停車罰單,到星巴克用它來預定咖啡,再到出售演唱會門票等。但我認為,我們必須就“如何負責任地使用AI”做出決定。我已經了解伊隆·馬斯克(Elon Musk)和馬克·扎克伯格(Mark Zuckerberg)的觀點,我相信他們都是對的。我認為,這一切都取決于我們如何做出選擇,以及我們如何利用AI作為下一個競爭優勢來擴大我們的員工隊伍。
現在,在這一切中,最大的未知數是一個“糟糕的演員”,或者某個國家,可以用AI做什么。我仍然沒有完整的答案,但最讓我擔心的就是自動化戰爭的情況。人們認為,通過AI,他們實際上可以限制損害,他們可以以非常精確的方式達到目標。但問題是,AI還有很多未知之處。當前的AI是不可信賴的,你把它引入可以成為大規模殺傷性武器的東西里面,如果出了問題(因為技術還在成熟),可能會造成前所未見的大規模破壞。所以,我想說的是,所有這三個要素:消除工作、創造新的就業機會以及給我們的種族帶來生存威脅,所有這些都有可能發生。最讓我興奮的是,AI將如何擴展和提升我們的工作能力。
【問】:讓我們重新回到工作崗位的話題上來,但是你剛剛提到了戰爭。首先,似乎有18個國家正在努力開發基于AI的系統。他們的觀點是雙重的。有一種說法是:“如果我不開發,還有17個國家正在努力開發它。”現在,軍方投下一枚炸彈,炸毀了所有的東西。讓我們看看地雷。地雷不是AI,它會炸飛任何東西。所以如果有人說:“我可以造AI地雷用來嗅火藥,它只會炸死攜帶武器的人。”如果你把戰爭看成是生活的現實,為什么你不希望那些更具歧視的系統呢?
薩克森納:這是個很好的問題,我相信這是絕對會發生的。但還要等很長時間,也許是5年或10年之后。我們正處于最危險的時期,有關AI的炒作遠遠超出AI當前的真實狀態。這些AI現在是非常不穩定的系統。就像我之前說的,它們不是以證據為基礎的,在AI中沒有任何的切換開關,沒有解釋能力,沒有任何性能是你能真正弄清楚的。還是以你的例子來說明,AI地雷能嗅出火藥,然后爆炸。如果我把地雷儲存在城市中心的槍械庫里,它會從那里的其他武器中嗅出火藥,然后引爆自己。今天,我們無法在這種程度上對AI進行可見性和控制,并確保在這種規模上應用它。
我的觀點是,作為一個國家,每個國家都有特權。你看到普京(Putin)在談論這個問題時說:“控制AI的國家將控制未來的世界。”沒有人把妖怪放回瓶子里。就像我們擬定戰爭規則一樣,就像我們在核戰爭中所做的那樣,將會有新的“日內瓦公約式的規則”,我們將不得不提出這樣的規則,來決定這些負責任的AI系統如何以及在哪里被部署和監管。因此,就像我們在化學戰中所做的那樣,我認為將會有新的規則來限制以AI為基礎的戰爭。
【問】:但重點在于:核事件是二選一的事情,要么爆發造成毀滅,要么根本不會發生。但AI不是這樣的。你可以說狗糧碗空掉的時候會自動補上,那就是AI。你怎么解說法律,假設人們都遵循它,你怎么用簡單的英語來表達呢?用一種非常簡單的方式。
薩克森納:你已經聽過艾薩克·阿西莫夫(Isaac Asimov)的機器人三原則。我認為,作為一個社會,我們必須提出一種共同的思維模式,并將由各國提出類似的建議。事實上,我將在明年的倫敦北部召開一個會議,討論如何以一種負責任的方式在戰爭中使用AI和無人機。我認為,第一個事件還沒有發生,不過你可以說,“假新聞”事件是已經發生的大型AI事件之一,這可能會改變總統競選的結果。人們擔心黑客攻擊,我更擔心的是你無法追蹤到的攻擊源頭。我認為這是一項需要去做的工作。
【問】:有一個武器系統確實做出了自動殺人的決定,正在評估它的軍方說:“我們需要有人監督它。”所以他們修復了這個功能,當然你可以關掉它。用這種方式來定義它幾乎是件棘手的事。聽起來好像你支持AI武器,只要它們不存在問題。
薩克森納:我不贊成AI武器。總的來說,我是反戰人士。但這是人類的弱點和人類的局限性之一,戰爭是我們生活中不可或缺的一部分,盡管它丑陋不堪。我認為,人們和國家將會采用AI,并將開始把它用于戰爭。我們所需要的是一套新的協議和一套關于如何使用AI的新原則,就像化學武器和核武器那樣。我不認為這是我們可以控制的。我們能做的就是管理和執行它。
【問】:那么,在過去的戰爭中,你是否相信普京關于“未來控制AI將會控制世界”的言論?
薩克森納:當然,我認為這是理所當然的。
【問】:讓我們重新回到工作崗位的話題上。通過你給出的例子,蒸汽、電力和機械化摧毀了許多工作,但它們卻沒有導致人們整體失業。在美國,至少在200年里,失業率始終在5%到10%之間徘徊,除了經濟大蕭條,但這不是技術的錯。所以,以前發生的事情是:當我們發明了電梯按鈕,不再需要專人來操作的時候,我們就把所有的電梯操作員都趕了出去,但是我們從來沒有看到失業率上升。這種情況會發生嗎?因為如果我們在未來27個月真的失去了1800萬個工作崗位,那是個非常龐大的數字。
薩克森納:問題是,1800萬這個數字是一個全球數字。
AI可以幫助創造全新的工作類別
【問】:好吧,那聽起來似乎好多了。
薩克森納:而且,你必須把這個數字放在所有勞動力的背景下。今天,全球有7億到13億名工人在工作,1800萬人只是其中很小的一部分。這是第一點。第二,我認為,AI成為合作伙伴的潛力更大,可以幫助創造全新的工作類別,而不必害怕機器取代工作。機器總是取代工作,它們會繼續這樣做。但我相信,這也是我對我們的教育系統感到擔憂的地方,我們在沃特森身上做的第一件事就是,我們啟動了一項大學計劃,讓人們掌握能夠部署和管理AI系統的技能。在接下來的10年或50年里,人類的創造力和人類潛能將會通過創造全新的工作方式而產生,并將通過AI釋放出來。
如果你看看CognitiveScale公司,我們今天大約有160名員工。其中半數人的工作在4年前還不存在。今天,許多甚至從未考慮過在科技公司工作的人都被我們錄用。我們有語言學家加入了軟件公司,因為我們已經把他們的工作變成了計算語言學,他們把自己所熟知的語言學與機器結合起來,創造了全新的應用和系統。我們有些人正在為AI創建一種全新的測試機制。這些測試者以前從未存在過。我們現在有些人正在用AI設計和編寫智能代理,他們正將技術應用到數據科學、應用開發以及機器學習中,這些都是新出現的技能,更不用提銷售人員和商業戰略家了,他們也在幫助開發新的應用。從經濟增長和就業的角度來看,我傾向于相信這是最激動人心的時刻。我們以及這個世界上的每個國家都需要面對這個時刻,這完全取決于我們如何將其商業化。我們之所以來到美國,是因為這里有非常富有和充滿活力的風險投資社區,以及充滿活力的股票市場,它重視創新,而不僅僅是收入和利潤。只要我們有這些,只要我們有專利保護和良好的執法,我就能看到這個國家的美好未來。
【問】:在工業革命的初期,在美國這個國家,有一場關于后掃盲教育價值的辯論。想想吧。為什么大多數人需要在他們學會如何閱讀后才去上學?然后還有許多人說,未來的工作(比如工業革命后的工作)將需要接受更多的教育才能勝任。因此,美國是世界上第一個保證每個人都能上高中的國家。所以,天使投資人馬克·庫班(Mark Cuban)說,如果他能重新選擇,他會學習哲學。他曾經說過:“第一批億萬富翁將是從事AI的人。”他很看好這一點,他說:“我會學習哲學,因為這是你需要知道的。”如果你要為年輕人提供建議,那么他們今天應該學些什么,以便在將來成為合適的人才呢?
薩克森納:我認為這是個好問題。我會說,我會學習三種不同的東西。第一,我會學習語言學,文學(軟科學),這些都與如何做出決策,以及人類思維如何運作、認知科學諸如此類的事情有關。這是一個領域。我要學習的第二件事是商業模式,以及企業是如何建立、設計和擴張的。我要學習的第三件事就是技術,要真正理解這些系統的技術。在這三件事的交叉點上,設計、文學和哲學的創造性非常重要,它們與人類的思維如何運作、如何建立成功的商業模式,以及如何為這些商業模式提供動力的技術基礎息息相關。我會把重點放在這三種技能的交叉點上,所有這些技能都是在創業精神的保護傘下實現的。我對創業充滿熱情。企業才是真正引領這個國家前進的主體,無論是大公司還是小公司。
【問】:你和我談過有關AI的話題,并說過在四五十年之后,可能需要量子計算機幫助計算。你提到了馬斯克及其對生存威脅的恐懼。他認為,顯然我們已經非常接近于通用人工智能(AGI),這就是他的恐懼所在,這也是霍金所關心的。你說過:“我同意這種擔憂,如果我們搞砸了,那就是生存威脅。”你如何看待這個問題:我們40年內會有AGI嗎?
薩克森納:我認為你不需要AGI來創造一個生存威脅。有兩個不同的維度。你可以通過建立一個極不可靠的自動武器系統來制造生存威脅,這種系統對通用智能一無所知,它只知道如何尋找和殺戮。而在錯誤的人手中,這可能真的是生存威脅。你可以在互聯網上創建一種病毒,它可以摧毀所有公共設施和應急系統,而它不需要了解任何關于通用智能的信息。如果這種方式在沒有適當的測試或控制的情況下被釋放,就有可能拖垮經濟和社會。我認為,這些都是我們必須要意識到的結果。這些都是我們必須開始制定規則、指導方針和強制執行的原因。這就是我認為我們今天遠遠落后的兩個領域,也可以說是技能。
AI是一種全新的學習方式
【問】:OpenAI計劃的目的是讓AI成為單獨參與者無法開發的技術。在這種情況下,也就是指AGI,但會始終都這樣嗎?你認為這是一個好的開端嗎?
薩克森納:是的,絕對如此。我認為OpenAI可能需要其他幾百個類似的項目,以專注于AI的不同方面。就像我們的AI Austin和AI Global項目所做的那樣。我們關注的是在符合道德規范的情況下使用AI。擁有無人駕駛汽車是一回事兒,而擁有智能導彈則是另一回事兒。你如何駕駛載有4人的無人駕駛汽車,你如何在“證人箱”中交叉檢驗它呢?AI的解釋能力如何?誰來負責?因此,在將這些知識應用于智能產品時,我們需要考慮一整套新的倫理和法律。幾乎就像保險商實驗室的AI那樣,需要將其融入到每個產品和每個流程中。這些都是我們的政府需要了解的事情,我們的監管者需要保持警惕。
【問】:有一種理論認為,如果要依賴政府,我們都會處于糟糕的狀態,因為科學發展的速度要快于立法機構作出反應的能力。你有解決這個問題的辦法嗎?
薩克森納:我認為有很多事實可以說明,尤其是我們最近圍繞技術在政府所看到的東西,存在很多優點。我相信,我們所取得的成就和我們使用AI產生的結果,將取決于我們作為個體公民的行為,我們作為商業領袖的做法,以及我們作為慈善家所做的事情。美國最美妙的事情之一,就是有像蓋茨和巴菲特這樣的慈善家正在做的事情,他們現在擁有的資產比很多國家都多,而且他們也在負責任地利用這些財富。所以,我對美國創新的期望是,如果可以的話,也要以負責任的方式應用AI。我相信,我們所有人都有能力去教育和管理這些事情,我們有責任傳播這些技術,并且能夠向前一步,開始提供幫助,并引導AI被以負責任的方式投入使用。
【問】:讓我們來看看你的“什么不是AI”清單,你列舉了五件事。其中一個你說“AI不是自然語言處理”,顯然,這是真的。你認為圖靈測試有價值嗎?如果我們制造一臺能夠通過它的機器,這是一個基準嗎?在這種情況下,我們做了什么了不起的事?
薩克森納:當我在運行沃特森的時候,我曾經認為它有價值,但我不再那么相信它了。我認為它的適用性很有限,主要有兩個原因:一是,在你用機器代替人腦的特定過程中,你絕對需要進行某種測試來進行證明。更令人興奮的不是自動化或重復人類功能,而是人類大腦沒有想到或者沒有做過的事情。我給大家舉個例子:CognitiveScale正與一家非常大的媒體公司聯手,我們正在分析“超級碗”電視廣告,通過讓AI閱讀視頻廣告,找出到底是什么類型的創意(孩子、小狗還是名人)、在什么時候對創造最好的電視廣告會產生最大的影響。令人著迷的是,我們只是讓AI去做,而沒有告訴它該尋找什么。沒有圖靈測試證明這“是好是壞。”從聯系角度來看,AI帶回來的東西有十到十二層的深度,這是人類大腦通常不會想到的東西。我們仍然無法描述為什么會有這樣的聯系。
AI發現的東西絕對不僅僅是參考大腦模式,這是我說過的“未知的未知”部分。通過AI,你可以模擬人類的認知,但更重要的是,你還可以通過它擴展人類的認知。我認為這是AI一個令人興奮的部分,因為它是人類大腦可能沒有使用過的模式、見解和決定的延伸部分。我們發現,當我們和客戶共同做項目時,有些作為人類我們無法解釋的模式,為什么會這樣還不清楚,但它們之間的確有很強的相關性。它有十八層的深度,它被埋在里面,但它是一個強大的相關器。所以,我把它分為兩類:一是AI可以取代的低水平重復性任務,第二是一種全新的學習方式,它擴展了人類的認知。這是一種無人監督的學習方式,你需要將人類放入”回路“中,去真正了解和學習新的商業方法。我認為,這是我們需要認識到的兩個方面,而不僅僅是試圖模仿當前的人類大腦。在很多情況下,人類大腦在做出正確決策時效率非常低下。
【問】:你對AI的未來發展持樂觀態度。在關于沒有通用智能我們能走多遠的問題上,你可能是接受過我采訪的最樂觀的人。但是,當然,你一直在使用“生存威脅”這樣的字眼兒,你信奉“電腦病毒會摧毀電網、引發戰爭等”概念,你甚至提到有人會在商業環境中使用“流氓AI”。在后一種情況下,“流氓AI”將如何摧毀一個企業?你不能通過立法來解決這個問題,對吧?因此,在企業場景中給我舉個“流氓AI”的例子。
薩克森納:有很多這樣的AI。最近我們與一家大型金融機構會面的時候,就曾遇到過一個。我們坐下來開會,突然發現那家公司正在經歷一場大規模的業務中斷,因為它們的所有數據中心都在關閉,然而每隔20分鐘左右就會重新啟動。而且在全世界,它們的數據中心都在重復這個過程。他們對此感到十分恐慌,因為這發生在工作日期間,涉及到數十億美元的交易,他們不知道為什么這些數據中心會出現這樣的問題。幾個小時后,他們發現有人在上個月寫了一款安全聊天機器人,然后他們把它放到了自己擁有的云系統中,出于某種原因,那個AI代理覺得最好每隔20分鐘就關閉這些系統,然后再重新啟動它們。這是一個簡單的例子,雖然這家機構最終找到了問題,但在管理特定AI的過程中,沒有任何可見性。這也是我們為何討論擁有一個管理可見性和控制這些AI框架的原因之一。
另一個可能是(這還沒有發生,但這是其中的一個威脅)保險問題。保險公司現在經常使用技術,開始承保風險。而且,如果出于某種原因,你的AI系統可以看到相關性和模式,但在真正了解風險方面還沒有得到足夠的培訓,這幾乎可以將你的整個業務徹底抹去。如果你過于依賴AI,而它卻沒有解釋能力并值得你信任,此時它建議你承擔風險,這將使你的企業面臨生存風險。
我可以繼續舉出很多例證,比如關于癌癥、糖尿病以及任何與AI將要投入使用的商業有關的事情。我相信隨著AI的發展,對企業來說,有兩個短語將變得非常重要:即“AI生命周期管理”和“負責任的AI”。我認為這是一個巨大的機會。這就是為什么我對CognitiveScale所做的事情感到興奮,從而使這些系統成為可能的原因。
【問】:最后兩個問題。在這些假設情況下,給我們描述些你親眼所見的AI成功故事。可以是CognitiveScale公司或者其他公司的成功,你已經看到其對企業產生非常積極的影響。
薩克森納:我想這樣的例子有很多。我將選擇零售領域的例證,就像零售一樣簡單,通過AI我們可以展示出一種基于規則的系統。比如某家特定的大型零售商曾經有一款移動應用,他們在里面向你展示襯衫、褲子和其他配飾,它就像一款Tinder或“hot or not”式游戲。而平均來說,基于規則的系統在人們所喜歡的內容方面,轉化率還不到10%。這些都是無需學習的系統。然后我們在它后面放了一個AI,這個AI可以理解:這條裙子是一件露肩裙子,它是藍綠色的,而且它可與露趾鞋完美搭配。當用戶開始與AI接觸時,它開始提供個性化輸出。在7個月的時間里,我們展示了24%的轉化率。這是最動人的部分,每個月AI都變得越來越聰明,每個轉化率都等于數千萬美元的收入增長。這是數字大腦、認知數字大腦、驅動購物者參與以及購物者轉換的例子。
我們看到的另一件事是小兒哮喘。AI可以幫助護士更好地防止兒童哮喘發作,因為AI可以閱讀來自pollen.com的一條推文,該推文稱周四早上豚草將會大規模開花,這會影響哮喘患者。AI了解文章中所提位置的郵政編碼,距離周四還有4天,有17個孩子有豚草或類似過敏的風險。為此,它開始拍打護士的肩膀說:“這里有個‘未知的未知’,那就是,四天之后會有豚草爆發,你最好采取主動措施,幫助孩子們應對。”所以,這是在醫療保健領域的例子。
在財富管理、金融服務、合規以及我們如何利用AI來提高合規方面,都有一些例子。有些例子表明,我們正在通過AI改變交易的動態、外匯交易。通過AI正在傾聽的聊天會議,并指導他們如何去做,交易員可以進行更好的股票和衍生品交易。這樣的例子有很多,大部分在案例研究中被寫出來,但這僅僅是個開始。我認為這將是最令人興奮的創新之一,它將在未來5到7年改變商業格局。
【問】:關于產品推薦,你完全正確。我在亞馬遜上買了很多產品,包括書和其他之類的東西,上面寫著:“你想要這些能夠自己走到桌子對面的調味機器人嗎?”我說:“是的,我喜歡!”但這和我買的東西沒有任何關系。最后一個問題,你說過好萊塢為AI設定了敘事論調。你曾提到過《機械公敵》(I, Robot)。你是科幻小說的粉絲嗎?如果是的話,你認為未來的愿景是什么,你會想:“啊哈,這真的很酷,它可能會成為現實。”亦或是你有什么其他想法?
薩克森納:好吧,我想我最接近的愿景可能是吉恩·羅登貝瑞(Gene Roddenberry)和《星際迷航》(Star Trek)。我認為這是一個很好的例子,AI可以幫助做出更好的決策,飛行甲板(全息甲板)能幫助你掌舵。但它仍然需要人類,只是人類能力被增強了。仍然是人類在同情心、勇氣和道德方面做出決定。我認為這就是AI將帶我們進入的世界,增強智能的世界。我們在那里可以做更多更大的事情,而不只是AI的世界。在后者里,我們的工作都被取代,我們只是坐在椅子上的傀儡。
【問】:羅登貝瑞曾說過,23世紀將沒有饑餓,也不會有貪婪,所有的孩子都知道如何閱讀。你相信嗎?
薩克森納:如果我有機會壽命增加兩倍或三倍,那就是我要做的事情。在CognitiveScale之后,這將是我通過基金會要去實現的新使命。我的大部分錢都捐給了基金會,它將把重點放在研究善意AI上,主要圍繞解決教育問題、環境問題以及沖突問題。我相信這是AI領域最激動人心的應用前沿。在這個過程中會有很多失誤,但我相信,作為一個物種和人類,如果我們做出正確的決定,那將是我們將要到達的終點。我不知道是不是2300年,但是我想最終我們一定會實現這個目標。(完)
評論
查看更多