回頭來看,ChatGPT的橫空出世驗證了Ilya Sutskever此前預想的AI發展方向。
在OpenAI成立早期,強化學習大牛Pieter Abbeel曾與Ilya共事,在他看來,Ilya對AI的思考總是走在他人的前面,而為了驗證自己的想法,他總是在恰當的時間更換自己的工作處境,并做出了領域內最具開創性的工作。
Ilya出生于俄羅斯,五歲隨家人搬到以色列讀書、生活,本科時轉學至多倫多大學,攻讀數學學士學位,并在此取得了計算機科學博士學位,師從深度學習“教父”Geoffrey Hinton。2012年,在Hinton的指導下,他與Alex krizhevsky提出了AlexNet網絡,開啟了新一輪深度學習革命。隨后,Ilya加入Hinton的三人組公司DNN-research,并在2013年被Google收購,Ilya也隨即入職。2015年,Ilya離開Google,與馬斯克、Sam Altman、Greg Brockman等人創立了OpenAI,至今,他一直擔任公司首席科學家。
從AlexNet開始,AlphaGo、GPT、CLIP、DALL-E和Codex這些業內開山之作都有他的身影。不過,將這位科學家推到世界舞臺中央的是2022年11月發布的ChatGPT,而他正是GPT系列模型背后的奠基人和總設計師。
以ChatGPT為代表的大型語言模型在全世界范圍內產生了巨大影響,被視為科技領域的革命性進展。
不過,面向未來,當前的大型語言模型發展不會是AI進步的全部。Ilya對此有一個比喻:如果把AI看作是身體,那還需要肌肉、骨骼和神經系統,你只擁有其中一個部件也不錯,但那不會是真正的進展,你需要集齊所有的部件。
AI的發展還將繼續。近期,在與斯坦福大學客座講師Ravi Belani的線上對話中,Ilya分享了關于大型語言模型、深度學習以及OpenAI的未來發展的思考。
他預計,深度學習和大型語言模型會繼續發展:這個領域的未來可能會有一小部分重大突破,加之許多細微改進,所有這些都將融入到一個龐大而復雜的工程體系。他還給出了一些有趣、可執行的思想實驗。
1、大型語言模型與人類智能
Ravi Belani:大型語言模型是生成式AI的關鍵技術,OpenAI目前正處于這一技術的最前沿,對這一技術有什么是你未曾預料到的?
Ilya Sutskever:大型語言模型的工作原理簡單且迷人。眾所周知,人腦由大量神經元組成,是世界上智能程度最高的東西。幾十年來,神經科學家們一直在研究神經元,試圖弄清它的工作原理,雖然生物神經元的工作之謎仍待揭開,但在上世紀四十年代早期,通過仔細觀察,深度學習研究人員們做了一個大膽設想:人工神經網絡中的人工神經元其實和生物神經元有點相似。我們可以在這一設想的基礎上進行研究。
相比生物神經元,人工神經元要簡單得多,并且我們可以對其進行數學研究。在這一領域被命名為深度學習之前,早期,深度學習先驅們取得了一個非常重要的突破——反向傳播算法。這個算法是關于人工神經網絡如何學習的數學方程,提供了一種在計算機中實現這個神經網絡并編寫代碼的方法,并告訴我們神經網絡應該如何根據經驗來調整連接。
對學習過程以及學習過程運行條件的了解關系到我們所能取得的進一步進展。雖然我們用的是計算機去操作學習過程,但這卻更像是實驗科學或生物實驗。大多數深度學習進展都可以歸結為:在大型計算機中建構神經網絡,然后用數據對其進行訓練,讓這些神經網絡完成訓練數據要求它們完成的任務。
大型語言模型的理念是:如果有一個大型神經網絡,我們可以對其進行訓練,讓它根據前面的文本內容預測下一個單詞。再看最初的猜想:也許生物神經元和人工神經元極為類似,沒有太大區別。那么,如果有一個可以準確預測下一個單詞的大型神經網絡,它的運轉方式也許類似于人們談話時生物神經元的運轉方式。如果我們和這樣的神經網絡對話,因為它能夠準確預測下一個單詞,所以可以在理解對話的基礎上,準確地縮小生成對話的可能性范圍。
精確猜測下一個單詞需要進行預測,這也是理解的方式。我們很難清楚定義神經網絡的“理解“,但我們可以輕易測量和優化網絡對下一個單詞的預測誤差。
我們想要神經網絡擁有“理解”能力,但能做的是優化預測,而這也正是我們目前在做的事。通過優化預測得到了目前的大型語言模型,它們都是用強大的反向傳播算法訓練的神經網絡,由此可以想象,人工神經元和生物神經元并沒有太大區別,如果留心觀察,我們會發現人腦很擅長猜測下一個單詞。
Ravi Belani:此前,我們認為機器是無法進行學習的,但現在發現機器可以學習,對即將發生的結果進行預測。如果人類處于1X學習階段,那么與人類相比,ChatGPT等模型處于何種階段?
Ilya Sutskever:我們很難在人工神經網絡和人類之間做直接對比,因為人類可以從較少的數據中學習很多知識,但大型語言模型卻無法做到這點,所以ChatGPT等模型才需要用更多的數據進行訓練,以彌補它們在學習方面的先天不足。隨著不斷進行訓練,這些神經網絡會變得越來越優秀,學習速度也越來越快。
總體上看,神經網絡和人腦還是有很大差異,學習方式大有不同。神經網絡十分擅長數學和編程,為了掌握數學或編程等能力,它們需要學習吸收大量數學書籍,但對人類而言,做同樣的事情,可能只需要看一兩本數學書,再做一兩百道練習題就夠了。
Ravi Belani:如果不考慮數據方面的限制,讓模型吸收盡可能多的數據,那它現在的學習能力是否達到了人類的十分之一?
Ilya Sutskever:這個問題給任何回答都具有誤導性。顯然,目前神經網絡所儲備的知識量以及所掌握的技術都遠超人類水平,比如這些模型十分擅長詩歌創作,它們可以就任何話題發表長篇大論,還可以談論歷史等等。但從另一角度,人類可以對這些問題進行更深層次的探討,比如人類專家可以在只讀了少量文獻的基礎上,對某個話題發表深入見解。
Ravi Belani:機器的學習和適應速度是否會超過人類?這樣的奇點是否存在?
Ilya Sutskever:會的。在這方面我們還會取得進展,但距離奇點的發生還要很久,我不能給出一個確切時間。
Ravi Belani:現在,有人對AI的發展表示擔憂,特別是蘋果的聯合創始人Steve Wozniak和埃隆·馬斯克,兩人曾公開簽署過一份請愿書,聲稱人類已經接近甚至可能越過了技術發展紅線,如果現在不中止AI的發展,將無法控制其帶來的后果。不過,Sam Altman(OpenAI CEO)對此基本持反對意見,在你看來,AI發展是否應該受到一些監管或監督的限制?
Ilya Sutskever:人工智能將變得非常強大,并具備真正的變革力量,我們確實需要朝著一個制定政府監管的世界前進,其中有以下幾個方面需要考慮。
首先,我們希望生活在一個制定明確規則的世界,例如對訓練更強大的神經網絡制定規范。其次,我們需要對神經網絡的訓練進行謹慎評估,預測其當前和未來能夠實現的能力,比如在一年之后或者訓練完成時達到的能力。這些措施必不可少,以確保人工智能的發展合理并可靠。
我們追求的是一個每一步都經過充分準備、驗證和認證的世界。我相信,這是我們應該致力于發展的正確方向。
2、機器“意識”的思想實驗
Ravi Belani:你小時候曾困惑于“意識”這個概念,你是否認為“意識”、“感覺”或“自我意識”等是學習的延伸?“意識”是否無可避免,注定會產生?
Ilya Sutskever:小時候,看著自己的雙手,我會好奇為什么眼前這個東西是我的手呢?“意識”仿佛是自然而然產生的,我不知道該如何更好地對“意識”進行解釋。
眾所周知,“意識”是很棘手的問題,它沒有明確的定義,并且我們也沒有“意識”檢測系統。有時對于完美運行的系統,我們會猜測它也許具有“意識”,但出于某些原因,這個系統其實并沒有“意識”。
將來,當AI系統能夠快速從少量數據中學習時,我們也許可以用一種簡單的方式在AI系統上做實驗:在實驗中,我們要非常謹慎地整理數據,確保數據未包含任何與“意識”有關的內容。這些訓練數據只陳述客觀事實,比如這里有一個球,那里有一座城堡,另一邊有一個玩具等等,這類數據具有高度可控性。接下來幾年,我們就用這類數據對模型進行訓練。
或者,我們還可以讓模型與許多不同的老師進行互動,讓老師幫助它們學習,但在整個訓練過程中,我們要十分小心,不能提及任何與“意識”相關的內容,只告訴模型最表層的概念。當訓練達到一定程度時,我們再告訴AI與“意識”相關的內容。
試想一下,AI會有何種反應,它們會不會早就感受到了“意識”,然后說“天啦,我早就有這種感覺了,只是不知道該如何形容”,AI的這種反應是可以接受和預料的。
如果AI只有一些非常單調狹窄的訓練數據,那么它可能永遠不會有意識,但如果AI能以人類可理解的方式,正確且頭頭是道地談論“意識”,那么它可能真的有“意識”了。
Ravi Belani:“意識”是程度問題還是二元問題?
Ilya Sutskever:“意識”是分程度的。比如當一個人非常累或者喝醉了,他的“意識”可能會在某種程度降低。在我看來,不同的動物擁有不同的“意識”程度,比如從狗到貓到老鼠再到昆蟲的“意識”程度應該呈連續的下降趨勢。
3、開源與閉源,營利與非營利
Ravi Belani:眾所周知,OpenAI的使命是確保通用人工智能造福全人類。最初,馬斯克招募你加入OpenAI,并捐贈了1億美元,當時OpenAI還是一個非營利性的開源機構。馬斯克表示,創辦OpenAI最初的愿景是創建一股與谷歌和業界相抗衡的研究力量,考慮到AI對人類可能存在的潛在威脅,他不希望AI行業完全由企業和營利性組織掌控。如今,OpenAI卻成為營利性的閉源組織,與微軟關系密切,似乎正朝著微軟和谷歌兩家獨大的壟斷方向發展。
作為OpenAI的首席科學家,你如何看待這一轉變?在做出這一決策時,你是否考慮了道德因素?還是說道德準則是其他人的責任,你的主要任務是推動技術發展?
Ilya Sutskever:我對OpenAI的一切事務都負有直接責任,即便我的角色主要是推動技術進步,但作為公司創始人之一,我十分關心OpenAI的整體影響。在這一背景下,再來討論開源與閉源、非營利與營利。
AI的挑戰在于它能夠包羅萬象,因而面臨眾多不同的挑戰和利益沖突。開源與閉源之爭就是一個很好的例子,為什么提倡AI開源?首先,開源AI能夠防止權力過度集中于構建AI的人手中,如果只有少數幾家公司掌控這項強大的技術,顯然是不合理的,AI應當是開源的,任何人都可以使用。以上是支持AI開源的論點。
但顯然,短期來看,出于商業利益,有人會反對AI開源。同時,長遠來看,若有人相信最終AI將變得十分強大,如果未來某天你僅僅是告訴AI:“嘿!你能自主創建一個生物研究實驗室嗎?”它就能夠自行處理所有的文書工作,找到合適的場所,雇傭技術人員,整合實驗等,一切就開始變得難以置信。在這種情況下,AI是否也應該開源?
因此,關于開源問題,可能存在一種層級,來根據神經網絡的能力、智能程度和可執行任務的范圍來衡量其能力。當AI能力處于較低水平時,開源是一件好事,但在某一時刻(關于何時達到這一時刻可能會引發爭論),AI的能力將變得無比強大,這時公開源代碼顯然是不負責任的行為。
我認為,目前AI的能力水平還不夠高,不足以成為推動閉源模式的安全考慮因素。換句話說,這個問題可以分階段來看。當前,我們正處于競爭階段,但隨著模型能力的不斷增強,總有一天安全會成為一個顯著而緊迫的因素,促使我們不再開源這些模型。
Ravi Belani:這是否是OpenAI后來選擇閉源的決策動機,還是出于某種契約或商業上的考量,以獲得來自微軟或其他公司的資金支持,來支撐業務的發展,或是另有原因?
Ilya Sutskever:在某種意義上,如果OpenAI能夠成為一個非營利組織,并一直保持這種狀態直到完成使命,這種方式十分可取。然而,值得強調的是,這些數據中心成本十分昂貴,其中絕大部分都流向了云服務提供商。
為什么會出現這種局面?之所以需要這么多資金,是因為大型神經網絡的性質決定了它們需要大量的計算資源,再無其他。
可以發現,學術界和人工智能公司之間正發生分化。幾十年來,人工智能的前沿研究一直由大學的學術部門推進。直到2010年代中期,這種情況一直存在。但在某個時刻,當一個項目的復雜性提升,成本增加時,大學就失去了競爭力,如今,大學進行人工智能方面的研究需要尋求其他的方式,與過去和當前企業進行的方式截然不同。
基于以上原因,非營利組織的運轉會出現問題,因為組織資助者難以從中獲取回報,這就成了一場徹頭徹尾的捐贈,而且很難說服人們為非營利組織籌集資金。
那么,有沒有解決辦法或行動方針?我們想到了一個方法,據我所知,OpenAI的這種開放式企業架構在世界上獨一無二。
OpenAI不是營利性公司,而是一家有限營利公司,這意味著,OpenAI的股權更像是債券,而不是普通公司的股份。債券的主要特點是一旦支付完畢,整個流程就結束了。換句話說,與普通公司相比,OpenAI對投資者負有限責任。
Ravi Belani:創始人是否持有OpenAI的股份?
Ilya Sutskever:除了Sam Altman(OpenAI首席執行官)沒有股份,其他創始人持有有限股份。
Ravi Belani:股份是如何設定上限的(capped)?我推測創始人不會購買OpenAI的股份,除非股份上限設定為名義股價(nominal share value)。
Ilya Sutskever:OpenAI這一機制與普通的初創公司股份制確實不同,但也存在一些相似之處,即加入公司的時間越早,股份上限就越高,因為需要更高的上限來吸引最初投資者。隨著公司業務持續取得成功,上限會逐漸降低。這一點十分重要,這意味著,一旦向投資者和員工了卻全部義務,OpenAI將再次成為一個非營利組織。
你可能會覺得這一機制不知所云,好像并沒有改變什么,但還需要考慮人工智能未來的發展預期。我認為,OpenAI完全有可能在履行對投資者和員工的義務之后,成為一個非營利組織。當計算機變得十分強大,帶來的經濟破壞十分嚴重時,這一轉變將大有裨益。
Ravi Belani:怎么看待OpenAI與微軟的關系?
Ilya Sutskever:幸運的是,微軟對這些問題的考慮方式十分正確,他們真正理解了人工智能的潛力及其重要性。
舉個例子,微軟是OpenAI的投資者,和谷歌與DeepMind之間的關系截然不同。所有投資OpenAI的人都簽署了一份投資文件,在這個文件的頂部有一個紫色的方框,里面寫著OpenAI的首要責任是履行自身的使命。
這意味著,如果出現該使命與其他利益發生沖突的情況,投資者有可能損失所有的投資。由此證明,微軟和其他投資者都同意將OpenAI的使命置于首位。
4、專業化訓練 vs 通用訓練
Ravi Belani:在特定領域,比如法律或醫學,使用專業的數據集進行訓練能夠獲得更好性能,還是使用所有可用數據進行通用訓練更加有益?
Ilya Sutskever:在某些情況下,專業化訓練肯定能發揮巨大作用。我們進行通用化訓練的原因僅僅是為了讓神經網絡能夠理解我們所提出的問題。只有當它具有非常強大的理解能力時,我們才能進行專業化訓練,并真正從中受益。所以,這兩種訓練方向都有前景。
Ravi Belani:什么時候會達到需要重點進行專業化訓練的階段?
Ilya Sutskever:在開源領域,人們已經開始進行專業化訓練,因為他們使用的模型性能較弱,所以要盡可能地提升模型的性能。所以,需要專業化訓練的階段已經到來,不過這種趨勢是循序漸進的,而不是絕對的選擇。
我們可以將AI看成是由多個元素組成的集合,每個元素都能對其性能作出貢獻。在特定任務中,專業數據集可以使AI表現得更好;從所有任務角度出發,性能更強的基礎模型無疑也更有用。所以答案就是:我們不必非要二選一,也可以將兩者結合起來。
5、OpenAI與深度學習的未來
Ravi Belani:OpenAI的重要發展指標是什么?衡量公司發展狀況的KPI(關鍵績效指標)有哪些?
Ilya Sutskever:對于KPI,這也是一個見仁見智的問題,每人衡量OpenAI是否成功的標準可能都有所不同,不過技術進步無疑是指標之一。但簡單來說,針對重要問題,我們主要有以下KPI:
我們的研究做得如何?能否很好地了解自己的系統?有沒有能力將其訓練得更好?能否很好對其進行控制?研究計劃執行得怎樣?安全計劃施行得好嗎?我們對此的滿意程度如何?這些問題都是衡量技術發展的重要KPI。雖然我們的產品本身也很酷,但核心技術和對技術的控制與引導才是OpenAI的重心所在。
Ravi Belani:即使在科研界,人們也很想獲取OpenAI在技術方面的資料,包括模型的性能、規格及其訓練方式的詳細信息,同時希望能不受限制地與模型互動、訪問訓練參數。你們是否準備將其開放給研究人員或其他初創企業,以鼓勵競爭和創新?
Ilya Sutskever:我認為,可以采取一些折中的方法。神經網絡的行為空間非常廣闊且復雜,所以模型訪問(model access)及其各種組合可能非常有生產力。如果研究者在學術方面遇到問題,我們可以提供各種形式的模型訪問,這也是許多學術研究實驗室采用的方法。
Ravi Belani:有沒有不為他人所知但你個人非常喜歡的ChatGPT功能或用例嗎?
Ilya Sutskever:我個人非常喜歡它的作詩能力,但不能確定別人是否知道這個功能。它可以作詩、唱rap,非常有意思。
Ravi Belani:你們團隊工作也會使用ChatGPT嗎?當AI深度融合到人類團隊中時,你們的工作動態會發生怎樣的變化?這種融合會不會帶來什么外界不知道但將會出現的情況?
Ilya Sutskever:ChatGPT提升了每個人的工作效率。我不能說對團隊的工作動態有翻天覆地的影響,但確實有所變化。
Ravi Belani:Sam Altman曾表示,我們可能無法繼續通過擴大語言模型規模獲得進一步發展。你是否同意該觀點?如果贊同,你們關注的下一個創新點是什么?
Ilya Sutskever:我不太清楚他具體談了些什么,可能他的意思類似于“易于擴展的時代已經結束”。神經網絡當然是越大越好,但構建神經網絡需要很大精力和成本。
我認為,深度學習中有很多不同的前沿領域可供探索,而識別出這樣的前沿領域也是為深度學習做貢獻的一種方式。也許,在某個被他人所忽視的前沿領域中就會產出非常重要的成果。
Ravi Belani:你如何看待深度學習在未來五到十年的發展?
Ilya Sutskever:我預計,深度學習將得到進一步發展。在過去的一段時間里,大規模擴展帶來了巨大進步,這在GPT-1到GPT-3的迭代中表現得尤為明顯,但將來這種情況會有所改變。
規模化之所以能取得如此迅猛的進展,是因為此前有許多閑置的數據中心資源,可以通過重新分配這些資源實現快速進展。但今后的情況將會有所不同,一方面,建設數據中心需要時間,另一方面,模型訓練所需的計算規模和資源變得非常龐大,通過規模化來取得成果不會像以前那么快。
如果非要預測的話,我認為,可能會發現一些目前尚未知曉的深度學習新屬性,并加以利用。我堅信,五到十年后,我們將擁有比目前更先進的系統,具體形態將如何演變還未可知,因為未來可能會有一小部分重大突破,加之許多細微改進,所有這些都將融入到一個龐大而復雜的工程體系中。
Ravi Belani:在此期間,OpenAI的定位是成為像谷歌那樣人們主動尋求的平臺或服務提供商?還是會作為后端基礎架構的一部分,為其他應用程序提供技術支持?
Ilya Sutskever:事物發展變換得太快了,現在這些技術還很新,或許你說的這兩種形態都有可能,具體還有待觀察。
6、給學生的建議
Ravi Belani:假如你是一位對AI感興趣的斯坦福大學學生,目標是成為像你一樣的人,那么你會把時間和精力放在什么事情上?如果你同時也對創業感興趣,又會做些什么?
Ilya Sutskever:首先,通常情況下,無論你選擇哪個方向,結合自己的個人獨特傾向、技能或天賦總是個好主意。
其次,在AI研究方面,要探索自己的靈感。問問自己有沒有什么對你來說顯而易見,但其他人沒有意識到的東西。如果有,則繼續在這個方向追尋,看看你的直覺是否準確。雖然有時可能會有誤,但我的導師Geoffrey Hinton曾說過:你應該相信自己的直覺,因為如果直覺準確,你就會取得巨大成功;即使不準確,你也無能為力。
最后是創業。相比于研究領域,個人的獨特觀點在創業時更具價值,因為你需要從自己獨特的生活經歷中汲取靈感。你可能會發現很多可能性,但需要在廣闊的選擇里聚焦一個方向,并采取行動為之努力。
-
語言模型
+關注
關注
0文章
527瀏覽量
10281 -
深度學習
+關注
關注
73文章
5504瀏覽量
121213 -
OpenAI
+關注
關注
9文章
1095瀏覽量
6550
原文標題:GPT總設計師:大型語言模型的未來
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論