知其然,知其所以然。
機器學習領域近年的發(fā)展非常迅速,然而我們對機器學習理論的理解還很有限,有些模型的實驗效果甚至超出了我們對基礎理論的理解。
目前,領域內(nèi)越來越多的研究者開始重視和反思這個問題。近日,一位名為 Aidan Cooper 的數(shù)據(jù)科學家撰寫了一篇博客,梳理了模型的實驗結(jié)果和基礎理論之間的關系。以下是博客原文:
機器學習領域中,有些模型非常有效,但我們并不能完全確定其原因。相反,一些相對容易理解的研究領域則在實踐中適用性有限。本文基于機器學習的效用和理論理解,探討各個子領域的進展。
這里的「實驗效用」是一種綜合考量,它考慮了一種方法的適用性廣度、實施的難易程度,以及最重要的因素,即現(xiàn)實世界中的有用程度。有些方法不僅實用性高,適用范圍也很廣;而有些方法雖然很強大,但僅限于特定的領域。可靠、可預測且沒有重大缺陷的方法則被認為具有更高的效用。
所謂理論理解,就是要考慮模型方法的可解釋性,即輸入與輸出之間是什么關系,怎樣才能獲得預期的結(jié)果,這種方法的內(nèi)部機制是什么,并考量方法涉及文獻的深度和完整性。
理論理解程度低的方法在實現(xiàn)時通常會采用啟發(fā)式方法或大量試錯法;理論理解程度高的方法往往具有公式化的實現(xiàn),具有強大的理論基礎和可預測的結(jié)果。較簡單的方法(例如線性回歸)具有較低的理論上限,而更復雜的方法(例如深度學習)具有更高的理論上限。當談到一個領域內(nèi)文獻的深度和完整性時,則根據(jù)該領域假設的理論上限來評估該領域,這在一定程度上依賴于直覺。
我們可以將效用矩陣構(gòu)造為四個象限,坐標軸的交點代表一個假設的參考領域,具有平均理解和平均效用。這種方法使得我們能夠根據(jù)各領域所在的象限以定性的方式解釋它們,如下圖所示,給定象限中的領域可能具有部分或全部該象限對應的特征。
一般來說,我們期望效用和理解是松散相關的,使得理論理解程度高的方法比理解程度低的更有用。這意味著大多數(shù)領域應位于左下象限或右上象限。遠離左下 - 右上對角線的領域代表著例外情況。通常,實際效用應落后于理論,因為將新生的研究理論轉(zhuǎn)化為實際應用需要時間。因此,該對角線應該位于原點上方,而不是直接穿過它。
2022 年的機器學習領域
并非上圖所有領域都完全包含在機器學習 (ML) 中,但它們都可以應用于 ML 的語境中或與之密切相關。許多被評估的領域是重疊的,并且無法清晰地描述:強化學習、聯(lián)邦學習和圖 ML 的高級方法通?;谏疃葘W習。因此,我考慮了它們理論與實際效用的非深度學習方面。
右上象限:高理解、高效用
線性回歸是一種簡單、易于理解且高效的方法。雖然經(jīng)常被低估和忽視。,但它的使用廣度和透徹的理論基礎讓其處于圖中右上角的位置。
傳統(tǒng)的機器學習已經(jīng)發(fā)展為一個高度理論理解和實用的領域。復雜的 ML 算法,例如梯度提升決策樹(GBDT),已被證明在一些復雜的預測任務中通常優(yōu)于線性回歸。大數(shù)據(jù)問題無疑就是這種情況??梢哉f,對過參數(shù)化模型的理論理解仍然存在漏洞,但實現(xiàn)機器學習是一個精細的方法論過程,只要做得好,模型在行業(yè)內(nèi)也能可靠地運行。
然而,額外的復雜性和靈活性確實會導致出現(xiàn)一些錯誤,這就是為什么我將機器學習放在線性回歸的左側(cè)。一般來說,有監(jiān)督的 機器學習比它的無監(jiān)督 * 對應物更精細,更有影響力,但兩種方法都有效地解決了不同的問題空間。
貝葉斯方法擁有一群狂熱的從業(yè)者,他們宣揚它優(yōu)于更流行的經(jīng)典統(tǒng)計方法。在某些情況下,貝葉斯模型特別有用:僅點估計是不夠的,不確定性的估計很重要;當數(shù)據(jù)有限或高度缺失時;并且當您了解要在模型中明確包含的數(shù)據(jù)生成過程時。貝葉斯模型的實用性受到以下事實的限制:對于許多問題,點估計已經(jīng)足夠好,人們只是默認使用非貝葉斯方法。更重要的是,有一些方法可以量化傳統(tǒng) ML 的不確定性(它們只是很少使用)。通常,將 ML 算法簡單地應用于數(shù)據(jù)會更容易,而不必考慮數(shù)據(jù)生成機制和先驗。貝葉斯模型在計算上也很昂貴,并且如果理論進步產(chǎn)生更好的采樣和近似方法,那么它會具有更高的實用性。
右下象限:低理解,高效用
與大多數(shù)領域的進展相反,深度學習取得了一些驚人的成功,盡管理論方面被證明從根本上難以取得進展。深度學習體現(xiàn)了一種鮮為人知的方法的許多特征:模型不穩(wěn)定、難以可靠地構(gòu)建、基于弱啟發(fā)式進行配置以及產(chǎn)生不可預測的結(jié)果。諸如隨機種子 “調(diào)整” 之類的可疑做法非常普遍,而且工作模型的機制也很難解釋。然而,深度學習繼續(xù)推進并在計算機視覺和自然語言處理等領域達到超人的性能水平,開辟了一個充滿其他難以理解的任務的世界,如自動駕駛。
假設,通用 AI 將占據(jù)右下角,因為根據(jù)定義,超級智能超出了人類的理解范圍,可以用于解決任何問題。目前,它僅作為思想實驗包含在內(nèi)。
每個象限的定性描述。字段可以通過其對應區(qū)域中的部分或全部描述來描述
左上象限:高理解,低效用
大多數(shù)形式的因果推理不是機器學習,但有時是,并且總是對預測模型感興趣。因果關系可以分為隨機對照試驗 (RCT) 與更復雜的因果推理方法,后者試圖從觀察數(shù)據(jù)中測量因果關系。RCT 在理論上很簡單并給出嚴格的結(jié)果,但在現(xiàn)實世界中進行通常既昂貴又不切實際——如果不是不可能的話——因此效用有限。因果推理方法本質(zhì)上是模仿 RCT,而無需做任何事情,這使得它們的執(zhí)行難度大大降低,但有許多限制和陷阱可能使結(jié)果無效??傮w而言,因果關系仍然是一個令人沮喪的追求,其中當前的方法通常不能滿足我們想要提出的問題,除非這些問題可以通過隨機對照試驗進行探索,或者它們恰好適合某些框架(例如,作為 “自然實驗” 的偶然結(jié)果)。
聯(lián)邦學習(FL)是一個很酷的概念,卻很少受到關注 - 可能是因為它最引人注目的應用程序需要分發(fā)到大量智能手機設備,因此 FL 只有兩個參與者才能真正研究:Apple 和谷歌。FL 存在其他用例,例如匯集專有數(shù)據(jù)集,但協(xié)調(diào)這些舉措存在政治和后勤挑戰(zhàn),限制了它們在實踐中的效用。盡管如此,對于聽起來像是一個奇特的概念(大致概括為:“將模型引入數(shù)據(jù),而不是將數(shù)據(jù)引入模型”),F(xiàn)L 是有效的,并且在鍵盤文本預測和個性化新聞推薦等領域有切實的成功案例. FL 背后的基本理論和技術(shù)似乎足以讓 FL 得到更廣泛的應用。
強化學習(RL)在國際象棋、圍棋、撲克和 DotA 等游戲中達到了前所未有的能力水平。但在視頻游戲和模擬環(huán)境之外,強化學習還沒有令人信服地轉(zhuǎn)化為現(xiàn)實世界的應用程序。機器人技術(shù)本應成為 RL 的下一個前沿領域,但這并沒有實現(xiàn)——現(xiàn)實似乎比高度受限的玩具環(huán)境更具挑戰(zhàn)性。也就是說,到目前為止,RL 的成就是鼓舞人心的,真正喜歡國際象棋的人可能會認為它的效用應該更高。我希望看到 RL 在將其置于矩陣右側(cè)之前實現(xiàn)其一些潛在的實際應用。
左下象限:低理解,低效用
圖神經(jīng)網(wǎng)絡(GNN)現(xiàn)在是機器學習中一個非常熱門的領域,在多個領域都取得了可喜的成果。但是對于其中許多示例,尚不清楚 GNN 是否比使用更傳統(tǒng)的結(jié)構(gòu)化數(shù)據(jù)與深度學習架構(gòu)配對的替代方法更好。數(shù)據(jù)自然是圖結(jié)構(gòu)的問題,例如化學信息學中的分子,似乎具有更引人注目的 GNN 結(jié)果(盡管這些通常不如非圖相關的方法)。與大多數(shù)領域相比,用于大規(guī)模訓練 GNN 的開源工具與工業(yè)中使用的內(nèi)部工具之間似乎存在很大差異,這限制了大型 GNN 在這些圍墻花園之外的可行性。該領域的復雜性和廣度表明理論上限很高,因此 GNN 應該有成熟的空間并令人信服地展示某些任務的優(yōu)勢,這將導致更大的實用性。GNN 也可以從技術(shù)進步中受益,因為圖目前不能自然地適用于現(xiàn)有的計算硬件。
可解釋的機器學習(IML)是一個重要且有前途的領域,并繼續(xù)受到關注。SHAP 和 LIME 等技術(shù)已經(jīng)成為真正有用的工具來詢問 ML 模型。然而,由于采用有限,現(xiàn)有方法的效用尚未完全實現(xiàn)——尚未建立健全的最佳實踐和實施指南。然而,IML 目前的主要弱點是它沒有解決我們真正感興趣的因果問題。IML 解釋了模型如何進行預測,但沒有解釋基礎數(shù)據(jù)如何與它們因果關系(盡管經(jīng)常被錯誤地解釋像這樣)。在取得重大理論進展之前,IML 的合法用途大多僅限于模型調(diào)試 / 監(jiān)控和假設生成。
量子機器學習(QML)遠遠超出我的駕駛室,但目前似乎是一個假設性的練習,耐心等待可行的量子計算機可用。在那之前,QML 微不足道地坐在左下角。
漸進式進步、技術(shù)飛躍和范式轉(zhuǎn)變
領域內(nèi)主要通過三種主要機制來遍歷理論理解與經(jīng)驗效用矩陣(圖 2)。
字段可以遍歷矩陣的方式的說明性示例。
漸進式進展是緩慢而穩(wěn)定的進展,它在矩陣的右側(cè)向上移動英寸場。過去幾十年的監(jiān)督機器學習就是一個很好的例子,在此期間,越來越有效的預測算法被改進和采用,為我們提供了我們今天喜歡的強大工具箱。漸進式進步是所有成熟領域的現(xiàn)狀,除了由于技術(shù)飛躍和范式轉(zhuǎn)變而經(jīng)歷更劇烈運動的時期之外。
由于由于技術(shù)的飛躍,一些領域看到了科學進步的階梯式變化。* 深度學習 * 領域并沒有被它的理論基礎所解開,這些基礎是在 2010 年代深度學習熱潮之前 20 多年發(fā)現(xiàn)的——它是由消費級 GPU 支持的并行處理推動了它的復興。技術(shù)飛躍通常表現(xiàn)為沿經(jīng)驗效用軸向右跳躍。然而,并非所有以技術(shù)為主導的進步都是飛躍。今天的深度學習的特點是通過使用更多的計算能力和越來越專業(yè)的硬件訓練越來越大的模型來實現(xiàn)漸進式進步。
在這個框架內(nèi)科學進步的最終機制是范式轉(zhuǎn)變。正如托馬斯 · 庫恩(Thomas Kuhn)在他的著作《科學革命的結(jié)構(gòu)》中所指出的,范式轉(zhuǎn)變代表了科學學科的基本概念和實驗實踐的重要變化。Donald Rubin 和 Judea Pearl 開創(chuàng)的因果框架就是這樣一個例子,它將因果關系領域從隨機對照試驗和傳統(tǒng)統(tǒng)計分析提升為更強大的數(shù)學化學科,形式為因果推理。范式轉(zhuǎn)變通常表現(xiàn)為理解的向上運動,這可能會跟隨或伴隨著效用的增加。
然而,范式轉(zhuǎn)換可以在任何方向上遍歷矩陣。當神經(jīng)網(wǎng)絡(以及隨后的深度神經(jīng)網(wǎng)絡)將自己確立為傳統(tǒng) ML 的獨立范式時,這最初對應于實用性和理解力的下降。許多新興領域以這種方式從更成熟的研究領域分支出來。
預測和深度學習的科學革命
總而言之,以下是我認為未來可能發(fā)生的一些推測性預測(表 1)。右上象限中的字段被省略,因為它們太成熟而看不到重大進展。
表 1:機器學習幾大領域未來進展預測。
然而,比個別領域如何發(fā)展更重要的觀察是經(jīng)驗主義的總體趨勢,以及越來越愿意承認全面的理論理解。
從歷史經(jīng)驗上看,一般是理論(假設)先出現(xiàn),然后再制定想法。但深度學習引領了一個新的科學過程,顛覆了這一點。也就是說,在人們關注理論之前,方法就有望展示最先進的性能。實證結(jié)果為王,理論是可選的。
這導致了機器學習研究中系統(tǒng)的廣泛博弈,通過簡單地修改現(xiàn)有方法并依靠隨機性來超越基線,而不是有意義地推進該領域的理論,從而獲得了最新的最新成果。但也許這就是我們?yōu)樾乱徊C器學習繁榮付出的代價。
圖 3:2022 年深度學習發(fā)展的 3 個潛在軌跡。
深度學習是否不可逆轉(zhuǎn)地以結(jié)果為導向的過程并將理論理解降級為可選的 2022 年可能是轉(zhuǎn)折點。我們應該思考如下幾個問題:
理論突破是否會讓我們的理解趕上實用性,并將深度學習轉(zhuǎn)變?yōu)橄駛鹘y(tǒng)機器學習一樣更有條理的學科?
現(xiàn)有的深度學習文獻是否足以讓效用無限地增加,僅僅通過擴展越來越大的模型?
或者,一個經(jīng)驗性的突破會帶領我們進一步深入兔子洞,進入一種增強效用的新范式,盡管我們對這種范式了解得更少?
這些路線中的任何一條都通向通用人工智能嗎?只有時間能給出答案。
編輯:黃飛
?
評論
查看更多