人工智能現在正在迅猛發展中,人們正在追求建造能力更高的智能機器,各種智能機器層出不窮,最近的大語言模型的高熱正好為這個趨勢做一個注解。大語言模型看起來能力很強,令人驚艷,因此現在一種言論非常流行,那就是機器具備意識啦。我們就來談談這個事情。
首先開宗明義說明,我們認為,沒有必要談論機器的意識。很多人認為人和具有一定智能的生物都具備意識,而且意識是這些生物智能體形成智能行動的基礎,因此他們認為,要發展智能機器,要讓智能機器擁有強大的能力,就需要智能機器具備意識。我們認為不應該這樣看。現在人們還不具備足夠的知識來搞清楚究竟什么是意識,更遑論在人工智能體中建立意識。而且,也沒有必要考慮意識,考慮智能機器的的主動性即可。
無疑,智能機器的主動性是提升人工智能的關鍵。要考慮智能機器的主動性,可以考慮智能機器的行為傾向就可以。對人工智能體而言,其行為傾向并不虛無縹緲,而是可以把握、可以對它展開工作的。而且,即使以后的人工智能體中有了意識,意識是感知、體驗和意志,意識要起作用也還是需要先形成內部的傾向,然后用這種傾向去影響行動,也就是說,意識也要通過行為傾向來起作用。因此,直接對行為傾向展開研究展開工作,是更合理的,也是現實可行的。
我們將特別關注這兩個方面:智能體的主觀和能動。
值得再次強調,我們不知道人工智能體是否有意識,是否可以有意識,但是我們確切知道它有主觀,而且主觀起極為關鍵的作用,即使有意識,意識也要通過主觀起作用。
什么是智能體的主觀(subjectivity)?智能體的主觀是指智能體所具備的內部屬性和傾向,這些屬性和傾向形成智能體做推理和做反應的基礎。
什么是智能體的能動(dynamic action或者agency)?智能體的能動是指智能體可以做出自己的行動,而非僅遵循預設的規定。智能體的能動反映智能體的這樣的能力:它可以根據具體情況作出針對性的決定和行動,這些決定和行動可能是全新的,而不僅僅是遵循預設的規定。
我們明確了最主要的宗旨:日益強大的智能體需要具備更高的主動性,主動性歸結為主觀和能動,具備良好的主觀和積極的能動的智能體能更有效地應對復雜陌生的環境,這樣的環境也催生和促進愈加豐富的主觀和更加強大的能動。
由此可知人工智能的發展方向將是:發展出這樣的智能體,它具備豐富正確的主觀和積極正確的能動。對這樣的智能體的需求,將會越來越大,越來越高級。這就要求我們深入研究主觀和能動,研究它們的基本性質。
主觀是智能體內部的傾向。可以由設計者來制定和灌輸,也可以由智能體通過學習和經驗來獲取,也可以結合這兩種。智能體總是有主觀的。智能體的主觀是分布式地隱藏于智能體的諸多內部結構里面,并沒有被分離出來,而且很難被分離出來。對于智能體的主觀,我們應該找到方法來描述和測度,進而調整,這種方法目前尚缺。當前的一個亟需解決的問題是:研究智能體的主觀的結構,并且找到讓主觀和人類價值對齊的方法。這是一項困難的工作,但是,目前已經有了一些先期工作,特別是依據現象學的研究進路。這是非常值得開展的研究工作,將帶來非常巨大的利益。
能動是指智能體可以做出并非預設的行動。智能體可以沒有能動,那種完全沒有能動的智能體,也可以工作得很好,如果其工作環境是熟知的和固定的。但是,具備能動的智能體才能應對復雜陌生的環境。智能體的能動是很困難的課題。要研究智能體的能動,就必須面臨這個極其尖銳和突出的矛盾:圖靈機是完全確定和基于固定規則的,怎么可能產生強大的能動(能動就是要超越預設的規則)?這個矛盾從計算時代的一開始就存在了。圖靈在剛剛導入圖靈機的兩年后就導入了所謂的神諭機,就是試圖對此有所突破。但是一直到現在,這個問題仍然非常尖銳存在。
如果不能在這個問題上有所前進,我們就不會有重大突破。最近我們試圖導入一種新的計算方式,希望可以利用這種方式在智能體中建立一種結構,使用這種結構,積極的能動將成為可能。我們將在后續的文章中討論這樣的計算方式。
再強調一次:智能的機器都有主觀,但是未必有能動;然而,如果要機器具備高級的主觀,則必須有能動。主觀和能動有密切的關系,以至于很多時候把它們合并稱為主觀能動性。當然,把它們分開加以研究,是更有利的。
我們相信,至此,我們已經基本上理清了圍繞智能機器的意識的諸多概念上的混淆。后面需要的是真正深入的工作。
最后,作為一例,我們用如上的觀點來看大語言模型。
大語言模型是一種使用大量的參數的神經網絡,通過自監督學習或半監督學習,在大量的未標注的文本上進行訓練,從而能夠理解、生成、翻譯和摘要化新的內容的語言模型。大語言模型使用深度學習技術和變換器模型來處理自然語言。這種智能體在多種自然語言任務上表現非常出色,表現出了這些特征:具有更強的靈活性和適應性,可以根據不同的任務和環境調整其參數和行為;具有更強的泛化能力和遷移能力,可以利用在大規模文本上預訓練得到的知識,來解決特定領域或場景下的問題;具有更強的生成能力和創造力,可以根據給定的輸入或提示,產生連貫、有意義、有趣甚至有創新性的文本或代碼。
這種智能體的主觀和能動是怎么樣的呢?從智能體的外部看,人們往往會認為,這種智能體有非常強的主觀和能動。但是,當我們和這種智能體有足夠多的互動后,我們就可以發現這種智能體的主觀在某些方面非常豐富,但是在某些關鍵方面相當薄弱,而其能動則非常弱小且經常出錯。
大語言模型的內部程序是經過機器學習形成的,即不是直接編制內部程序,而是通過提供數據來影響內部程序,這其實是另外一種編程方式。在使用大語言模型時,它常有令人驚艷的表現,看起來其能動很強大,還有人認為大語言模型出現了涌現,即它的能動是涌現而出來的。但是,仔細考察后,可以知道它的行動來自于對訓練數據的泛化。這種對數據的泛化如果可以看作是能動的話,也是非常薄弱的,這就是說,當大語言模型面對遠超其訓練數據的范圍的問題,必然無法有效應對。
因為大語言模型是通過極大的數據訓練而成的,因此其內部積累了非常豐富的知識,也就是說,當它面對一個問題時,它可以從很多角度,運用很多知識,就是說可以有非常多的傾向,從這個角度看,其主觀非常豐富。但是另一方面,它的主觀可以又非常薄弱。大語言模型的驅動不在其自己,而在于所謂的提示詞,沒有提示詞,它就不能做任何事情。如果兩個提示詞僅有很小的差別,它也不會去主動考察和利用這種異同;如果兩個提示詞表面非常不同,但其實完全一樣,它也不會去考察和利用異同,而是按照訓練數據形成的既定的泛化做處理。
那么大語言模型是否具備能動?我們可以從內外兩方面來考察。從外部看,大語言模型有非常令人驚艷的表現。例如,給它一些提示詞,它可以做出一首動人的詩,而且從來沒有人教過大語言模型這樣的詩。用我們前面列出的標準看,我們自然可以認為大語言模型具備能動。從內部看,就更復雜一些。大語言模型是用一組大數據訓練出來的,并不是人工編程實現的。
然后,當大語言模型運行時,它仍然是一個程序(只不過這個程序不是人工編程,而是大數據訓練形成),也就是說它的一切行動都是已經規定在這個程序中了,因此就不可能產生能動。但是,大語言模型又可以寫詩。這是非常令人困惑的事情,也是非常有爭議的事情。這里,我們可以提供一個解釋。一切都在泛化中。當用大數據做訓練時,就形成了一個很龐大的程序,這個程序可以對訓練集中的數據做正確的計算,但是對不在訓練集中的數據,就有可能也做正確的計算,雖然這些數據并不在訓練集中。這就是泛化。
就是說,訓練可以使得程序正確計算某些沒有在訓練集中的數據。如果是這樣的情況,大語言模型能做詩,就可以用泛化來解釋。當然,要能做出有意義的良好的泛化,并不容易,需要訓練集和學習過程達到一些嚴苛的要求。但是,如果我們能確定大語言模型的令人驚艷的能力來自于泛化時,我們也就知道大語言模型的能動很弱。事實上也很容易找到一些情況,使得大語言模型不具備強大能動這個事實凸顯出來。有人做過這樣的測試:先問一個問題,大語言模型通常會給出合適的答復,然后用答復中的某句話再問,這時,大語言模型就會陷入很糟糕的狀態,道歉,胡說,等等。
也就是說,這樣的做法,就形成了這樣一個數據,它在訓練集之外,而且和訓練集非常不同,它使得大語言模型不能正確計算這個數據。世界超級復雜,訓練集可以正確泛化到的數據僅是小部分。這樣也就看清楚了的大語言模型的作用,它是一個超級有用的工具,可以幫助我們做很多事情,但是它并不是一個理解了世界的機器怪物,不能指望它可以做任何事情。如果我們僅讓它做它擅長的事情,那就很好,否則就錯了。然而,什么是它擅長的事情?這就需要研究它的主觀。
審核編輯:劉清
-
人工智能
+關注
關注
1792文章
47425瀏覽量
238948 -
智能機器人
+關注
關注
17文章
870瀏覽量
82384
原文標題:智能機器具備意識嗎?需要意識嗎?
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論