AI的未來,會如何影響人類的未來?
本文是對人工智能未來好與壞的探討,內容綜合選自《AI的25種可能》。在書中Edge創始人約翰布羅克曼攜手哲學家與認知科學家丹尼爾丹尼特;心理學家史蒂芬平克、艾莉森高普尼克;計算機科學家朱迪亞珀爾、斯圖爾特羅素、丹尼爾希利斯;物理學家邁克斯泰格馬克、戴維多伊奇;科技史學家史學家喬治戴森,以及藝術家、發明家、企業家等多個領域的思想家,進行了一場關于人工智能的大思考。
認知心理學家史蒂芬平克反對悲觀的末日語言,他認為那些預言源自于心理偏見,媒體的報道也是助紂為虐,“機器對社會造成的危險不來自機器本身,而來自人類如何看待它。”
邁克斯泰格馬克從物理學家的角度表示,智能不獨屬于人類,所以通用人工智能的出現只是時間問題,現在的關鍵問題在于讓AI能理解、采納和保留我們的目標。
塞思勞埃德則認為,人們對深度學習等方法的期待要適度,雖然AI有了長足的發展,但機器人“還是不會系鞋帶”。
史蒂芬平克
在不理智的頭腦想象區,
總是很容易想象出災難場景
今天許多科技預言的一個焦點是人工智能,在原始的反烏托邦科幻作品中,計算機瘋狂地運行并奴役人類,人類無法阻擋它們的控制;而在更新的版本中,它們偶然地征服了人類,一心一意地尋求我們賦予的目標,盡管會對人類福祉產生副作用。
無論是在哪個版本中,人工智能都是焦點。不過我還是覺得這兩種威脅都是虛構的,因為它源于一種狹隘的技術決定論,這種技術決定論忽略了在像計算機或大腦這樣的智能系統以及整個社會中的信息和控制網絡。
這種對征服的恐懼來自對智能的模糊理解,其模糊之處在于將智能歸于一種存在之鏈和尼采式的權力意志,而不是根據信息、計算和控制對智能和目的進行的維納式分析。
在這些恐怖場景中,智能被描繪成一種全能的、能實現愿望的神藥,智能主體各自擁有不同數量的這種神藥。
人類比動物擁有更多的神藥,而人工智能的計算機或機器人比人類擁有的更多。
既然我們人類曾用我們不高不低的智能馴養或消滅了那些不太有智能的動物,既然技術先進的社會奴役或消滅了技術水平很低的社會,那么超級聰明的人工智能也會對我們人類做同樣的事情。
但是這些場景混淆了智能與動機、信念與欲望、推理與目標、圖靈闡明的計算和維納闡明的控制。
即使我們發明了超人智能機器人,他們為什么要奴役他們的主人或接管世界?智能是指運用新的手段達到目標的能力。
但是這些目標與智能無關,因為聰明并不等同于一定要追求某些東西。巧合的是,智人的智能是達爾文自然選擇的產物,而自然選擇本質上是一個競爭過程。
在智人的大腦中,推理與一些諸如支配對手和積累資源等目標捆綁在一起。
但是,把某些靈長類動物的邊緣腦中的回路與智能的本質混為一談是錯誤的。
沒有任何一個復雜系統定律表明,智能主體一定會變成無情的自大狂。
邁克斯泰格馬克
通用人工智能的真正風險
不是它的惡意,而是它的能力
許多思想家把超級智能這個概念貶低為科幻小說,因為他們認為智能是一種神秘的東西,只能存在于生物有機體,尤其是人類中,他們還認為這種智能從根本上限制了今天的人類能做什么。
但是,從我作為物理學家的角度來看:
智能只是由四處移動的基本粒子所進行的某種信息處理,沒有任何物理定律表明人類不能制造出在任何方面都比我們具有更高級智能的機器,這種機器能孕育宇宙生命。
這表明,我們僅僅看到了智能的冰山一角,存在這么一種驚人的可能性:
也許我們能釋放出自然界中所蘊藏的全部智能,利用它來幫助人類繁榮發展,或掙扎求生。
真正的問題是,人工智能安全研究必須在嚴格的期限內進行:
在通用人工智能到來之前,我們需要弄清楚如何讓人工智能理解、采納和保留我們的目標。
機器越智能、越強大,使它們的目標與我們的目標一致就越重要。
只要我們制造的機器相對愚蠢,那么問題便不是人類的目標是否會占上風,而是在達到我們與機器目標一致之前,機器會造成多少麻煩。
然而,如果制造出超級智能,那么情況就會反過來:
因為智能就是實現目標的能力,所以超級智能人工智能從定義上來說,比起我們人類實現自己的目標,它更擅長完成它的目標,因此會占上風。
換句話說,通用人工智能的真正風險不是它的惡意,而是它的能力。
一個擁有超級智能的通用人工智能將非常擅長完成它的目標,如果這些目標與我們人類的不一致,我們就有麻煩了。
為修建水力發電大壩需要淹沒蟻丘,對這件事,人類不會反復三思,所以我們不要把人類置于螞蟻的位置。
大多數研究人員認為,如果我們最終創造了超級智能,我們應該確保它是人工智能安全先驅埃利澤尤德考斯基所稱的“友好的人工智能”,其目標在某種深層意義上是有益的。
塞思勞埃德
雖然AI有了長足的發展,
但機器人“還是不會系鞋帶”
我們不應該完全相信技術奇點一說,預測技術進步的常見困難以及發展超級智能時特有的問題都應該讓我們警惕,不要高估信息處理的力量和效能。
沒有任何一種指數式增長能一直持續下去。
原子彈爆炸呈指數式增長,但也就持續到燃料耗盡之時。同樣地,摩爾定律的指數式增長近來開始進入基礎物理所設定的極限之中。
計算機的時鐘速度在 15 年前不超過幾千兆赫,僅僅是因為速度再高芯片就開始熱得熔化了。由于隧道效應和電流泄漏,晶體管的小型化已經進入量子力學領域。最終,摩爾定律驅動的各種存儲器和處理器的指數式增長都將停止。
然而,再過幾十年,計算機的原始信息處理能力也許就能與人類的大腦匹敵,至少按照每秒處理的比特率和位翻轉粗略計算的話是如此。
人類的大腦構造復雜,經過幾百萬年的自然選擇變成了現在的樣子。越來越敏感的儀器和成像技術表明,我們的大腦在結構和功能上遠比維納所能想象的更多樣、更復雜。
最近,我問現代神經科學先驅托馬索波焦(Tomaso Poggio),是否擔心隨著計算機處理能力的快速提高,計算機將很快趕上人類的腦。“絕不可能。”他回答。
對奇點主義的恐懼,主要是擔心隨著計算機更多地參與設計它們自己的軟件,它們將迅速擁有超人的計算能力。
但機器學習的真實情況卻恰恰相反。
當機器的學習能力變得越來越強時,它們的學習方式會變得越來越像人類。
許多事例表明,機器的學習是在人類和機器老師的監管下進行的。對計算機進行教育就像對青少年進行教育一樣困難、緩慢。
因此,基于深度學習的計算機系統正在變得越來越人性化。
它們帶來的學習技能不是“優于”而是“補充”人類學習:計算機學習系統可以識別人類無法識別的模式,反之亦然。
世界上最好的國際象棋棋手既不是計算機,也不是人類,而是與計算機合作的人。
網絡空間里確實存在有害的程序,但這些主要是惡意軟件,即病毒,它們不是因為其超級智能而為世人所知,而是因為惡意的無知而遭世人譴責。
普京強調人工智能關系國家未來
俄羅斯總統普京日前在莫斯科出席首屆“人工智能之旅”國際會議時表示,人工智能具有極大潛力,誰能掌握它,誰就會脫穎而出,向前發展,進而獲得巨大競爭優勢,因此人工智能關系到國家未來, 俄各界應該積極推動人工智能研發應用事業。
據俄總統網站9日發布的消息,普京在會上發言時表示,人工智能研發的“推進劑”是大量數據和信息,這些數據信息的質量越高,人工智能所應用的計算方法便越有效,其推算結果也越準確,因此俄有關方面需消除人工智能研發者獲取充足數據信息方面的障礙。
普京說:“俄還要大力培養人工智能研發所需的編程人員、數學和計算機語言學專業人員、數據處理及深度學習領域的專家,最終使經濟、商務、教育、衛生、司法和其他領域的從業人員都能理解、使用與之相關的人工智能技術,進而構建生產、管理新流程。”
談及保障協助工作時,普京強調說,俄官方需確保俄研發界在人工智能創新和應用倡導方面擁有更大限度的自由度,為其建立便捷的風險投資機制,解決管理和法規方面的相關問題,為俄初創企業將人工智能產品推向市場創造良好條件。
普京表示:“在數學、物理和其他精密科學及人文領域具備實力的俄羅斯,必須也能夠在人工智能領域成為全球領先者之一。”
-
人工智能
+關注
關注
1791文章
47314瀏覽量
238648
發布評論請先 登錄
相關推薦
評論