來源:ScienceAI,編輯:白菜葉
自從 20 世紀最早的人工智能理論將世界置于不可逆轉的技術軌道之后,人工智能以它巨大的前景,引領著社會變革以及人類進步。
隨著所謂的生成 AI 的到來,例如 ChatGPT,幾十年來 AI 進步的緩慢進展感覺更像是一個巨大的飛躍。這種感知的跳躍讓一些專家擔心過快地走向一個他們所說的機器智能可能成為一種無所不能的、毀滅人類的力量的世界的后果,就像《終結者》一樣。
但包括體驗人工智能研究所執行主任 Usama Fayyad 在內的美國東北大學(Northeastern University)專家堅持認為,這些擔憂并不反映現實。事實上,人工智能正在以促進和需要人類參與的方式進行整合——專家們創造了「人在環路」。
以下是媒體與 Fayyad 的討論內容。Q1
首先,關于生成式 AI 的討論很多。它是什么,它與其他形式的人工智能有何不同?
A:生成式 AI 是指可以非常簡單地生成輸出的 AI 類型。這些輸出可以是文本形式,就像你在我們所說的大型語言模型中看到的那樣,例如 ChatGPT(大型語言模型之上的聊天機器人)或圖像等。如果你在文本上訓練[人工智能],文本就是你將從中得到的東西。如果你在圖像上訓練它,你會從中得到圖像或圖像的修改。如果你用聲音或音樂訓練它,你就會從中得到音樂。如果你用編程代碼訓練它,你就會得到程序,等等。
它也被稱為生成式 AI,因為算法能夠自行生成示例。這是他們訓練的一部分。研究人員會做一些事情,比如讓算法通過生成對抗網絡挑戰自身,或者生成可能混淆系統的對抗樣本的算法,從而幫助加強其訓練。但自開發以來,研究人員很快意識到他們需要人為干預。因此,這些系統中的大多數,包括 ChaptGPT,實際上都在使用并需要人工干預。作為訓練的一部分,人類通過稱為強化學習的東西促進了許多這些挑戰,強化學習是一種旨在從根本上提高系統性能的機器學習技術。
Q2
ChatGPT 最近受到了很多媒體的關注,尤其是在用戶發布他們與 AI 的個人互動的社交媒體上。這項新技術有哪些實際應用?A:我們看到它應用于教育——尤其是高等教育。高等教育已經注意到——包括東北大學在內,在很大程度上——這些技術已經挑戰了我們進行標準化測試的方式。教育工作者已經意識到這只是另一種工具。在東北大學,我們有很多例子,我們將在即將舉行的課堂上使用它的人們的研討會中介紹這些例子。在藝術、媒體和設計學院學習 [Salvador] Dalí 和 LensaAI 學習圖像;或者是在寫作課、英語課或工程學中。
就像我們從計算尺過渡到計算器,再到計算機,然后是手機上的整個網絡——這是另一種工具,訓練我們的學生為新世界做好準備的正確方法是想辦法利用這種技術作為一種工具。
現在看到大規模的現實世界應用還為時過早。技術太新了。但據估計,這項技術可以加速知識工作者完成的任務的 50%–80%(我更傾向于 80%)。不是自動化的,加速的。如果你是律師并正在起草協議,你可以非常快速地定制初稿;但隨后你必須進入并進行編輯或更改。如果你是一名程序員,你可以編寫一個初始程序。但它通常不會很好地工作;它會有錯誤;它不是針對目標定制的。同樣,一個人,只要他們明白自己在做什么,就可以進去修改它,并為自己節省 50%–80% 的工作量。
Q3
你能否詳細說明加速與自動化的含義?A:這是加速,而不是自動化,因為我們知道技術實際上可以以可怕的方式產生幻覺。它可以彌補東西; 它可以嘗試捍衛你要求它捍衛的觀點;你可以讓它撒謊,你也可以對它撒謊,讓它相信你。
他們稱這種特定類別的技術為隨機鸚鵡,意思是具有隨機變化的鸚鵡。我喜歡鸚鵡這個詞,因為它正確地描述了他們不明白他們在說什么的事實。所以他們說了一些東西,這些東西聽起來很有說服力,或者流暢。這是我們試圖提出的重要觀點之一:不知何故,我們在社會上學會了將智慧與口才和流暢聯系起來——基本上是說話得體的人。但實際上這些算法遠非智能;他們基本上是在做自動完成;他們在重復他們以前見過的東西,而且經常被錯誤地重復。
為什么我要說這一切?因為這意味著你在完成這項工作時需要一個人在環路中,因為你需要檢查所有這些工作。你去掉了很多重復單調的工作——這太棒了。你可以加速它——這很有效率。你現在可以花時間增加價值,而不是重復枯燥的任務。我認為所有這些都是積極的。
我喜歡用會計作為一個很好的類比。60-70 年前的會計是什么樣子的?好吧,你必須處理這些大賬本;你必須有漂亮的筆跡;你必須具備良好的加法技巧;你必須手動驗證數字并檢查總和并應用比率。你猜怎么了?這些任務——沒有,零——都與今天無關。現在,我們更換會計師是因為我們現在用更快、更好、更便宜、可重復的東西取代了他們過去所做的一切嗎?不,我們今天的會計師實際上比人類歷史上的還要多。
Q4
最近,人們非常擔心人工智能的發展可能會超越我們的安全控制和協議所帶來的威脅。你如何看待這些擔憂?A:這些擔憂集中在錯誤的事情上。讓我說幾件事。我們確實在 2015 年或 2016 年左右使用這些技術經歷了一些階段性轉變。以手寫識別為例。多年來它已經跳躍,但它花了大約 15 年的時間才到達那里,并在此過程中進行了許多修訂。語音識別:同理。花了很長時間,然后開始加速;但仍然需要一些時間。
有了這些大型語言模型,比如閱讀理解和語言編譯,我們看到了在這些大型文學或文本上訓練的大型語言模型的發展發生了重大飛躍。順便說一句,沒有太多人談論的是 OpenAI 不得不花很多錢來策劃那篇文章;確保它是平衡的。如果你通過兩個不同的結果在兩個具有相同內容的文檔上訓練一個大型語言模型,該算法如何知道哪個是正確的?它沒有。要么必須由人來告訴它,要么它基本上默認說:「我經常看到的東西一定是對的。」 這為錯誤信息創造了肥沃的土壤。
現在,回答你關于這個提議的暫停的問題。在我看來,它的動機有點愚蠢。許多支持者來自一個陣營,他們認為我們正處于人工「通用」智能的風險之中——這與事實相去甚遠。我們離那個很遠很遠。同樣,這些算法不知道它們在做什么。現在,我們正處于濫用它的危險地帶。最近有一個來自比利時的例子,有人在與聊天機器人交談六個月后自殺,而聊天機器人最終鼓勵他這樣做。
因此,我們需要應對很多危險。我們知道存在問題。但是,停止不會產生任何影響。事實上,如果人們同意停止,那么只有好演員才會這樣做;壞演員繼續。我們需要再次強調的是,流利、口才不是智慧。這項技術有局限性;讓我們揭開他們的神秘面紗。讓我們好好利用它,這樣我們才能意識到壞用途是什么。這樣我們就可以了解應該如何控制它們。
-
AI
+關注
關注
87文章
31359瀏覽量
269762 -
人工智能
+關注
關注
1793文章
47566瀏覽量
239412
發布評論請先 登錄
相關推薦
評論