ChatGPT、GPT-4 的迅速“出圈”,讓 OpenAI 一戰(zhàn)成名,外界對(duì)這家公司的關(guān)注度達(dá)到了前所未有的高度。然而,欲戴王冠,必承其重。在如此前沿的技術(shù)到來(lái)之際,很多人將目光從技術(shù)本質(zhì)的探索延展到道德、風(fēng)險(xiǎn)評(píng)估等維度。不久之前,CSDN 也曾報(bào)道過(guò),非營(yíng)利性的 "生命的未來(lái)研究所"(Future of Life Institute)發(fā)出一封公開信,以 LLM(Large Language Model)模型對(duì)社會(huì)和人類存在不可控的風(fēng)險(xiǎn)為由,呼吁全球所有的 AI 實(shí)驗(yàn)室都要暫停訓(xùn)練比 GPT-4 更強(qiáng)大的系統(tǒng),期限為六個(gè)月。包括圖靈獎(jiǎng)得主 Yoshua Bengio、伯克利計(jì)算機(jī)科學(xué)教授 Stuart Russell、特斯拉 CEO 埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人 Steve Wozniak 等在內(nèi)的數(shù)千名對(duì)人工智能領(lǐng)域關(guān)注的學(xué)者、企業(yè)家、教授都在這封公開信上簽署了自己的姓名。雖然尚未直接點(diǎn)名,但是眾人心中都有數(shù),能以最快速度訓(xùn)練出比 GPT-4 更強(qiáng)大系統(tǒng)的公司屈指可數(shù),OpenAI 必在榜單的前列。所以這一封信究竟是為了阻止 OpenAI 加速前進(jìn)的步伐,還是真的擔(dān)心 LLM 帶來(lái)的弊會(huì)大于利,在業(yè)界尚未有統(tǒng)一的判定之前,因?yàn)檫@封信引發(fā)的輿論再次發(fā)酵,形成了兩派:
- 一派,認(rèn)為 “具有人類競(jìng)爭(zhēng)智能的人工智能系統(tǒng)會(huì)對(duì)社會(huì)和人類構(gòu)成深刻的風(fēng)險(xiǎn)”,甚至又有非營(yíng)利機(jī)構(gòu)要求美國(guó)政府部門聯(lián)邦貿(mào)易委員會(huì) FTC 出面調(diào)查 OpenAI,阻止 GPT-4 的商用;
- 另一派則認(rèn)可 LLM 對(duì)社會(huì)帶來(lái)的真實(shí)改進(jìn)和幫助,不能因部分人的顧慮而停止整個(gè)技術(shù)行業(yè)的發(fā)展。
那么,在兩派的爭(zhēng)論中,最終 LLM 的研發(fā)將何去何從?原本計(jì)劃將在今年下半年推出的 GPT-5 是否會(huì)如期?LLM 帶來(lái)的真實(shí)風(fēng)險(xiǎn)又有哪些?
支持派:停止訓(xùn)練比 GPT-4 更強(qiáng)的模型
“只有當(dāng)我們確信它們的影響是積極的并且它們的風(fēng)險(xiǎn)是可控的時(shí)候,才應(yīng)該開發(fā)強(qiáng)大的人工智能系統(tǒng)。因此,我們呼吁所有 AI 實(shí)驗(yàn)室立即暫停訓(xùn)練比 GPT-4 更強(qiáng)大的 AI 系統(tǒng),至少 6 個(gè)月。這種暫停應(yīng)該是公開的和可驗(yàn)證的,并且包括所有關(guān)鍵參與者。如果不能迅速實(shí)施這種暫停,政府應(yīng)介入并暫?!埃_信寫道。同時(shí),其指出,「人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)利用這次暫停期,共同制定和實(shí)施一套先進(jìn)的人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專家進(jìn)行嚴(yán)格的審計(jì)和監(jiān)督」。當(dāng)然,信中也澄清說(shuō),“這并不意味著總體上暫停 AI 開發(fā),只是從越來(lái)越大且不可預(yù)測(cè)的黑盒模型的危險(xiǎn)競(jìng)賽中退后一步?!?/span>與此同時(shí),據(jù)外媒 vice 報(bào)道,本次公開信發(fā)起者、圖靈獎(jiǎng)得主 Yoshua Bengio 表示,“民主價(jià)值觀與這些工具的開發(fā)方式之間存在沖突”。麻省理工學(xué)院 NSF AI 人工智能與基礎(chǔ)交互研究所(IAIFI)物理學(xué)教授、未來(lái)生命研究所所長(zhǎng) Max Tegmark 認(rèn)為,任由 AI 大模型繼續(xù)訓(xùn)練下去,最壞的情況是人類將逐漸失去對(duì)文明越來(lái)越多的控制權(quán)。他表示,當(dāng)前的風(fēng)險(xiǎn)是“我們失去了對(duì)科技公司中一群未經(jīng)選舉的人的控制,他們獲得了巨大的影響力?!?/span>事實(shí)上,微軟、Google 等大型科技公司之間早已拉起 AI 軍備競(jìng)賽,他們?cè)谶^(guò)去的一年里發(fā)布了很多新的人工智能產(chǎn)品。
不過(guò),這種頻繁的發(fā)布節(jié)奏引起了公憤。繼公開信之后,就在昨日,另一家非營(yíng)利性研究機(jī)構(gòu)人工智能和數(shù)字政策中心(Center for AI and Digital Policy,CAIDP)將狀告到了美國(guó)政府部門。他們要求聯(lián)邦貿(mào)易委員會(huì)(簡(jiǎn)稱 FTC)調(diào)查 OpenAI,聲稱這家新貴公司發(fā)布了 GPT-4,違反了商業(yè)法,同時(shí)他們認(rèn)為該產(chǎn)品具有欺騙性并將人們置于危險(xiǎn)之中。CAIDP 表示,"FTC 已經(jīng)宣布,人工智能的使用應(yīng)該是'透明的、可解釋的、公平的、有經(jīng)驗(yàn)的,同時(shí)促進(jìn)問(wèn)責(zé)制',不過(guò) OpenAI 推出了一個(gè)有偏見、有欺騙性、對(duì)隱私和公共安全有風(fēng)險(xiǎn)的產(chǎn)品?,F(xiàn)在是 FTC 采取行動(dòng)的時(shí)候了。”他們還批評(píng)了 OpenAI 在其模型和訓(xùn)練數(shù)據(jù)方面沒(méi)有實(shí)現(xiàn)透明。CAIDP 也敦促 FTC 對(duì) OpenAI 展開調(diào)查,要求禁止 OpenAI 所有基于 GPT 產(chǎn)品的進(jìn)一步商業(yè)部署,對(duì)其技術(shù)進(jìn)行獨(dú)立評(píng)估,并確保其符合聯(lián)邦貿(mào)易委員會(huì)的規(guī)則,才能重新上市。反對(duì)派:不能停止未來(lái) GPT-5 以及更強(qiáng)模型的訓(xùn)練
雖然 OpenAI 自身也承認(rèn) GPT-4 并不完美,仍然會(huì)對(duì)事實(shí)驗(yàn)證的問(wèn)題產(chǎn)生錯(cuò)亂感,也會(huì)犯一些推理錯(cuò)誤,還偶爾過(guò)度自信,甚至連 OpenAI CEO Sam Altman 在接受外媒采訪時(shí)也曾表示過(guò),公司對(duì)人工智能的潛力感到“有點(diǎn)害怕”。不過(guò),Sam Altman 表示,這是“好事”,人工智能可能會(huì)取代許多工作,但它也可能會(huì)帶來(lái)“更好的工作”。而對(duì)于這封公開信的呼吁,諸多 AI 專家持反對(duì)意見。前谷歌大腦成員、在線教育平臺(tái) Coursera 創(chuàng)始人吳恩達(dá)連發(fā)四條推文,強(qiáng)烈反對(duì)「暫停計(jì)劃」。他表示:呼吁在 6 個(gè)月內(nèi)暫停訓(xùn)練比 GPT-4 更強(qiáng)的模型是一個(gè)可怕的想法。我在教育、醫(yī)療、食品......方面看到了許多新的應(yīng)用,這將幫助許多人。改進(jìn) GPT-4 將是有實(shí)質(zhì)價(jià)值的。讓我們平衡一下人工智能正在創(chuàng)造的巨大價(jià)值與現(xiàn)實(shí)的風(fēng)險(xiǎn)。除非政府介入,否則沒(méi)有現(xiàn)實(shí)的方法來(lái)實(shí)施暫停令,阻止所有團(tuán)隊(duì)擴(kuò)大 LLM 的規(guī)模。不過(guò),讓政府來(lái)暫停他們不了解的新興技術(shù)是反競(jìng)爭(zhēng)的,樹立了一個(gè)可怕的先例,是糟糕的創(chuàng)新政策。
負(fù)責(zé)任的人工智固然重要,不過(guò),人工智能也有風(fēng)險(xiǎn)。媒體普遍認(rèn)為,人工智能公司正在瘋狂地輸出不安全的代碼,這不是事實(shí)。絕大多數(shù)(可悲的是,不是所有)人工智能團(tuán)隊(duì)都在認(rèn)真對(duì)待負(fù)責(zé)任的人工智能和安全研究。6 個(gè)月的暫停期并不是一個(gè)實(shí)用的建議。為了促進(jìn)人工智能的安全,圍繞透明度和審計(jì)的法規(guī)將更加實(shí)用,并產(chǎn)生更大的影響。在推動(dòng)技術(shù)發(fā)展的同時(shí),讓我們也對(duì)安全進(jìn)行更多的投資,而不是扼殺進(jìn)步。也有人工智能專家批評(píng)這封信進(jìn)一步推動(dòng)了“人工智能炒作”周期,而不是直接列出或呼吁針對(duì)當(dāng)今 LLM 存在的風(fēng)險(xiǎn)采取具體的行動(dòng)。華盛頓大學(xué)語(yǔ)言學(xué)系教授、公開信中引用的第一篇論文的共同作者 Emily M. Bender 在推特上表示,「這封公開信 "摻雜了#Aihype"」,信中濫用了她的研究。公開信指出,"正如大量研究表明的那樣,具有人類競(jìng)爭(zhēng)智能的人工智能系統(tǒng)會(huì)對(duì)社會(huì)和人類構(gòu)成深刻的風(fēng)險(xiǎn)。"不過(guò),Bender 反駁說(shuō),"我們?cè)?2020 年底寫了一篇論文(《隨機(jī)鸚鵡》,2021年發(fā)表),指出這種不考慮風(fēng)險(xiǎn)就一頭扎進(jìn)越來(lái)越大的語(yǔ)言模型的做法是一件壞事。但風(fēng)險(xiǎn)和危害從來(lái)都不是關(guān)于'太強(qiáng)大的人工智能'本身,相反:它們是關(guān)于權(quán)力集中在人的手中,關(guān)于壓迫制度的再現(xiàn),關(guān)于對(duì)信息生態(tài)系統(tǒng)的損害,以及關(guān)于對(duì)自然生態(tài)系統(tǒng)的損害(通過(guò)對(duì)能源資源的暴殄天物)。"
Hugging Face 的研究科學(xué)家兼氣候負(fù)責(zé)人 Sasha Luccioni 表示,“這(公開信)本質(zhì)上是誤導(dǎo):讓每個(gè)人都注意到 LLM 的假設(shè)權(quán)力和危害,并提出一種(非常模糊和無(wú)效的)解決方法,而不是此時(shí)此地正確看待風(fēng)險(xiǎn)并嘗試解決這些問(wèn)題——例如,在 LLM 出現(xiàn)時(shí),可以要求相關(guān)企業(yè)對(duì) LLM 的訓(xùn)練數(shù)據(jù)和能力實(shí)行更高的透明度,或有關(guān)何時(shí)何地可以使用它們進(jìn)行立法。”
GPT-4 以及后續(xù)更強(qiáng)的大模型為何成為眾矢之的?
截至目前,OpenAI 聯(lián)合創(chuàng)始人 Greg Brockman 倒是發(fā)了幾條推文,聲明了 GPT-4 模型的進(jìn)步與立場(chǎng)。他表示,”在現(xiàn)實(shí)世界的對(duì)抗壓力下部署 GPT-4 是對(duì)實(shí)際 AI 對(duì)齊的一次偉大實(shí)踐。雖然剛剛開始,但我們對(duì)迄今為止所取得的一致程度備受鼓舞(以及我們?yōu)楦纳茊?wèn)題而不斷成熟的工程流程)?!?/span>Greg Brockman 說(shuō),可以通過(guò)一個(gè)例子觀察到,模型在如此廣泛的棘手或?qū)剐?a href="http://www.xsypw.cn/v/tag/" target="_blank">話題中的良好行為,大部分來(lái)自于模型已經(jīng)概括了人類導(dǎo)師的概念,即成為一個(gè)有幫助的人工智能助手。「在 GPT-3 中,它沒(méi)有辦法控制模型的行為?,F(xiàn)在,我們選擇一組問(wèn)題(例如,模型在錯(cuò)誤的答案上頻率非常高——這曾經(jīng)是一個(gè)巨大的問(wèn)題),可以建立評(píng)估,收集數(shù)據(jù),每周重新訓(xùn)練模型,并進(jìn)行部署。任何人都可以測(cè)試我們是否已經(jīng)改進(jìn)。但是對(duì)齊 GPT-4 只是其中一個(gè)環(huán)節(jié),而不是終點(diǎn)。這已經(jīng)實(shí)現(xiàn)了很大的進(jìn)步(與早期對(duì) GPT-3 的抱怨相比),但需要進(jìn)一步擴(kuò)展到人類甚至無(wú)法判斷輸出的問(wèn)題?!?/span>其實(shí),在 OpenAI 官方博客上,該公司也一直強(qiáng)調(diào),AI 需要對(duì)齊,「對(duì)齊研究旨在使人工智能(AGI)與人類價(jià)值觀保持一致并遵循人類意圖」。不過(guò),OpenAI 的發(fā)聲并未獲得一些激進(jìn)派的認(rèn)可,而 OpenAI 之所以深陷輿論漩渦,或有兩方面的原因:一是 LLM 技術(shù)發(fā)展速度超出了很多人的意料,其中相關(guān)的法律法規(guī)、道德與使用等規(guī)范制度還存在很大的缺失。正如早些時(shí)候,Deepmind 研究團(tuán)隊(duì)在借鑒了計(jì)算機(jī)科學(xué)、語(yǔ)言學(xué)和社會(huì)科學(xué)的多學(xué)科文獻(xiàn)基礎(chǔ)上發(fā)布的《語(yǔ)言模型危害的倫理和社會(huì)風(fēng)險(xiǎn)》論文中寫道的那樣,LM 會(huì)存在歧視、仇恨言論和排斥;信息泄露;虛假信息;惡意使用;人機(jī)交互;環(huán)境和社會(huì)經(jīng)濟(jì)等多重危害。因此,如何降低這些潛在危害,作為行業(yè)領(lǐng)頭羊的 OpenAI 必須要弄清楚,因?yàn)樗暮芏鄤?dòng)作也是后來(lái)者參考的目標(biāo)。然而,現(xiàn)實(shí)來(lái)看,這也并不是 OpenAI 公司一家所需要考慮的事情,而是需要 AI 的所有參與者共同來(lái)制定。二是 OpenAI 樹大招風(fēng),尤其是 GPT-4 不透明性引發(fā)了很多人的不滿。自 ChatGPT、GPT-4 發(fā)布以來(lái),已經(jīng)很多人批評(píng)過(guò)「OpenAI 不再 Open」了。不久前,Nomic AI 信息設(shè)計(jì)副總裁 Ben Schmidt 在推特上直指,OpenAI 在發(fā)布 GPT-4 技術(shù)的 98 頁(yè)論文中,絲毫沒(méi)有提及關(guān)于訓(xùn)練集內(nèi)容的任何信息。也有網(wǎng)友稱,OpenAI 正在”假裝“開放。不過(guò),對(duì)于 LLM 究竟是應(yīng)該開源還是閉源,又是一個(gè)引發(fā)爭(zhēng)議的問(wèn)題。針對(duì)這一點(diǎn),據(jù)外媒 The Verge 報(bào)道,OpenAI 首席科學(xué)家、聯(lián)合創(chuàng)始人 Ilya Sutskever 在接受采訪時(shí)也曾回應(yīng)過(guò),「OpenAI 不分享關(guān)于 GPT-4 的更多信息的原因是“不言而喻的”——害怕競(jìng)爭(zhēng)和對(duì)安全的擔(dān)憂。」Sutskever 表示,“在競(jìng)爭(zhēng)格局方面--外面的競(jìng)爭(zhēng)很激烈。GPT-4 的開發(fā)并不容易。幾乎 OpenAI 的所有人在一起花了很長(zhǎng)時(shí)間才做出了這個(gè)東西,而且(目前)有很多很多公司都想做同樣的事情。安全方面,我想說(shuō),還沒(méi)有競(jìng)爭(zhēng)方面那么突出。但它將會(huì)改變,基本上是這樣的。這些模型非常強(qiáng)大,而且會(huì)變得越來(lái)越強(qiáng)大。在某種程度上,如果有人想的話,很容易用這些模型造成很大的傷害。隨著(模型)能力的增強(qiáng),你不想透露它們是有道理的?!?/span>雖然從商業(yè)的角度,OpenAI 不公開大模型架構(gòu)(包括模型大?。⒂布?、訓(xùn)練計(jì)算、數(shù)據(jù)集構(gòu)建、訓(xùn)練方法等細(xì)節(jié)合乎情理,但是也有人表示,不公開訓(xùn)練數(shù)據(jù),很難知道該系統(tǒng)可以在哪里安全使用并提出修復(fù)方案,不利于大模型的研究。為此,你是否支持暫停更強(qiáng)大模型的訓(xùn)練?你認(rèn)為大模型是開源好,還是閉源好?歡迎留言分享你的看法。參考資料:https://cdn.arstechnica.net/wp-content/uploads/2023/03/CAIDP-FTC-Complaint-OpenAI-GPT-033023.pdfhttps://futureoflife.org/open-letter/pause-giant-ai-experiments/https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-messhttps://www.theverge.com/2023/3/15/23640180/openai-gpt-4-launch-closed-research-ilya-sutskever-interview
-
imagination
+關(guān)注
關(guān)注
1文章
573瀏覽量
61335
原文標(biāo)題:GPT-4 遭投訴要求禁用,OpenAI 為何成為眾矢之的?
文章出處:【微信號(hào):Imgtec,微信公眾號(hào):Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論