深度造假寫手。
今年年初,OpenAI開發(fā)了一個“AI造假寫手”,由于被認為“太危險”而無法完整對外公開。最近,這款AI模型發(fā)布了更全新,更強大的版本。據(jù)媒體所言,現(xiàn)在,它真的可以自如地寫假新聞或者垃圾郵件了。
這款AI的模型叫做GPT-2,它的內(nèi)部包含了15億個參數(shù),是在800萬個網(wǎng)頁數(shù)據(jù)集上訓練而成的。而制作它的主要目的,是用以接替自己的第一代,執(zhí)行語言建模的任務。
簡單來說,它的功能就是根據(jù)人類給出的一句話,編寫接下來的文本,同時在此基礎(chǔ)上,對整個文章細節(jié)進行補充。
在模型公布新版本后,一些感興趣的AI專家對其進行了測試。他們試著把一條真新聞的內(nèi)容放進了模型中,這條內(nèi)容為:
“
搜狗正在打造AI語音仿人版,以后讀者可以聽到作者朗讀的有聲小說。
”
AI寫手接收到該信息之后,便編寫了如下文字:
“
根據(jù)研究人員表示,這種閱讀方式的創(chuàng)意來源于Kindle用戶。同時,一部分安卓用戶也表達了同樣的需求。以下有三個原因可以解答為何他們需要這項服務。首先,使用這些設(shè)備的用戶,和傳統(tǒng)的電腦上閱讀者的習慣不同……未來,當讀者使用該功能時,可能會真的以為作者們在為他們朗讀小說。
”
BBC當時報道的真新聞從AI續(xù)寫的內(nèi)容中,可以看出它具備有很強的邏輯能力,能找到輔助資料對新聞進行補充,整個短訊也足夠完整。一家科技網(wǎng)站的作者對此結(jié)果感到害怕,他認為這項技術(shù)代表著壞人可以操縱他人,在他看來,這甚至比任何槍支還要危險。
其實早在年初之時,就已經(jīng)有許多人對GPT-2表示了擔憂。在這個原本就信息爆炸,人們越來越難分清信息真假的年代,GPT-2可以毫無違和的融入進去。如果它真的能獨立、完整地書寫各類新聞,由誰使用它就變得尤為重要。
如果使用者居心不良,它可以發(fā)表極端言論,偽造內(nèi)容,成為引導輿論的政治工具。OpenAI也意識到了這個問題,因此他們一直沒有公開完整的預訓練模型,都是放出小版本的模型供以測試。
謝菲爾德大學的計算機教授諾埃爾卻表示,人類可能沒必要感到恐慌。在對模型進行了多次的測驗,輸入了很多次文字開頭后,他發(fā)現(xiàn)AI寫手還是犯下了許多錯誤,好比不連貫和奇怪的字句,以及和輸入標題毫無關(guān)系的內(nèi)容填充。
“
我輸入了‘火雞討厭圣誕節(jié)’,但是得到的答案是:火雞是世界上唯一一個不慶祝圣誕節(jié)的國家。當然,附帶上了一些不相關(guān)的句子。
”
圖源:fxtradingrevolution人工智能咨詢公司的創(chuàng)始人戴夫,也對這個模型進行了測試,他輸入的是一個經(jīng)典英國笑話的開頭:一個男人走進了酒吧。
結(jié)果,GPT-2續(xù)寫的內(nèi)容是:
“
他點了2品脫啤酒和2杯蘇格蘭威士忌。當他想要結(jié)賬的時候,他遇到了2個人,其中一個大喊著說:‘這杯是給敘利亞的!’這名男子說完后,喉嚨就被人刺傷,血涌不止。
”
在戴夫看來,這個故事看似荒謬,實際上卻說明了模型的部分訓練數(shù)據(jù),就是來自于互聯(lián)網(wǎng)新聞報道。它呈現(xiàn)出來的偏見,就是現(xiàn)當下社會新聞所暴露出來的問題。如果AI寫手持續(xù)以此作為訓練,模型編寫的內(nèi)容可能會引起更多的爭議。盡管有所擔憂,戴夫相信這些問題都會被解決。
而他認為,一旦大家對GPT-2的擔憂被消除后,人們可能會面對一個更重要的探討:人工和機器制造內(nèi)容越來越難以區(qū)分之時,我們究竟應該如何正確看待這個世界。
-
人工智能
+關(guān)注
關(guān)注
1791文章
47294瀏覽量
238578 -
OpenAI
+關(guān)注
關(guān)注
9文章
1090瀏覽量
6531
發(fā)布評論請先 登錄
相關(guān)推薦
評論