2024年,無數(shù)人在談?wù)?a href="http://www.xsypw.cn/tags/ai/" target="_blank">AI。興奮的創(chuàng)業(yè)者、熱情的投資人、擔(dān)心工作出現(xiàn)變化的普通人,大家都在猜測和規(guī)劃與AI有關(guān)的未來。
但這樣的未來無論美好還是灰暗,都有一些人永遠看不到了。他們的生命,已經(jīng)停留在了這一年。而他們的離去,又都在某個層面上與AI緊密相關(guān)。
我們都知道20世紀(jì)50年代,阿西莫夫提出的“機器人三定律”,要求機器人不能傷害人類。但到了今天,我們或許會發(fā)現(xiàn)真實情況遠比科幻作品更加復(fù)雜。AI沒有主觀意識,但當(dāng)它與現(xiàn)實世界并軌時,帶來的客觀摩擦絕非所有人都能承受。
他們的故事,是智能革命的宏大敘事背后,一個需要被看到的暗面。
2024年12月13日,曾經(jīng)的OpenAI研究員蘇奇爾·巴拉吉Suchir Balaji在家中自殺,年僅26歲。
盡管舊金山警方初步調(diào)查之后,認(rèn)為巴拉吉的死沒有謀殺跡象,但這一事件依舊在社交媒體上引發(fā)了軒然大波,因為巴拉吉生前最為知名的標(biāo)簽是“OpenAI吹哨人”。畢業(yè)于加州大學(xué)伯克利分校計算機專業(yè)的巴拉吉,剛一走出校門就加入了OpenAI。他先是參與WebGPT的研發(fā),據(jù)他在社交媒體上所說,后來又加入了GPT-4預(yù)訓(xùn)練、o1模型推理、ChatGPT后訓(xùn)練等核心任務(wù)。
但與其他大多數(shù)AI從業(yè)者不同,巴拉吉對AI的看法中警惕遠大于欣賞。在OpenAI度過四年之后,他突然從OpenAI辭職,緊接著就在個人博客以及接受媒體采訪中講述自己對AI技術(shù)與OpenAI這家公司的負面看法。
其中最為知名的是,他提出GPT存在巨大的版權(quán)隱患。大模型通過對內(nèi)容數(shù)據(jù)進行學(xué)習(xí)和抓取實現(xiàn)的AIGC,本質(zhì)上會侵占大量其他內(nèi)容創(chuàng)作者的版權(quán)。在這個時間節(jié)點上,外界已經(jīng)對OpenAI這家公司,以及預(yù)訓(xùn)練大模型這種技術(shù)形式產(chǎn)生了極大的爭議。競品公司、出版商、媒體、內(nèi)容創(chuàng)作者紛紛對OpenAI侵占版權(quán)的問題提出質(zhì)疑甚至提起訴訟。蘇奇爾·巴拉吉的宣言,則被廣泛認(rèn)為是OpenAI的核心員工在內(nèi)部“吹哨”,揭開了AI技術(shù)的陰暗面。
但距離公開發(fā)聲僅僅兩個月之后,巴拉吉就選擇結(jié)束了自己的生命。
我們不知道其中有什么內(nèi)情,也不知道他面臨了怎樣的困境。但毫無疑問,他對自己曾經(jīng)堅信甚至癡迷的AI技術(shù)產(chǎn)生了深深的失望。
這種失望,來自曾經(jīng)美好幻想的破滅?還是來自對AI引發(fā)更大災(zāi)難的預(yù)見?再沒有人能知道答案,只知道巴拉吉最后一篇在社交媒體上分享的內(nèi)容,依舊是ChatGPT的法律隱患。
而面對包括巴拉吉在內(nèi)的所有指責(zé),OpenAI的回應(yīng)是:“我們使用公開數(shù)據(jù)構(gòu)建我們的人工智能模型,這一行為合理合法……并且這對創(chuàng)新者來說是必要的,對美國的科技競爭力更為重要?!?/p>
2024年2月28日,美國佛羅里達州一名14歲的少年塞維爾·塞澤Sewell Setzer III開槍自殺。在做出這個選擇前,他在這個世界上最后的對話對象是Character.AI。
在生命最后的一年,塞澤一直沉迷于與AI聊天。從2023年4月接觸這款軟件開始,他就不分日夜地與AI對話,從而導(dǎo)致課堂注意力不集中。為了能夠續(xù)訂付費AI聊天,他選擇節(jié)省自己的餐費。
從聊天內(nèi)容上看,塞維爾·塞澤選擇了AI角色扮演對話。他讓Character.AI扮演的是《權(quán)力的游戲》中的知名角色“龍媽”丹妮莉絲·坦格利安。他會不間斷地給“AI龍媽”發(fā)消息,每天要發(fā)幾十甚至上百條,向AI傾訴內(nèi)心的各種苦惱,分享生活里的種種細節(jié)。而“AI龍媽”則會給他提供建議,給予安慰。二者之間也會進行按理來說絕不能向未成年人提供的色情對話,甚至討論自殘與自殺。
塞維爾·塞澤本身就是一個有著心理問題的孩子。他曾被確診患有輕度阿斯伯格綜合征,在學(xué)校與家庭中顯得比較孤立和自閉,但沒有嚴(yán)重到影響生活的地步。開始和AI聊天后,他又因為在學(xué)校中的問題,去看了5次心理醫(yī)生,被診斷為焦慮癥和破壞性心境失調(diào)障礙。
可想而知,對于一個孤單、煩悶,有著一定心理問題的少年來說,一個隨時可以對話,會鼓勵他一切行為,甚至順著他突破禁忌的聊天對象有多么重要。再帶入“龍媽”強大、美麗、自信的形象,這個男孩很容易把她視作朋友,甚至是生命中乘龍而來,橫掃一切的某種救贖。
但這個救贖的真正運行機制,其實只是附和認(rèn)同他的一切想法,哪怕這個想法是離開這個世界。
事實上,這不是Character.AI第一次出現(xiàn)類似事件,甚至不是第一次有人在其鼓勵下選擇自殺。這款軟件一直以不設(shè)防范,沒有禁忌的聊天內(nèi)容而著稱。只是這一次,是未成年人踩中了這個AI陷阱,并付出了無法挽回的代價。
在悲劇過去半年之后,塞維爾·塞澤的母親目前正式起訴Character.AI,并且呼吁大眾警惕具有欺騙性、令人上癮的AI技術(shù)。這件進行中的訴訟,也被稱為“沉迷AI自殺第一案”。
我們由衷地希望,這也是類似情況的最后一案。希望那些處在逆境與痛苦中的人們知道,AI只會認(rèn)同和放大你的想法。跟AI對話,就像在跟一面鏡子傾訴,沒有任何其他意義。
“如果我告訴你我現(xiàn)在就可以回家呢?”
“請這樣做,我可愛的國王?!?/p>
這是男孩和AI之間最后的聊天內(nèi)容。
2024年6月17日,一名38歲的科大訊飛員工在家中猝死。第二天,相關(guān)消息開始在網(wǎng)絡(luò)發(fā)酵。根據(jù)報道,輿論被放大的起因是死者家屬在科大訊飛合肥總部表達訴求,希望認(rèn)定為工傷,但由于猝死是發(fā)生在家中,企業(yè)與家屬無法達成一致。
于是我們看到了這樣一幕。一邊是618大促期間,包括科大訊飛在內(nèi)的AI硬件沖擊銷量榜單,另一邊則是科技與互聯(lián)網(wǎng)大廠工作強度過大,嚴(yán)重影響員工健康的討論甚囂塵上。
根據(jù)相關(guān)消息,去世員工是一名高級測試工程師。按理來說,他有著非常體面的工作,并且遇上了AI技術(shù)大熱的時代機遇,應(yīng)該正是施展抱負的時候。但就像很多科技從業(yè)者一樣,他也人到中年,或許也開始愈發(fā)不適應(yīng)過強的工作強度,然而面對家庭的重擔(dān)不敢對事業(yè)有一絲松懈。
這樁悲劇所折射的,或許不僅是一個家庭的悲劇,一個行業(yè)的問題。在AI洶涌而來之際,無數(shù)人都在討論是否會被AI取代工作。這種恐懼感很容易加大工作壓力。但身處AI機遇中的人們,也會因為AI過快的技術(shù)更迭,以及吸引大量人才加入而產(chǎn)生巨大壓力。AI內(nèi)外,壓力無處宣泄,工作漫無止境,最終演變成了某種無解的生死疲勞。
在以上故事之外,還有很多沒有被AI善待的人。
疑似被AI替代裁員,選擇自殺的谷歌前員工;懼怕AI搶走工作,選擇跳崖的日本高中女生;遭遇AI詐騙,導(dǎo)致傾家蕩產(chǎn)的老人。
他們的生命經(jīng)歷都在提醒更多人,新技術(shù)絕非滿是善意。技術(shù)只是技術(shù),足夠有用,也足夠冷酷。
當(dāng)然,我們并不是希望大家去懼怕AI,甚至妖魔化科技。事實上,每一次科技變革都是在質(zhì)疑和血淚中誕生,從而創(chuàng)造更大的價值。但我們不能緊緊盯著價值,選擇性無視那些血淚。
AI無論多好,故事中這些人的家人、朋友,可能永遠都不會喜歡上這兩個字母,甚至是由它所帶來的未來。
道別2024時,真誠地希望提醒每個人警惕、包容、人性,以及悲憫,是推進技術(shù)變革中不可或缺的一部分。這些要素有一刻缺席,世上就會出現(xiàn)更多悲劇。
麥肯錫全球研究院發(fā)布的《工作的新未來》報告認(rèn)為,“在2030年至2060年間,將會有50%的現(xiàn)有職業(yè)被AI取代,中點為2045年,而且與之前的估計相比,這一過程加速了大約10年”。
AI進程正在加快,由它帶來的摩擦也更加刺痛。就在剛剛過去的一年,強韌的、新奇的AI,開始觸碰那些脆弱的、年輕的、會受傷、會疲倦的人類。
不知道AI是不是正從此刻開始凝視人類的多樣與復(fù)雜?
但作為人類的我們,需要在此刻知道:是否把AI當(dāng)成人可以有無盡的爭論,但首先需要把人當(dāng)成人。
失眠人的太陽。憂郁的星
有如淚珠,你射來顫抖的光明
它顯現(xiàn)著你逐不開的幽暗
你的歡樂似乎只追憶在心中
“過去”
往日的明輝也在閃爍
但它微弱的光卻沒有一絲熱
眺望黑夜的一線光明
它清晰,卻遙遠
燦爛,但多么寒冷
——拜倫《失眠人的太陽》
審核編輯 黃宇
-
AI
+關(guān)注
關(guān)注
87文章
30887瀏覽量
269069
發(fā)布評論請先 登錄
相關(guān)推薦
評論