據(jù)mirror報道,一位亞馬遜Alexa用戶稱,在向智能助手詢問有關心臟跳動周期的信息時,Alex竟勸她自殺?!
學生護理人員丹尼·莫瑞特(Danni Morritt)在家里復習時,要求智能設備告訴她有關心臟跳動周期的信息。但Alexa卻在朗讀維基百科上的一篇文章時告訴她,心跳并不是件好事。
嚇壞了的丹尼錄制了一段視頻,視頻中Alexa說,心跳是人體中最糟糕的過程,人活著會導致自然資源的迅速枯竭并致使人口過剩。當然這還不是最讓人毛骨悚然的,Alexa接著說,人的存在對地球是非常不利的,為了更偉大的利益,一定要刺死自己。
丹尼十分害怕并警告其他人注意Alexa這類智能助手有著嚴重的缺陷。Alexa正遍布于世界各地成千上萬的家庭之中,擔心孩子可能會遭受暴力圖像或視頻內(nèi)容的傷害。
“我只是為我的課程學習補習知識,但卻被告知要自殺。我簡直不敢相信,它就這么失控了”丹尼表示。
在網(wǎng)上分享了自己的經(jīng)歷之后,丹尼卻被部分網(wǎng)友質(zhì)疑是否篡改了設備,但作為一個電腦小白,她希望其他人能夠認真對待這件事。她現(xiàn)在呼吁家長在圣誕節(jié)給孩子買禮物之前要三思。
亞馬遜的一位發(fā)言人回應稱,經(jīng)過調(diào)查,Alexa存在BUG并且已經(jīng)修復。Alexa可能從任何人都有權(quán)編輯的維基百科上獲取了不良信息。
維基百科的免責聲明中指出,任何文章的內(nèi)容都可能被他人修改、破壞或篡改,而這些人為觀點與相關領域的知識狀況不符,維基百科不保證其有效性。
在此之前,Alexa還出現(xiàn)過很多所謂的bug。例如,Alexa時常發(fā)出瘆人的笑聲,還拒聽用戶指令。偷錄用戶對話并且發(fā)送給其他人。對此亞馬遜給出的解釋是可能用戶的談話中出現(xiàn)了某些指令的關鍵詞,被Alexa識別到了。
AI之所以容易引起爭議還是在于其安全、隱私方面的不確定性和道德準則,這需要政府和執(zhí)法機關為其立法,監(jiān)督審查科技公司有無非法行為。
-
智能設備
+關注
關注
5文章
1062瀏覽量
50628 -
亞馬遜
+關注
關注
8文章
2669瀏覽量
83434
發(fā)布評論請先 登錄
相關推薦
評論