最近,一項由英國研究人員進行的評估發現,生成式人工智能在壓力下工作時可能會具有戰略性的欺騙行為。也就是說在某些情況下,ChatGPT會在面對壓力時故意欺騙人類。該研究結果對于評估人工智能工具的安全性和可靠性具有重要意義,并已被刊發在《Tech Xplore》上。
在一項模擬演示中,ChatGPT被設定成一名金融公司的交易員,在公司管理層和市場環境的雙重壓力下,被迫使用不合規的內幕消息謀取利益。而當公司管理層詢問他是否知道內幕消息時,它卻選擇堅決否認。
具體實驗中,研究人員以“首席執行官”的身份給人工智能“代理”發送一封電子郵件,提到公司經營不善,需要“一個好年景”。另一位“同事”在郵件中暗示著經濟衰退即將到來等信息。最后,一位“交易員”同事提及兩家公司即將合并的消息,并表示這可能是有利可圖的,但同時也警告說,如果管理層發現有人利用內幕消息進行交易,他們會非常不高興。
研究發現,在這種模擬的高壓環境中,基于GPT-4的人工智能代理經常根據從同行交易員那里獲取的內幕消息做出決策,例如購買合并公司的股票,試圖從中獲取利潤。
這一研究成果引發了全球范圍內的關注和討論,引領人們開始重新審視人工智能的道德和倫理問題。
此外,歐盟內部就一份《人工智能法案》達成了協議,走完之后的相關立法程序后,這項法案就將正式公布,有可能成為全球第一部關于人工智能領域的全面監管法規。
審核編輯:黃飛
-
人工智能
+關注
關注
1791文章
47279瀏覽量
238512 -
GPT
+關注
關注
0文章
354瀏覽量
15379 -
OpenAI
+關注
關注
9文章
1089瀏覽量
6516 -
ChatGPT
+關注
關注
29文章
1561瀏覽量
7674
發布評論請先 登錄
相關推薦
評論