據日經亞洲報道,最近技術的迅速發展使人工智能可以進行以前被認為是人類獨特的活動。
無論是通過大型語言模型(llm)和聊天創造性地編寫復雜的文件,還是以算法為基礎控制和管理復雜的基礎設施和信息傳遞,還是指揮和控制致命的自主武器,人工智能都成為許多人關注的焦點。
事實上,人工智能能夠導致人類滅絕或文明崩潰的能力是再怎么強調也不過分的。
雖然夸張的語言和夸張沒有幫助,減弱了實際限制的根據,但認識到不符合人類價值和利益的自我強化和自我學習形態的智能可能帶來的最壞結果是非常重要的。
在中美戰略競爭加劇、全球地緣政治風險加劇的時代,利害關系必然會更加復雜。作為世界上的兩個大國,中美兩國應該負起維護和平的責任,就控制人工智能帶來的生存風險問題進行建設性合作和坦誠對話。
首先,兩國應該設置警戒線,就人工智能的研究方向和部署達成協議。
中國和美國的技術公司正在訓練人工智能,使用從越來越大的數據訪問差距兩邊衍生出的并列數據集。因此可以開發偏好和控制不同的人工智能。
這里有一個對比問題:人工智能可以被訓練成符合人類使用者群體對數據源的偏好,但不會擴展到群體之外的人口統計。
尤其令人擔憂的是,如果數據被細分,無論是哪個國家,都可以通過人工智能開發出比其他國家國民利益更重視本國國民利益的新目標。如果發生軍事沖突,敵對反應的自動化可能會使事態迅速擴大。中美必須建立強有力的故障安全體系,抵御各自為政的人工智能領域帶來的偏見。
中國國家網絡信息辦公室已經確定了生成式人工智能規則,將從8月開始生效。
包括雙重使用人工智能的開發過程、訓練方法、公共及民間參與者的潛在配置等領域的有約束力的條約,對于緩和相互期待,享受合作的實惠非常重要。
第二,中國和美國的監管機構應與歐盟、英國、以色列、日本以及其他人工智能新興國家的監管機構合作,尋找方法的同質性。認為任何一個國家或地區都有充分的專業性來全面管理人工智能的所有方面是愚蠢的。
上月歐洲議會批準了新的人工智能法案的基本框架,其中包括明確禁止利用預測警察或街頭攝像機的實時畫面進行臉部識別等侵犯“基本權利或歐盟價值”的內容。
歐盟的先行精神令人感嘆,但歐盟也應該明白,歐洲限制規定不足以管理全球人工智能的危險。
歐洲的軟實力長期源于平衡或抵消地政學上的差異的能力。在這一領域,歐洲可以在召集有關人工智能規制的全球工作組上發揮作用。
工作組應由中國、美國、南部世界以及其他所有主要利益相關者的決策者和學者組成。工作小組的見解有助于平息中國和美國政府對人工智能的限制會削弱自己競爭力的猛烈主張。
有些人可能將1968年的《不擴散核武器條約》視為限制人工智能使用的全球模型。
但是,我們必須記住,開發強大的llm的障礙遠低于制造核武器的障礙。隨著開放源代碼人工智能的發展,個人用戶可以在很多情況下復制chatgpt的結果。與此相比,擁有核武器的國家只有9個。
第三,特別是在美國,必須謹慎處理與人工智能相關的國家和個人參與者之間的關系。中國在3月份舉行的全國人民代表大會年例會議上新設了國家數據局,并改編了科學技術部。4月,中國國家網絡信息辦公室發布了生成人工智能的法規草案,該草案已經更新,將于5月生效。
在這方面,美國也可以借鑒中國的經驗。雖然美國的長期政策,考慮到傳統全面規制的自上而下的框架實現的可能性很低,但政策決定者最符合公共利益決定的方式時,交由中國技術的領導力會硅谷的主張不能只看這一點很重要。
為了長期確保人工智能的安全,需要更多的民官合作。英國的代表性投資者伊恩·霍加斯最近被任命為研究人工智能(ai)相關風險并考慮安全及安全標準的財團模型工作集團的會長。
僅僅調整中美兩國國家行為人的利益是不夠的。要想讓世界突然陷入用人工智能驅動的超級大國之間的沖突,需要各方的合作。
-
人工智能
+關注
關注
1792文章
47412瀏覽量
238926 -
安全體系
+關注
關注
0文章
4瀏覽量
6427
發布評論請先 登錄
相關推薦
評論