編者按:第三屆世界頂尖科學(xué)家論壇將于10月30日-11月1日在上海舉行。包括61位諾貝爾獎(jiǎng)得主在內(nèi),近140位諾貝爾獎(jiǎng)、圖靈獎(jiǎng)、菲爾茲獎(jiǎng)、沃爾夫獎(jiǎng)、拉斯克獎(jiǎng)等全球頂尖科學(xué)獎(jiǎng)項(xiàng)得主出席。論壇期間將有130余場(chǎng)科學(xué)家獨(dú)立演講、70余場(chǎng)主題峰會(huì),大部分活動(dòng)將通過(guò)網(wǎng)絡(luò)向公眾直播。
在往屆的頂尖科學(xué)家論壇上,人工智能一直是這些科學(xué)家樂(lè)于討論的話題。面對(duì)越來(lái)越強(qiáng)大的人工智能技術(shù),未來(lái)的人類(lèi)該如何與之相處?數(shù)據(jù)隱私和數(shù)據(jù)安全、算法黑箱、技術(shù)濫用……落地發(fā)展至今,人工智能已經(jīng)顯露出許多亟需關(guān)切的監(jiān)管問(wèn)題。
澎湃新聞特此整理了世界頂尖科學(xué)家論壇往屆參與者關(guān)于上述問(wèn)題的討論,希望可以幫助讀者對(duì)于人工智能有更清晰的認(rèn)識(shí)。
古往今來(lái),技術(shù)與人類(lèi)的互動(dòng)關(guān)系一直是人們苦苦思考的問(wèn)題。面對(duì)越來(lái)越強(qiáng)大的人工智能技術(shù),未來(lái)的人類(lèi)該如何與之相處?
數(shù)據(jù)隱私和數(shù)據(jù)安全、算法黑箱、技術(shù)濫用……落地發(fā)展至今,人工智能已經(jīng)顯露出許多亟需關(guān)切的監(jiān)管問(wèn)題。在全球各地“AI熱”的同時(shí),需要一點(diǎn)技術(shù)應(yīng)用的“冷思考”。
在第二屆世界頂尖科學(xué)家論壇中,許多科學(xué)家提出了對(duì)人工智能監(jiān)管問(wèn)題的關(guān)切。
日本諾貝爾化學(xué)獎(jiǎng)得主野依良治擔(dān)心AI武器化。他說(shuō),至少現(xiàn)在我們不需要對(duì)人工智能恐懼,但預(yù)測(cè)未來(lái)是很困難的。“未來(lái)如果是超級(jí)智能,并用在其他領(lǐng)域,比如武器領(lǐng)域,也許情況就不是這樣了。所以我覺(jué)得人類(lèi)必須要掌握使用人工智能的主動(dòng)權(quán)。”
2017年諾貝爾物理學(xué)獎(jiǎng)得主巴里巴里什提出人工智能帶來(lái)的數(shù)據(jù)安全問(wèn)題。利用大數(shù)據(jù)分析,AI能幫助人類(lèi)更好的提出科學(xué)發(fā)現(xiàn),但AI也帶來(lái)數(shù)據(jù)安全問(wèn)題。巴里什對(duì)于科學(xué)研究中的數(shù)據(jù)完整性表示擔(dān)憂,因?yàn)樵谔綔y(cè)到引力波的過(guò)程中,巴里什就遇到這樣的情況。
“當(dāng)我們第一次探測(cè)到引力波時(shí),我們第一個(gè)想到的問(wèn)題是如何證明和測(cè)試它是真的,這是做科學(xué)研究必須要想的。但緊接著我們又想到了第二問(wèn)題,我們?nèi)绾巫C明探測(cè)到的引力波不是別人入侵后,植入的數(shù)據(jù)?好在,我們的系統(tǒng)能夠追溯信號(hào)來(lái)源,才解決了這個(gè)擔(dān)憂。”巴里什說(shuō)。
2007年圖靈獎(jiǎng)得主約瑟夫斯發(fā)基斯則擔(dān)心AI算法的黑箱問(wèn)題。算法黑箱問(wèn)題是指,科學(xué)家能夠獲知人工智能算法最終得出的結(jié)果,但并不清楚該結(jié)果產(chǎn)生的原因。“我們正處在大型的革命開(kāi)端,機(jī)器在很多時(shí)候被認(rèn)為可以替代人類(lèi)了。但為了能夠應(yīng)對(duì)自主系統(tǒng)的挑戰(zhàn),我們需要進(jìn)一步研究,在不嘗試?yán)斫膺@些機(jī)器如何做出決策的情況下,不應(yīng)該接受這樣的技術(shù)在大量場(chǎng)景下使用。”斯發(fā)基斯說(shuō)。
他們談到的問(wèn)題,有的已經(jīng)超出了科學(xué)的范疇,需要各國(guó)政府出臺(tái)相應(yīng)的政策法規(guī)加以監(jiān)管。世界各國(guó)正在展開(kāi)這樣的嘗試。
歐盟:發(fā)展可信賴(lài)人工智能
人工智能可以幫助醫(yī)生做出更快、更準(zhǔn)確的診斷,幫助農(nóng)民減少使用農(nóng)藥,幫助人們應(yīng)對(duì)氣候變化,它還有助于減少交通事故的數(shù)量……人工智能正在幫助我們解決許多社會(huì)難題,但與之相伴而來(lái)的是人工智能所引發(fā)的安全擔(dān)憂。
關(guān)注人工智能帶來(lái)的安全、隱私、尊嚴(yán)等方面的風(fēng)險(xiǎn)正是歐盟人工智能戰(zhàn)略和政策的側(cè)重點(diǎn)。
2018年3月,有歐盟智庫(kù)之稱(chēng)的歐洲政治戰(zhàn)略中心(European Political Strategy Centre)發(fā)布題為《人工智能時(shí)代:確立以人為本的歐洲戰(zhàn)略》(The Age of Artificial Intelligence: Towards a European Strategy for Human-Centric Machines)的報(bào)告。
報(bào)告建議歐盟鼓勵(lì)發(fā)展人工智能,并努力建立起人與機(jī)器的共生關(guān)系。它還建議歐盟確立以人為本的戰(zhàn)略,把政策目標(biāo)設(shè)定為使人們感到被人工智能賦能,而非被其威脅。
在此建議下,2018年4月25日,歐盟委員會(huì)發(fā)布的一份政策文件《歐盟人工智能》(Artificial Intelligence for Europe)提出了人工智能的歐盟道路。向來(lái)有著人權(quán)傳統(tǒng)的歐盟決定著重探討人工智能的價(jià)值觀。
歐盟認(rèn)為,人工智能的發(fā)展可能會(huì)引發(fā)新的倫理和法律問(wèn)題,歐盟必須確保人工智能在適宜的框架內(nèi)發(fā)展。這個(gè)框架應(yīng)既促進(jìn)科技創(chuàng)新,又能尊重歐盟的價(jià)值觀、基本權(quán)利和道德原則。在歐洲價(jià)值觀的基礎(chǔ)上,歐盟委員會(huì)提出了一種三管齊下的方法:增加公共和私人投資,為人工智能帶來(lái)的社會(huì)經(jīng)濟(jì)變革做好準(zhǔn)備,并建立起適當(dāng)?shù)牡赖潞头煽蚣堋?/p>
2019年4月8日,歐盟委員會(huì)發(fā)布一份人工智能道德準(zhǔn)則,該準(zhǔn)則由2018年12月公布的人工智能道德準(zhǔn)則草案演變而來(lái),提出了實(shí)現(xiàn)可信賴(lài)人工智能的七個(gè)要素,要求不得使用公民個(gè)人資料做出傷害或歧視他們的行為。
這份人工智能道德準(zhǔn)則提出了實(shí)現(xiàn)可信賴(lài)人工智能的七個(gè)要素,分別是:
1.人的能動(dòng)性和監(jiān)督:人工智能系統(tǒng)應(yīng)通過(guò)支持人的能動(dòng)性和基本權(quán)利以實(shí)現(xiàn)公平社會(huì),而不是減少、限制或錯(cuò)誤地指導(dǎo)人類(lèi)自治。
2.穩(wěn)健性和安全性:值得信賴(lài)的人工智能要求算法足夠安全、可靠和穩(wěn)健,以處理人工智能系統(tǒng)所有生命周期階段的錯(cuò)誤或不一致。
3.隱私和數(shù)據(jù)管理:公民應(yīng)該完全控制自己的數(shù)據(jù),同時(shí)與之相關(guān)的數(shù)據(jù)不會(huì)被用來(lái)傷害或歧視他們。
4.透明度:應(yīng)確保人工智能系統(tǒng)的可追溯性。
5.多樣性、非歧視性和公平性:人工智能系統(tǒng)應(yīng)考慮人類(lèi)能力、技能和要求的總體范圍,并確保可接近性。
6.社會(huì)和環(huán)境福祉:應(yīng)采用人工智能系統(tǒng)來(lái)促進(jìn)積極的社會(huì)變革,增強(qiáng)可持續(xù)性和生態(tài)責(zé)任。
7.問(wèn)責(zé):應(yīng)建立機(jī)制,確保對(duì)人工智能系統(tǒng)及其成果負(fù)責(zé)和問(wèn)責(zé)。
英國(guó):把倫理道德放在核心位置
英國(guó)政府也關(guān)注到人工智能的倫理問(wèn)題,希望引領(lǐng)世界安全、合乎道德地使用數(shù)據(jù)和人工智能。
英國(guó)政府報(bào)告《人工智能:未來(lái)決策制定的機(jī)遇和影響》(Artificial intelligence: opportunities and implications for the future of decision making)中詳細(xì)地討論了有關(guān)倫理的問(wèn)題。這些問(wèn)題包括:人工智能是什么?它是如何被利用的?它能給生產(chǎn)力帶來(lái)什么好處?以及我們?nèi)绾巫詈玫毓芾砥涫褂弥锌赡軙?huì)發(fā)生的倫理和法律風(fēng)險(xiǎn)?
2018年4月16日,英國(guó)議會(huì)一個(gè)特別委員會(huì)發(fā)布報(bào)告說(shuō),在發(fā)展和應(yīng)用人工智能過(guò)程中,有必要把倫理道德放在核心位置,以確保這項(xiàng)技術(shù)更好地造福人類(lèi)。
這份報(bào)告提出,應(yīng)確立一個(gè)適用于不同領(lǐng)域的“人工智能準(zhǔn)則”,其中主要包括5個(gè)方面:人工智能應(yīng)為人類(lèi)共同利益服務(wù);人工智能應(yīng)遵循可理解性和公平性原則;人工智能不應(yīng)用于削弱個(gè)人、家庭乃至社區(qū)的數(shù)據(jù)權(quán)利或隱私;所有公民都應(yīng)有權(quán)利接受相關(guān)教育,以便能在精神、情感和經(jīng)濟(jì)上適應(yīng)人工智能發(fā)展;人工智能絕不應(yīng)被賦予任何傷害、毀滅或欺騙人類(lèi)的自主能力。
美國(guó):保護(hù)公民自由、隱私和美國(guó)價(jià)值觀
美國(guó)較早開(kāi)始關(guān)注人工智能驅(qū)動(dòng)的自動(dòng)化將對(duì)就業(yè)、經(jīng)濟(jì)和社會(huì)帶來(lái)的影響,試圖通過(guò)政策制定來(lái)應(yīng)對(duì)相應(yīng)挑戰(zhàn),并確保人工智能的發(fā)展能釋放企業(yè)和工人的創(chuàng)造潛力。
2016年10月,美國(guó)前總統(tǒng)奧巴馬發(fā)布了《國(guó)家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃》,并稱(chēng)其為新的“阿波羅登月計(jì)劃”。這是全球首份國(guó)家層面的AI戰(zhàn)略計(jì)劃。奧巴馬提到專(zhuān)用的人工智能已經(jīng)在醫(yī)藥、交通、輸配電等各個(gè)領(lǐng)域提高了經(jīng)濟(jì)運(yùn)行的效率。但人工智能也可能存在不利的方面,比如減少就業(yè)機(jī)會(huì)、影響工資水平和社會(huì)平等。政府需要對(duì)此進(jìn)行研究。
2019年2月11日,美國(guó)總統(tǒng)特朗普簽署了一項(xiàng)名為“維護(hù)美國(guó)人工智能領(lǐng)導(dǎo)地位”的行政命令,正式啟動(dòng)美國(guó)人工智能計(jì)劃。同日,白宮發(fā)文稱(chēng),美國(guó)聯(lián)邦政府將集中資源發(fā)展人工智能,以“確保美國(guó)在人工智能方面的優(yōu)勢(shì)”。
特朗普當(dāng)時(shí)簽署的行政命令稱(chēng),美國(guó)是人工智能研發(fā)和部署的全球領(lǐng)導(dǎo)者,美國(guó)政府將協(xié)調(diào)聯(lián)邦政府戰(zhàn)略和美國(guó)人工智能計(jì)劃,以五項(xiàng)原則為指導(dǎo),維持和加強(qiáng)美國(guó)在人工智能研發(fā)和部署方面的科學(xué)、技術(shù)和經(jīng)濟(jì)領(lǐng)導(dǎo)地位。
其中,第二項(xiàng)原則提到,美國(guó)必須推動(dòng)制定適當(dāng)?shù)募夹g(shù)標(biāo)準(zhǔn),減少對(duì)人工智能技術(shù)進(jìn)行安全測(cè)試和部署的障礙,以便創(chuàng)造新的人工智能相關(guān)產(chǎn)業(yè),并使當(dāng)前的產(chǎn)業(yè)應(yīng)用人工智能技術(shù)。
第四項(xiàng)原則提到,美國(guó)必須培養(yǎng)公眾對(duì)人工智能技術(shù)的信任和信心,并在應(yīng)用人工智能技術(shù)時(shí)保護(hù)公民自由、隱私和美國(guó)價(jià)值觀,為美國(guó)人民充分發(fā)揮人工智能技術(shù)的潛力。
中國(guó):發(fā)展負(fù)責(zé)任的人工智能
中國(guó)對(duì)人工智能技術(shù)的治理問(wèn)題亦頗為重視。2019年2月,中國(guó)科技部牽頭組建了中國(guó)國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì),6月該委員會(huì)發(fā)布新一代人工智能治理原則發(fā)展負(fù)責(zé)任的人工智能》(以下簡(jiǎn)稱(chēng)《治理原則》),強(qiáng)調(diào)發(fā)展負(fù)責(zé)任的人工智能。工信部在2017年頒布的《促進(jìn)新一代人工智能產(chǎn)業(yè)健康發(fā)展三年行動(dòng)計(jì)劃(2018-2020)》也對(duì)治理提出要求。
《治理原則》提到,近年來(lái),人工智能迅速發(fā)展,正在深刻改變?nèi)祟?lèi)社會(huì)生活、改變世界。為促進(jìn)新一代人工智能健康發(fā)展,加強(qiáng)人工智能法律、倫理、社會(huì)問(wèn)題研究,積極推動(dòng)人工智能全球治理,新一代人工智能發(fā)展規(guī)劃推進(jìn)辦公室成立了國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)。
《治理原則》突出了發(fā)展負(fù)責(zé)任的人工智能這一主題,強(qiáng)調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作、敏捷治理等八條原則。
其中,“公平公正”原則要求人工智能發(fā)展應(yīng)促進(jìn)公平公正,保障利益相關(guān)者的權(quán)益,促進(jìn)機(jī)會(huì)均等。通過(guò)持續(xù)提高技術(shù)水平、改善管理方式,在數(shù)據(jù)獲娶算法設(shè)計(jì)、技術(shù)開(kāi)發(fā)、產(chǎn)品研發(fā)和應(yīng)用過(guò)程中消除偏見(jiàn)和歧視。
“尊重隱私”原則要求人工智能發(fā)展應(yīng)尊重和保護(hù)個(gè)人隱私,充分保障個(gè)人的知情權(quán)和選擇權(quán)。在個(gè)人信息的收集、存儲(chǔ)、處理、使用等各環(huán)節(jié)應(yīng)設(shè)置邊界,建立規(guī)范。完善個(gè)人數(shù)據(jù)授權(quán)撤銷(xiāo)機(jī)制,反對(duì)任何竊娶篡改、泄露和其他非法收集利用個(gè)人信息的行為。
“安全可控”原則要求人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性,逐步實(shí)現(xiàn)可審核、可監(jiān)督、可追溯、可信賴(lài)。高度關(guān)注人工智能系統(tǒng)的安全,提高人工智能魯棒性及抗干擾性,形成人工智能安全評(píng)估和管控能力。
“共擔(dān)責(zé)任”原則要求人工智能研發(fā)者、使用者及其他相關(guān)方應(yīng)具有高度的社會(huì)責(zé)任感和自律意識(shí),嚴(yán)格遵守法律法規(guī)、倫理道德和標(biāo)準(zhǔn)規(guī)范。建立人工智能問(wèn)責(zé)機(jī)制,明確研發(fā)者、使用者和受用者等的責(zé)任。人工智能應(yīng)用過(guò)程中應(yīng)確保人類(lèi)知情權(quán),告知可能產(chǎn)生的風(fēng)險(xiǎn)和影響。防范利用人工智能進(jìn)行非法活動(dòng)。
責(zé)任編輯:YYX
-
人工智能
+關(guān)注
關(guān)注
1791文章
47279瀏覽量
238513
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論