機器學習算法無處不在。不只是Facebook和Google。公司正在使用它們提供個性化的教育服務和高級商業智能服務,以抗擊癌癥并檢測假冒商品。從農業到制藥。從AI控制的自動駕駛汽車到臨床決策支持軟件。
該技術將使我們集體變得更富有,并更有能力提供人類福利,人權,人類正義以及促進我們在社區中生活良好所需要的美德。我們應該歡迎它,并盡一切努力促進它。
與任何新技術一樣,存在道德挑戰。新技術會公平和透明嗎?利益會分配給所有人嗎?他們會加劇現有的不平等嗎?
開發和使用AI系統的組織需要道德原則,以指導他們應對我們已經面臨的挑戰以及即將面臨的挑戰。
去年,我的行業協會軟件和信息行業協會發布了有關AI和數據分析的道德原則的問題簡介,以應對這些挑戰。它借鑒了權利,福利和美德的經典倫理傳統,使組織能夠仔細檢查其數據實踐。
公司需要恢復在商業上,尤其是在有關信息收集和使用的機構決策中,以道德的方式思考的能力。這些原則是切實可行的指南。
SIIA不是唯一一個將倫理考慮帶入AI和數據分析領域的實體。計算機科學組織的機器學習公平性,問責制和透明度(FAT / ML)已起草了自己的原則。另一組在Asilomar開會的計算機科學家起草了更廣泛的原則。IEEE已提出與設計中的道德價值觀有關的原則。 ACM最近發布了一組原則,旨在確保AI算法使用的公平性。信息問責基金會在其關于人工智能,倫理學和增強數據管理的報告中制定了一套非常有用的原則。
在2017年10月的經合組織會議上,關于AI的一些不同道德方法在AI:智能機器,智能策略的會議上進行了宣講。日本在2016年G7會議上提出了對AI的道德規則的要求,而意大利人在2017年G&G會議上提出了對AI的道德規則的要求。最近一次G7會議于2018年3月28日結束,發表了關于人工智能的聲明,鼓勵研究“審查AI的道德考量”。美國政府最近宣布將“與我們的盟國合作”以“增進對”人工智能技術的信任,從而涉足這一領域。
歐盟委員會在其最近發布的《歐洲人工智能交流》中,提議在AI聯盟內制定“ AI倫理準則” ,以“ 歐洲”科學與新技術倫理學小組發表的這一聲明為基礎。
這些都是積極的發展。但是需要一些注意事項。到目前為止,抽象的倫理聲明只會使我們受益??尚械牡赖略瓌t需要考慮在特定情況下如何使用AI。例如,涉及自動武器的道德問題與使用AI進行累犯評分或就業篩選所涉及的道德問題大不相同。因此,SIIA就如何將權利,正義,福利和美德的一般原則應用于通過使用不同的影響分析確保算法公平性的特定案例提供了具體建議。
此外,沒有專門適用于AI的特殊道德原則,但不適用于其他數據分析和預測模式。在AI應用程序的開發和實施中,必須尊重和尊重尊重權利,增進福利和培養人的道德的道德要求,并且需要大量艱苦的概念和實證工作來正確地做到這一點。但這與為AI尋找獨特的規范性準則不同。
-
算法
+關注
關注
23文章
4625瀏覽量
93127 -
Facebook
+關注
關注
3文章
1429瀏覽量
54849 -
機器學習
+關注
關注
66文章
8429瀏覽量
132854
發布評論請先 登錄
相關推薦
評論