隨著一年的臨近,回顧一下前幾個月以了解未來的發展將是很有啟發性的。歷史本質上是周期性的,在AI領域也是如此。回想一下傳播算法,一種在機器學習系統的訓練中廣泛使用的算法,早在1980年就作為一種理論出現了,但是直到2010年代它才回來,這在一定程度上要歸功于廉價,功能強大的基于圖形卡的機器。
今年,人工智能和機器學習中的四個關鍵問題浮出水面:面部識別; 學術界的虛假和自我審查;隱私; 和自動化。展望2020年,下面回顧一下定義2019年行業的一些問題。
面部識別
面部識別技術在今年的新聞中發現自己可能比其他任何AI應用程序都多。
1月初,一個麻省理工學院的科學家團隊聲稱,亞馬遜網絡服務的面部識別和分析平臺Rekognition與某些競爭性解決方案相比,在某些種族中對性別的區分不準確。具體來說,它無法確定某些情況下女性和深色皮膚的面孔的性別,從而錯誤地將女性的照片分別識別為男性和深色皮膚的女性分別為19%和31%。
除了亞馬遜的爭議之外??,這項研究預先聚焦了AI容易受到影響的偏見類型。美國國家標準技術研究院(NIST)上周發表的研究發現,當進行特定類型的數據庫搜索時,許多面部識別算法錯誤地識別出黑人和亞裔面孔的頻率是白種人的10到100倍。面孔。
除了偏見問題之外,面部識別技術的可擴展性使其成熟了。今年,紐約警察局通過面部識別系統為演員伍迪·哈雷爾森(Woody Harrelson)拍攝了照片,因為警察認為在毒品商店攝像機鏡頭中看到的嫌疑犯與演員相似。我們了解了中國如何利用面部識別來跟蹤其維吾爾族穆斯林人口的活動。總部位于特拉維夫市以外的一家初創企業AnyVision受到了審查,原因是有報道稱其產品用于監視住在西岸的巴勒斯坦人。
越來越多的活動家,學者和立法者呼吁限制或徹底禁止面部識別技術。今年秋天,加利福尼亞州對執法機構的身體攝像機使用面部識別實施了三年禁令,而在五月,舊金山禁止警察或城市部門使用面部識別。奧克蘭在6月也效仿,此后伯克利通過了自己的禁令。去年夏天,在眾議院監督和改革委員會的兩次聽證會中,美國國會中一些最杰出的共和黨人和民主黨人共同加入了立法改革提案,此舉是在引入2019年《商業面部識別隱私法》之后,該法案要求企業使用面部識別軟件之前,請先征得您的同意。
鑒于國會,學術界,州議會和像國會山這樣的公共論壇上的辯論很激烈,可以肯定地說,面部識別曾經而且將仍然是一個熱門話題。
自我審查和偽造品
與學術規范不同的是,OpenA在二月份選擇不公開用于訓練其最先進的自然語言處理模型(稱為GPT-2)的語料庫,也不公開其附帶的訓練代碼。OpenAI在證明其決定的博客文章中表示關注,擔心它們可能被用來生成有關特定公司的綜合金融新聞,例如,種族主義或性別歧視文本或在亞馬遜或Yelp等網站上的假評論。
隨后,OpenAI發布了幾個較小且不太復雜的GPT-2版本,并研究了它們的接收以及他們訓練所依據的數據集。在得出“沒有強有力的證據”濫用的結論之后,該公司上個月發布了完整的模型-對從網絡上抓取的800萬個文本文檔進行了培訓。
對OpenAI決策的批評者認為,該公司夸大了其工作帶來的危險,并且無意中激起了有關AI和機器學習的巨大歇斯底里。除此之外,他們斷言OpenAI剝奪了他們使用突破性AI技術的能力,不利于研究人員,并且有效地阻止了研究團體識別GPT-2中的錯誤或提出潛在的對策。
他們有道理,但是OpenAI的擔心并非完全沒有根據。Deepfakes或將人帶入現有圖像,音頻記錄或視頻中并使用AI將其替換為他人形象的媒體,在2019年迅速增長。Deeptrace在6月和7月的最新統計中在互聯網上找到了14,698個Deepfake視頻。 ,比去年12月增長了84%。令人不安的是,不僅因為偽造品可能被用來在選舉中動搖公眾輿論或將某人卷入他們未曾犯下的罪行中,而且還因為它們已經被用來制作色情材料并使數以百萬計的公司陷于癱瘓美元。
包括Facebook,微軟和亞馬遜在內的科技巨頭已經與麻省理工學院和康奈爾大學等學術合作伙伴合作,以幫助遏制AI起源的誤導性媒體的傳播,但OpenAI猶豫不決發布其模型是未來挑戰的領頭羊。的確,Experian 預測,到2020年,網絡犯罪分子將使用AI技術來破壞商業企業的運營并在國家之間造成地緣政治混亂。
隱私
盡管他們做了很多事情,但AI和機器學習算法仍然存在一個主要的隱私問題。
倫敦皇家免費NHS基金會信托基金是總部位于倫敦的英國國家衛生局的一個部門,未經他們的同意,向 Alphabet的DeepMind提供了160萬患者的數據。Google(與Ascension 共享健康數據的合作伙伴關系在11月成為審查的對象)放棄 了發布胸部X光掃描的計劃,原因是擔心它們包含個人身份信息。去年夏天,微軟悄悄 將其刪除一個數據集(MS Celeb)包含超過一千萬張人的圖像,原因是有人不知道其中已經包含了這些圖像。而且,ImageNet是一個通常用于訓練計算機視覺算法的開源庫,據透露,該庫在某些時候包含從Google,Flickr和其他地方刮取的親密行為的描述。
另外,包括蘋果和谷歌在內的科技巨頭也受到了報道的關注,他們發現可能會濫用 錄音 來改善Siri和Google Assistant等助手。今年4月,彭博社 透露,亞馬遜雇用了合同工來注釋來自Alexa供電設備的數千小時音頻,這促使該公司推出了面向用戶的工具,這些工具可以快速刪除云存儲的數據。
鑒于越來越多的隱私問題不僅是哲學問題,而且在業務過程中也至關重要。州,地方和聯邦各級的法律旨在使隱私成為合規管理的強制性部分。在美國的50個州,領地和哥倫比亞特區,數百項涉及隱私,網絡安全和數據泄露的法案正在等待或已經通過。可以說,其中最全面的是大約兩年前,《加利福尼亞消費者隱私法》已簽署成為法律。更不用說《健康保險可移植性和責任制法案》(HIPAA),該法案要求公司在披露個人健康信息之前必須尋求授權。
作為回應,谷歌和其他公司已經發布了諸如TensorFlow Privacy和PySyft之類的庫, 用于機器學習框架,包括TensorFlow和PyTorch,它們通過差分隱私之類的技術提供了強大的隱私保證。同時,他們采用了聯邦學習等技術,該技術可以在不交換數據樣本的分散設備或服務器(即節點)上跨分散的設備或服務器訓練AI,以及同態加密(一種加密形式,可以對已加密的純文本(文件內容)進行計算)使用算法(也稱為密文)。在等式全面管理的服務方面,像亞馬遜這樣的科技巨頭已經采取行動,使其產品符合HIPAA等法規。
自動化
盡管人們對竊取AI的恐懼可能已經被夸大了,但是自動化正在侵蝕對人工的需求。
麥肯錫全球研究所在今年早些時候發布的一份報告中發現,女性占主導地位的職業將受到人工智能和機器學習的不利影響。到2030年,在10個經濟體中男性占多數的工作中,約40%的工作將集體被GDP取代,到2030年,自動化將取代男性,而具有自動化潛力的女性占52%。
這些觀點與英國國家統計局(ONS)于2019年3月發布的報告一致,該報告發現英國10%的勞動力(約150萬工人)從事的工作處于自動化的“高風險”中。ONS預測,服務業工人,主要是侍應生和女服務員,零售庫存補給員和入門級銷售人員,將受到不成比例的影響,以及農業,汽車和服務業的工人。該部門預測,在2017年擔任高風險工作70.2%的女性中,首當其沖的是勞動力市場變化。
無論是在當前領域從事新工作還是獲得新技能,預計到2030年成千上萬的工人將不得不進行某種職業過渡。Forrester發現,自動化可以在未來幾個月內消除美國10%的工作。 。而世界經濟論壇,普華永道, 麥肯錫全球研究院,并 Gartner公司已經預測,AI會在2025年使多余的,因為有75萬人的就業機會。
也許不足為奇的是,各種形式的普遍基本收入,如不分收入定期向公民付款,都得到了理查德·布蘭森和埃隆·馬斯克等名人的認可。美國總統候選人安德魯·楊(Andrew Yang)將其作為民主黨提名競選活動的核心部分-他堅稱,由增值稅提供的付款可能會啟動美國尚未受益于民主的地區的經濟發展。風險投資。至于比爾·蓋茨(Bill Gates),他建議征收“ 機器人稅 ”,即政府在企業每次使用自動化軟件或機器替換員工時,政府都會收取費用。
展望未來
人工智能面臨的挑戰是巨大的。面部識別仍然是機器學習的一種有效且很大程度上不受監管的應用,它可以增強(在某些情況下還可以創建)監視狀態。Deepfake對科技公司和學術界以及廣大公眾造成重大影響。對于AI中的隱私問題的確定性解決方案是難以捉摸的。不管工人是否熟練,自動化都將影響數百萬人的生計。
2020年可能會有什么答案?很難說。但是,盡管AI帶來了所有困境,但它卻帶來了巨大的積極變化。今年的AI在蛋白質折疊方面達到了最先進的水平,這可以為新療法和新藥物鋪平道路。機器學習的各種實現方式正在被用來應對全球氣候變化。人工智能使有言語和聽力障礙的人可以使用以前無法獲得的產品。
與任何范式轉換一樣,好的事物總是有弊。該行業的任務,乃至我們的任務,是在力所能及的范圍內盡一切努力,以后者為代價來推進后者。
-
AI
+關注
關注
87文章
31429瀏覽量
269832 -
人工智能
+關注
關注
1793文章
47604瀏覽量
239544
發布評論請先 登錄
相關推薦
評論