1、類腦智能在AI腦內開了個“意識小劇場”,深度學習“不是煉金術” AI還能學什么?AI開源框架國產化,百度、曠視相對抗谷歌、臉書。
2、記者試圖探尋AI的下一個5年計劃。
類腦智能:在AI腦內開個“意識小劇場”
類腦智能,被譽為人工智能的終極目標。人工智能在過去十年中基本實現了感知能力,但卻無法提高認知能力(推理、可解釋等)。因此,從認知心理學、腦科學等領域汲取靈感,推動感知智能向認知智能演進是人工智能下個十年的重點。
意識圖靈機:讓機器感受疼痛愉悅
當前,我們仍處于弱人工智能階段,尚不能制造出真正推理和解決問題的智能機器,機器也還沒有自主意識。那么,人工智能要怎樣產生意識?
人的大腦是如何產生疼痛、愉悅等各種感受的?有沒有辦法讓機器模擬甚至體驗這些感覺?
第三十屆(1995年)圖靈獎得主Manuel Blum與前美國卡內基梅隆大學計算機科學系杰出教授Lenore Blum是夫妻倆,他們試圖通過數學模型來理解意識。受到認知神經科學家Bernard Baars的“劇院模型”之啟發,Blum夫婦提出了圖靈機器的正式模型——意識圖靈機(有意識的AI)。
短時記憶和長時記憶是認知科學里兩個重要概念。在劇院模型中,意識相當于短時記憶“舞臺”上所演繹的活動,坐在暗處的觀眾則代表長時記憶中的無意識處理器。在這個腦內小劇場里,演員和觀眾是怎樣互動的呢?
Lenore舉了一個例子,某天你在派對上見到一個人,可怎么都想不起她的名字,等半小時后回到家,那個名字才突然從腦海中蹦出來。也就是說,半小時后那個名字才出現在你的意識或短時記憶中。
這中間發生了什么?你可能回憶了兩人第一次見面的情景,這個信息從短時記憶中廣播出來,并傳到大腦的各個長時記憶處理器上。其中一個處理器表示,她是做機器學習的。這個信息被傳到意識中,再廣播到各個處理器。接著又有一個處理器說,她的名字是T開頭的,這個信息也被廣播開來。于是半小時后,她的名字出現在了“舞臺”上,然而舞臺上的有意識自我對無意識自我在臺下的工作是不知情的。
假如獲得了勝利的是恐懼處理器,那么收到廣播的語言處理器可能會激活喊叫機制,發出一聲尖叫。由于一系列動態的下放,一些輸出機制可能被激活。通過語言對恐懼的回應,兩個長時記憶處理器之間產生了連接,不再像初始狀態下那樣只能通過短時記憶進行交流。
Lenore解釋道:“這正是赫布理論提出的‘一起激發的神經元連在一起’,如果回應變多或者關聯變強,就會產生更多的連接。這種連接允許原本經過短時記憶的有意識運算變得無意識,信息塊可以在處理器之間傳遞,很多高負荷工作就是以這種形式進行的。”
讓盲人有一天能看得見
雖然意識圖靈機的研究者強調簡潔性(simplicity),但是復旦大學類腦智能科學與技術研究院副院長林偉認為世界呈現出來的更多還是復雜性(complexity)。微觀層面上,每一個生命個體都有相應的智能行為;宏觀層面上,智能個體之間的互動會產生許多群體行為。而智能是怎么產生的?群體的智能行為又是怎樣產生?
“在這個過程中,需要采集相關數據,進行相應的數據挖掘。在數據集里尋找形象的規律,甚至在這個階段就直接可以到商業和工業中去檢驗結果。”林偉表示,除了挖掘大數據的規律,還需要結合模型去做模擬仿真,因為有了模型就可以去做進一步的預測研判。
好比在類腦人工智能中,首先要認識腦結構、解析腦機制,其后就是要模擬腦,將大腦中某些局部的功能在模型中表現出來,包括感知、認知、記憶、情感、情緒化表現等。這個模擬過程一定受到腦科學研究的啟發,因為那些神經形態的基本結構實際上都可以為數學模型中最簡單的動力學模型提供基本框架和思路。
“每個人的大腦都是有差別的,能替代的也只是一部分。從這個意義上來說,‘增強腦’可能更恰當。比如說某些病患有一些功能的喪失,帕金森、老年癡呆等。通過和生物醫學工程的專家合作,可以把一些算法、控制器、芯片體系植入到相應的大腦。那樣的話也許盲人也會有看得見的一天,類腦研究可以起到這樣的作用。”林偉說道。
深度學習“不是煉金術” AI還能學什么?
AI正在日常生活中滲透。無論是刷臉進門、機器人掃地還是和智能音箱對話,這些應用均可歸類于人工智能的語音和圖像識別。的確,這一代人工智能的發展建立于AI對人類感知的模仿。這得益于人工智能背后的深度學習,通過神經網絡層層分類信息。“只是現在AI還在弱智能階段,要讓機器解決問題,首先需要人工定義問題和機制,轉化為數學模型,并通過數據訓練模型。”在一位阿里系技術人員看來,如今的AI只能映射,還無法產生聯想,機器具備真實推理能力仍是人工智能的發展局限。
深度學習需要依賴海量的數據,與此同時,這一代人工智能的應用帶來了對隱私、數據安全的擔憂。還有沒有針對這兩個困局的更好解決方法?今年WAIC 2020上,聯邦學習、遷移學習是兩大熱詞,AI算法的演進版,在很多領域已經落地,他們為什么能解決深度學習的困境?《IT時報》記者一路探尋。
聯邦學習:隱秘的數據 公開的模型
你的人臉信息,5毛一份。這是日前新華社記者在網絡黑市上發現的非法買賣。一時刷遍朋友圈。
當人們越來越依賴于刷臉支付,但如果這些生物信息被泄露給不法分子,加之你的身份證、銀行卡信息也被暴露,大眾難免擔心信息泄露的后果。
A方收集數據,B方清洗數據,轉移到C方建模訓練,最終賣給D方使用,每個環節都有著數據泄露隱患。
頗有預見性的,這一屆世界人工智能大會上,聯邦學習被屢次提及,它最大的特征是數據信息不離開本地設備,所謂“數據不出域”,但可以加密上傳訓練模型,服務器端綜合各自模型之后,再反饋給用戶模型改進方案。
AI技術人員楊建國認為,如果將傳統的AI深度學習看作是一場開卷考,那么聯邦學習是AI的一場閉卷考,以利用“隱秘”數據為前提。
萬向區塊鏈研究院院長肖風曾在世界人工智能大會上分享,區塊鏈技術的溯源特性能有效監控數據的使用權,一旦數據被泄露,信息將被記錄。這暗示區塊鏈技術在聯邦學習中的可能。
那么,區塊鏈技術是否已在AI領域使用?
一位溫州某區塊鏈企業CEO胡松(化名)告訴《IT時報》記者,目前區塊鏈還沒有在實際應用上與AI結合,仍在理論和概念階段,“近期區塊鏈行業比較沉默,老的故事還沒有應用,新的突破性概念還未誕生。”
遺憾的是,在和多位采訪對象溝通中,《IT時報》記者發現,受限于“看不到的數據”,多家AI企業并不愿應用聯邦學習。
“聯邦學習可以使用一般機器學習能使用的所有算法,但需要額外加一些技術來滿足‘閉卷’的需求。”因此,楊建國認為,除了數據隱私安全,目前一般機器學習存在的缺陷,聯邦學習無能為力。
滬上一位AI算法研究人員認為,聯邦學習在訓練模型時可能出現不收斂的問題,構建的模型或許并不是最優解。在實際運用中,聯邦學習對AI企業在終端數據之間的通信和計算開銷有一定要求。此外,聯邦學習在面對隱私的攻擊時可能存在安全漏洞,也無法較好控制學習時所使用的數據質量。這些均是聯邦學習的缺陷。
不過,楊建國對此仍有期許,他看到聯邦學習的研究和技術在不斷擴展,這是積極的一面。
遷移學習:用小樣本快速得出答案
“你認為哪種機器學習方式可能會成為未來的主流?”當《IT時報》記者向多位AI行業的技術人士拋出這一問題時,多位采訪對象均將目光瞄向遷移學習。
韓林(化名)是一位醫學影像視覺深度學習的AI技術人員,疫情期間他利用百度飛槳開發了能快速識別新冠病癥的AI模型。
“飛槳上有100萬分類的圖像預訓練模型,利用這個模型,調整不同的初始化權重,通過遷移學習,能夠改善最終準確率。”在韓林看來,對開發者而言,遷移學習省去了從頭開始訓練的時間。
新冠疫情下,各大醫院緊急投入“AI閱片”,在上海計算機軟件技術開發中心人工智能技術研究應用與測評團隊負責人陳敏剛看來,正是通過將新冠肺炎病人的CT加入到經過大量訓練的病毒性肺炎CT影像模型,經過模型精調得出的成果。這個過程,便是遷移學習。
“當前針對小樣本的深度學習,主要依靠遷移學習的方法。”陳敏說。
微眾銀行首席人工智能官楊強曾在一次公開演講中表示,在云端用戶群中,每臺手機其實是一個用戶,用戶和特征沒有重疊性,可以在保證隱私安全的條件下進行遷移學習。
但遷移學習并不是萬能的。韓林告訴《IT時報》記者,如果沒有一個和開發者所需相近的模型,開發者依然要面臨從零開始做模型訓練的困境。
“能有一套針對小數據樣本的準確算法一直是行業中的大難題。”一位某互聯網巨頭公司的AI技術人員直言。“圍繞數據量不足的情況”,是楊建國認為人工智能未來發展主攻方向。
對抗學習:為AI設置“陷阱” 以假亂真
以子之矛,攻子之盾。
當大眾驚嘆于AI功能強大的同時,也常常被AI的誤識別而震驚。一副帶有色塊的眼鏡能騙過人工智能,一張帶有色塊的阿爾卑斯山圖片能讓AI誤認為是一條大黃狗。
由于深度學習是黑箱算法,技術人員無法分析出為何AI技術走偏的原因。但韓林認為,這些問題很有價值。這便是對抗學習(GAN)。
所謂GAN,是指在訓練過程中,生成網絡G的目標是盡量生成真實的圖片去欺騙判別網絡D。而D的目標就是盡量把G生成的圖片和真實的圖片分別開來。這樣,G和D動態博弈,彼此在對抗中訓練能力。如果G騙過了D,那么就可以生成一張足以以假亂真的圖片。
“如果知道有色塊眼鏡可以欺騙機器算法,技術人員可以通過調整解決問題。如今人臉識別對用戶的姿勢和光照有比較嚴格要求,為的是防止人臉面具欺騙系統的事件再次產生。”韓林說。
在韓林看來,將深度學習中的一些非關鍵應用轉向關鍵應用,對抗問題將會越來越受到重視。“如果把視覺識別運用到無人駕駛汽車上,行人只要戴上一副眼鏡便無法被系統識別,你認為廠商會不重視嗎?”他反問道。
但這是否意味著一輪輪的技術鴻溝。AI是否能夠解決道高一尺魔高一丈的困境?
“當前人工智能還是依賴于大數據和高算力,從弱智能時代到進一步發展,仍是一條漫長的路。”前述滬上AI算法技術人員總結道。
AI開源框架
百度、曠視想對抗谷歌、臉書
做AI項目,或許在很多人眼里,是一項仄長而復雜的工作,其實不然。實際操作中,開發者可以選擇AI深度學習框架,加載可在框架上運用的模塊,調整參數,如同搭建樂高一樣做出想要的AI應用。框架,省去了開發者從零開始一行行寫代碼的前期工作準備。
這是AI深度學習框架的魅力。《IT時報》記者注意到,目前國外主流的深度學習框架有TensorFlow、PyTorch、Caffe等,而國內的百度飛槳(Paddle Paddle)和曠視天元也吸引了一群受眾。
那么面對中外深度學習框架,眾多開發者會如何選擇?而國內框架又會如何吸引新的開發者入局?
開發者:向國內框架遷移
韓林(化名)是一名影像識別功能的開發者,新冠肺炎期間,他從醫學網站上找到CT轉成圖片作為數據,并搭配參數進行模型訓練。“一次3521張影像的模型訓練,需要40-50分鐘。”他說。
接觸深度學習框架2年,韓林最終從TensorFlow轉到飛槳。他認為,飛槳API比TensorFlow更簡潔,調試組網代碼也更方便。
“當時做了一個比較復雜的模型,用TensorFlow調整模型結構一個月沒有實現收斂,但用飛槳一周就完成了。”這是他接觸飛槳時的第一印象。
林蕓(化名)從事的是文本處理技術工作,易用性強,是她選擇飛槳文心的緣由。
上海聰鏈信息科技有限公司創始人丁強則是曠視天元框架的擁躉。在他看來,曠視在視覺識別領域的優勢,使得天元更適用于該場景的開發。疫情期間,曠視在10天之內推出“明驥AI智能測溫系統”,通過天元框架對算法模型進行專項訓練與優化升級,精準定位到額頭再快速測溫,誤差在±0.3℃以內。
上海埃瓦智能科技有限公司創始人王赟則考慮到3D視覺芯片的推廣應用,選擇了騰訊系的深度學習框架Angel。
AI開發者王劍(化名)向《IT時報》記者給出他選擇國內深度學習框架的考量:社區規模。“社區強大,框架會越來越好,因為用的人多,如果論文作者提供的代碼都是國內某個框架的話,這個框架會有更多人去完善升級。”他說。
百度方面透露,截至目前,飛槳平臺已經凝聚194萬開發者,8.4萬的企業在平臺上創建了超過23.3萬個模型。在主流開源社區整體star數超過4萬,核心框架的star數超過1.1萬。天元則未披露開源社區用戶數。
在領規科技CEO安康看來,國內外深度學習框架每家各有不同,主要還是看開發者的產品和業務屬性,最終通過調整開源社區的模板參數實現應用。
一位在中小型智能硬件類企業工作的王婷(化名)告訴《IT時報》記者,目前公司正在使用Caffe框架。不過,未來可能會考慮使用華為MindSpore,因為公司項目正在使用海思芯片做研發。
盡管有開發者反映,因國內深度學習框架發展時間較短,可能出現部分功能不支持、開發者基數不足導致社區無法馬上解決所需解決問題等情況,但不可否認,正有一群開發者們向國產深度學習框架靠攏。
選ARM低功耗
2020年世界人工智能大會上,曠視介紹了其深度學習框架天元MegEngine的Beta版本,天元重點增加了模型量化與支持ARM處理器兩個功能。
人工智能深度學習離不開海量數據和算力,大模型在帶來精度提升的同時,也對計算資源消耗提出更多要求。這導致它們無法部署在很多非云端的計算設備上(比如智能手機),因此有必要通過模型量化。這些輕量化模型,使它們能夠滿足小型計算平臺的要求。目前,Tensorflow、PyTorch、飛槳等框架均實現了量化功能。MegEngine自然不能落后。
“由32位浮點轉至int8推理,可實現3倍左右的推理加速,減小模型75%的尺寸,減少存儲空間、內存耗用和設備功耗。”曠視研究院AI系統高級技術總監徐欣然介紹。
端側學習是深度學習框架的新趨勢。“端側一般不會進行訓練,只會推理。”上海計算機軟件技術開發中心人工智能技術研究應用與測評團隊負責人陳敏剛告訴記者,在設備端推理,沒有網絡時延,不需要海量服務器和帶寬資源,也不需要將數據上傳云端,保護了用戶隱私。
天元Beta版本添加了對廣泛用于手機和終端電子設備的ARM平臺處理器的支持,并推出了推理優化工具教程,還與面向AIoT的框架小米Mace和嵌入式邊緣計算框架Tengine展開了合作。
百度深度學習技術平臺部高級總監馬艷軍告訴《IT時報》記者,目前包括英特爾、英偉達、華為、ARM等諸多芯片廠商都支持飛槳,并開展合作。這意味著ARM平臺處理下,低能耗的可能。
不過,值得一提的是,功耗似乎是AI在邊緣側、云端的枷鎖,大大限制了算力。據《IT時報》記者了解,目前數據中心的一個機柜功耗限制在6000瓦-8000瓦,而一臺性能強勁的GPU服務器也要四五千瓦。
? ? ? ?責任編輯:pj
評論
查看更多