憑一己之力將澳大利亞機器學習研究院拉至全球排名第四;GitHub 1400 多顆 Star、并用于 Top 級手機廠商的視覺處理;這就是程序員口中的“CV 大牛” 沈春華團隊的“戰績”。
目前,沈春華在澳大利亞阿德萊德大學擔任計算機科學教授。這位本科畢業于南京大學、后在阿德萊德大學獲得博士學位的中國科學家,其主要研究機器學習和計算機視覺,而計算機視覺的終極目標是建立一個具有人類表現的視覺系統。
2012 年,沈春華獲得澳大利亞研究委員會的未來學者稱號。除教職之外,他還是澳大利亞研究委員會機器人視覺卓越中心的科研負責人。從阿德萊德大學網站獲悉,沈春華上月被列為澳大利亞科研終身成就獎,是工程與計算機類獎項的 5 名獲選人之一(https://specialreports.theaustralian.com.au/1540291/9/)。
計算機排名網站 CSRanking 顯示,沈春華是過去 10 年間在計算機視覺方向 3 大頂級會議發表論文最多的在澳學者。他的科研成果和產出是阿德萊德大學下屬的澳大利亞機器學習研究院 (Australian Institute for Machine Learning,AIML) 能在 CSRanking 上排名世界第 4 的主要原因之一。
鑒于澳大利亞機器學習研究院的國際聲譽,澳大利亞聯邦政府最近宣布撥款 2000 萬澳元(合近 1 億人民幣)資助該研究院的科研,同時他還兼任研究院機器學習理論課題的主任。據 Google Scholar 顯示,他的論文已積累 22000 多引用,個人 H-index 為 71。
從教至今,他教出過多位優秀中國留學生,他的學生中目前有 3 位獲得 Google 博士獎學金(Google PhD Fellowship)。自 Google 首次頒發該獎項至今 12 年間,澳大利亞所有高校一共只有 7 人次在 “機器感知、語音技術和計算機視覺” 這個方向上獲得該獎項,而其中 3 人出自沈春華團隊。
除此之外,還有多位畢業生入職名企、或在知名大學擔任教職, 如悉尼大學、墨爾本莫納什大學、新加坡理工大學等等。
圖 | 沈春華指導的部分博士畢業生
雖然他不在國內,但卻時不時有中國程序員,在網上撰文逐句逐段分析他的論文,甚至主動翻譯他的論文。同時,他的論文研究已有不少投入應用。
其團隊開發的開源工具箱 AdelaiDet,曾和全球數一數二的手機廠商合作,部分算法曾經用于該公司的旗艦手機上。該算法可幫助手機優化拍照功能,拍出來的照片更鮮艷,還可幫助相機更好地實現特效功能和背景虛幻等功能。
截止目前,AdelaiDet 主要包含以下算法:FCOS、BlendMask、ABCNet、CondInst、SOLO,本文主要介紹前四個算法。
FCOS:基于 FCN 的逐像素目標檢測算法
FCOS(Fully Convolutional One-Stage Object Detection)的中文翻譯是目標檢測器,是沈春華團隊于 2019 年推出的計算機視覺目標檢測算法,并以《FCOS:完全卷積一階段目標檢測》(FCOS: Fully Convolutional One-Stage Object Detection)為題發表在國際計算機視覺大會 2019 上。
在國內某問答社區上,一位目前在字節跳動擔任高管、博士畢業于清華大學電氣工程系的認證用戶表示,這篇論文是“入門檢測最合適的文章”。
具體來說,FCOS 是一種基于全卷積神經網絡的逐像素目標檢測算法,最大亮點是提出了一個不需要錨框(Anchor Free)的全新的目標檢測算法。FCOS 在性能上接近甚至超過目前很多基于錨框的主流目標檢測算法。
目前大多數目標檢測模型如 Faster R-CNN、YOLOv3 等都依賴于預先定義的錨框。相比之下,FCOS 不依賴預先定義的錨框或提議區域。通過去除預先定義的錨框,FCOS 可完全避免錨框的復雜運算,并能節省訓練過程中的內存占用。
更重要的是,FCOS 可避免和錨框有關、且對最終檢測結果敏感的所有超參數。因此 FCOS 比以往基于錨框的一階段或者二階段目標檢測器要大大簡化。
圖 | FCOS 網絡結構
從論文中的對比測試來看,FCOS 的精度已超過老牌經典算法 Faster R-CNN。
圖 | FCOS 的精度對比
如下圖案例所示,FCOS 在對目標物體框中、所有的點進行目標框回歸時,會用各個邊的距離長度來計算損失,這樣可以為后續使用 Center-ness 準備。
圖 | FCOS 用各個邊的距離長度來計算損失
目前,在開發者群體中,FCOS 的論文已經成為他們眼中的 “沈春華團隊的代表作”。而 BlendMask、CondInst、SOLO 的相關論文則被媒體稱為 “沈春華團隊的又一力作”。
BlendMask:可提取更準確的實例分割特征
BlendMask 的中文意思為實例分割算法,它來自沈春華團隊的另一篇發表于 CVPR2020 的論文《BlendMask:自上而下與自下而上相結合的實例分割》(BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation)。
BlendMask 提出了一種結合自上向下和自下向上兩種設計策略的實例分割算法,在精度上超越了另一目標檢測項目 Mask RCNN,速度上快 20%。
經測試發現,在 COCO 數據集上使用 ResNet-50,BlendMask 性能可達 37.0%的 mAP(平均精度均值,mean average precision),使用 ResNet-101 其性能可達到 38.4%的 mAP。
BlendMask 可通過更合理的 Blender 模塊,來融合 top-level 和 low-level 的語義信息,從而提取更準確的實例分割特征。據悉,BlendMask 是少有的在 mAP 和推理效率方面均能勝過 Mask R-CNN 的算法之一。
ABCNet:比其他方法最高快 10 倍以上
ABCNet 的全稱為 Adaptive Bezier-Curve Network,中文意思為自適應貝塞爾曲線網絡。近年來,場景文本的檢測與識別越來越受重視。
現有方法大致分為兩類:基于字符的方法和基于分段的方法。這些方法的標注代價高昂、框架十分復雜,因此并不適用于實時應用程序。
為此,沈春華團隊提出 ABCNet 來解決上述問題。其貢獻主要有三方面:
1、首次提出通過參數化的貝塞爾曲線(應用于二維圖形應用程序的數學曲線),并自適應地擬合任意形狀的文本。
2、設計了一種新穎的貝塞爾曲線層,可用于提取任意形狀的文本實例的精確卷積特征,精度上遠超此前方法。
3、與邊界框目標檢測方法相比,貝塞爾曲線檢測引入的計算開銷可以忽略不計,兼具高效率和高準確度兩大優勢。在基準數據集 Total-Text 和 CTW1500 上進行的實驗表明,ABCNet 能達到較高的精度,速度也有顯著提升。其中在 Total-text 上,ABCNet 的實時版本比其他方法最高快 10 倍以上。
CondInst:可顯著加快推理速度
CondInst 是一個用于實例分割的條件卷積,相關論文《基于條件卷積的實例分割》“Conditional Convolutions for Instance Segmentation” 發表在 ECCV 2020 上。
CondInst 可以完全不依賴 ROI(感興趣的區域,region of interest)操作。而是采用以實例為條件的動態卷積達到分割實例的效果。
具體來說,它有兩個優點:1、通過全卷積網絡解決了實例分割,無需進行 ROI 裁剪和特征對齊等操作。2、由于動態生成的條件卷積的性能大大提高,因此可以顯著加快推理速度。
以上幾個算法,是沈春華團隊 AdelaiDet 開源工具箱中的主要組成部分。該工具箱受到了學術界和工業界的相當的關注。亞馬遜 AWS 已有意向在其產品中使用工具箱中的目標檢測、實力分割、文字檢測識別等能力。
利好小公司開發者,不懂算法也能用
一言以蔽之,沈春華團隊的研究工作的主要目的之一,是為了提高開發者工作質量和效率,反映到終端用戶則能用到更好的產品。
以背景自動虛化為例,現在幾乎所有手機都有該功能,背后正是人工智能算法在運行。以前文提到的手機廠商來說,手機算法對功耗、速度都有極高要求,因此需要給廠商做個性化方案。如果說開源算法是一個基礎款漢堡,個性化方案就是在此基礎上,加了很多其他菜。
但是該算法并非十全十美,它仍可以追求更高效、更少的計算量和更高的精度。據了解,沈春華團隊在深度學習模型定點化方面也做了不少工作,這些算法可讓深度學習對嵌入式低功耗設備更友好。
舉例來說,標準浮點運算一般是 16 位或 32 位,它的計算量比較大,產業界希望未來能做到一到兩比特,一個比特只有 0 和 1,兩個比特可以有四種組合,那么這種計算就能大大減少運算量和功耗,從而適配移動端低功耗設備。
該團隊做的相當一部分工作,是希望能解決業界難題。一些小微公司的開發者也許并不懂人工智能,那么開發人工智能算法就會比較困難。使用類似沈春華團隊開發的工具箱, 則可大大降低使用門檻。
如今依賴該團隊的工具箱,已經有越來越多的程序員受惠其中。在該團隊的 GitHub 開源網址 https://git.io/AdelaiDet 上,已經有 1400 顆 Star。
他雖然身在海外,但通過沒有國界的互聯網,正在以技術范的方法,幫助不斷增長的中國程序員群體更好地敲代碼。
責任編輯:xj
原文標題:機器視覺領軍學者沈春華,獲澳大利亞科研終身成就獎!新算法獲GitHub 1400多顆Star|專訪
文章出處:【微信公眾號:DeepTech深科技】歡迎添加關注!文章轉載請注明出處。
-
算法
+關注
關注
23文章
4625瀏覽量
93138 -
機器視覺
+關注
關注
162文章
4400瀏覽量
120524 -
GitHub
+關注
關注
3文章
473瀏覽量
16507
原文標題:機器視覺領軍學者沈春華,獲澳大利亞科研終身成就獎!新算法獲GitHub 1400多顆Star|專訪
文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論