昨日,ICCV 2019官方推特發布消息,公布了今年大會投稿情況:共計接收投稿4328篇,與上屆相比,接收投稿數量翻倍。根據目前發布的數據,中科院和清華大學超越微軟、谷歌等,投稿數量遙遙領先,分別為237篇和175篇。
厲害了!ICCV 2019投稿數量翻倍!
ICCV (國際計算機視覺大會),是計算機視覺方向的三大頂級會議之一,在世界范圍內每兩年召開一次。ICCV論文錄用率非常低,是三大會議中公認級別最高的。
昨日,ICCV 2019官方推特發布了今年接收到的論文投稿情況:
推文鏈接:
https://twitter.com/ICCV19/status/1109353497856802816
今年ICCV接收的投稿數量高達4328篇,創下了其有史以來的記錄!更值得注意的是,上一屆ICCV的投稿數量僅是2143篇,今年翻倍!
ICCV 2019中科院、清華投稿數量遙遙領先
剛剛公布完投稿總數,ICCV 2019官方推特又公布了投稿單位分布情況:
推文鏈接:
https://twitter.com/ICCV19/status/1109735362757312512
新智元對其做了一下簡單的整理:
中國科學院:237篇;
清華大學:175篇;
微軟:103篇;
谷歌:100篇;
蘇黎世聯邦理工學院:99篇;
華為:91篇;
Facebook:85篇;
UC伯克利:82篇;
牛津大學:70篇;
斯坦福:58篇;
MIT:53篇;
Adobe:53篇;
首爾大學:49篇;
韓國先進科技學院:48篇;
百度:47篇;
卡內基梅隆大學:45篇;
伊利諾伊大學厄巴納-香檳分校:39篇;
法國國立計算機及自動化研究院:36篇;
康奈爾大學:32篇;
Amazon:31篇;
maxplanckpress:29篇;
EPFL_en:25篇;
Apple:1篇。
以上是由ICCV 2019官方推特截止目前發布的各投稿單位論文投稿數量的情況。
中科院和清華大學遙遙領先微軟和谷歌,投稿數量分別高達237篇和175篇。國外高校投稿數量較高的是蘇黎世聯邦理工學院和UC伯克利,分別為99篇和82篇。
從企業角度看,微軟和谷歌投稿數量較多,分別是103篇和100篇。國內企業華為投稿最多,為91篇;其次是百度,47篇。
從目前公布的投稿數量來看,中國高校和企業在今年的ICCV可謂是大放異彩。但正如剛剛提到的,ICCV的論文錄用率非常低,新智元在此也預祝中國高校和企業會有一個好的成績!
ICCV 2017大會回顧:崛起的中國
在上一屆大會(即ICCV 2017)中的各種統計數字中,可能最引人矚目的,是中國崛起。
根據投稿作者的郵箱地址,有844篇論文(將近40%)來自中國,美國以934篇位居第一。看投稿數量,中美兩國也遙遙領先。
其中,投稿數量最多的機構是清華大學,超越了CMU,超越了谷歌,超越了MIT。上海交通大學和北航分別位列第八、第九。
新智元粗略統計,2017年ICCV 接收論文中,有40%的第一作者都是華人。
雖然不盡是華人,我們也在上屆大會主席團隊中見到了熟悉的名字,上屆ICCV的大會主席之一是微軟亞洲研究院首席研究員池內克史。兩位Workshop Chair,一位是微軟的Sing Bing Kang,另一位是預定出任CVPR 2019 程序主席的上海科技大學&特拉華大學教授虞晶怡。
ICCV 2017 熱詞:新智元對ICCV 2017錄用論文標題做了詞頻統計,“深度學習”、GAN、識別、檢測依然是熱詞。
當然,在上一屆ICCV中,最大的一個亮點無疑是何愷明包攬兩項最佳論文。
ICCV 2017的最佳論文獎(Marr prize)頒發給了Facebook AI實驗室(FAIR)何愷明等人的論文《Mask R-CNN》。
ICCV 2017最佳論文頒發給了Mask R-CNN
論文標題非常簡潔,就是“Mask R-CNN”:
摘要
我們提出一個概念上簡單,靈活,通用的物體實例分割框架(object instance segmentation)。我們的方法能有效檢測圖像中的對象,同時為每個實例生成高質量的分割掩膜(segmentation mask)。我們將該方法稱為 Mask R-CNN,是在 Faster R-CNN 上的擴展,即在用于邊界框識別的現有分支上添加一個并行的用于預測對象掩膜(object mask)的分支。Mask R-CNN 的訓練簡單,僅比 Faster R-CNN 多一點系統開銷,運行速度是 5 fps。此外,Mask R-CNN 很容易推廣到其他任務,例如可以用于在同一個框架中判斷人的姿勢。
我們在 COCO 競賽的3個任務上都得到最佳結果,包括實例分割,邊界框對象檢測,以及人物關鍵點檢測。沒有使用其他技巧,Mask R-CNN 在每個任務上都優于現有的單一模型,包括優于 COCO 2016 競賽的獲勝模型。我們希望這個簡單而有效的方法將成為一個可靠的基準,有助于未來的實例層面識別的研究。
圖1:用于實例分割的 Mask R-CNN 框架
Mask R-CNN 在概念上十分簡單:Faster R-CNN 對每個候選物體有兩個輸出,即一個類標簽和一個邊界框偏移值。作者在 Faster R-CNN 上添加了第三個分支,即輸出物體掩膜(object mask)。因此,Mask R-CNN 是一種自然而且直觀的想法。但添加的 mask 輸出與類輸出和邊界框輸出不同,需要提取對象的更精細的空間布局。Mask R-CNN 的關鍵要素包括 pixel-to-pixel 對齊,這是 Fast/Faster R-CNN 主要缺失的一塊。
最佳學生論文也出自 FAIR 團隊之手,一作是 Tsung-Yi Lin。值得一提,何愷明也有參與,不愧為大神。
ICCV 2017最佳學生論文頒發給了FAIR的《密集物體檢測Focal Loss》
摘要
目前,最準確的目標檢測器(object detector)是基于經由 R-CNN 推廣的 two-stage 方法,在這種方法中,分類器被應用到一組稀疏的候選對象位置。相比之下,應用于規則密集的可能對象位置采樣時,one-stage detector 有潛力更快、更簡單,但到目前為止,one-stage detector 的準確度落后于 two-stage detector。在本文中,我們探討了出現這種情況的原因。
我們發現,在訓練 dense detector 的過程中遇到的極端 foreground-background 類別失衡是造成這種情況的最主要原因。我們提出通過改變標準交叉熵損失來解決這種類別失衡(class imbalance)問題,從而降低分配給分類清晰的樣本的損失的權重。我們提出一種新的損失函數:Focal Loss,將訓練集中在一組稀疏的困難樣本(hard example),從而避免大量簡單負樣本在訓練的過程中淹沒檢測器。為了評估該損失的有效性,我們設計并訓練了一個簡單的密集目標檢測器 RetinaNet。我們的研究結果顯示,在使用 Focal Loss 的訓練時,RetinaNet 能夠達到 one-stage detector 的檢測速度,同時在準確度上超過了當前所有 state-of-the-art 的 two-stage detector。
希望在今年的ICCV中,中國高校和企業依舊能夠大放異彩!
-
微軟
+關注
關注
4文章
6621瀏覽量
104247 -
計算機視覺
+關注
關注
8文章
1699瀏覽量
46055 -
深度學習
+關注
關注
73文章
5511瀏覽量
121355
原文標題:ICCV 2019論文投稿翻倍創紀錄:共計4328篇,中科院與清華遙遙領先
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論