在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

MS-COCO數據集的可靠嗎?

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-11-21 11:19 ? 次閱讀

ICCV2023 基準測試:MS-COCO數據集的可靠嗎?

摘要

數據集是用于分析和比較各種任務的算法的基礎,從圖像分類到分割,它們也在圖像預訓練算法中起著重要作用。然而,人們往往只關注結果,而忽略了數據集中實際的內容。因此,質疑數據集中所包含的信息類型以及其中的微妙差異和偏見是非常必要的。在本文中,我們利用形狀分析流程來發現Sama-COCO(MS-COCO的重新標注版本)的潛在問題。我們在兩個數據集上訓練和評估了模型,以檢查不同標注條件對結果的影響。我們的實驗表明,標注方式對性能有顯著影響,因此標注過程應該根據目標任務進行設計。

引言

數據集基準和評估標準對于塑造計算機視覺研究的方向和動力具有關鍵作用。它們是衡量社區進步和算法創新的標尺。這些組件通常被認為是單一的工作,它們被收集和分析以確保所有算法的可靠性和質量。然而,當基準本身存在缺陷時,研究人員和從業者花費大量時間調整他們的實驗以在基準上取得最佳性能,會產生什么后果呢?

視覺數據集通常用于分類、檢測和分割等任務的算法基準測試或大型神經網絡的預訓練。然而,這存在一個問題,那就是實際的目標并不總是與數據集中提供的數據相一致。這種不一致可能源于自動標注協議的缺陷或眾包努力的不協調。因此,有必要建立一個嚴格的端到端流程,其中注釋過程由實際任務的明確定義所指導。

目標檢測數據集(MS-COCO)是一個用于評估和比較檢測和實例分割算法的標準數據集,包括YOLO,R-CNN和DETR等方法。它由自然圖像組成,具有自動駕駛行業的應用價值,因此為在其上開發的神經網絡提供了質量標準。由于MS-COCO在計算機視覺中作為基準的重要性,理解其數據集中的邊界框和分割掩模的可靠性和質量是非常必要的,因為它們反映了數據的趨勢和特征。為了評估數據集的質量,可以創建數據集的重新標注版本,以便與原始版本進行比較和發現潛在的差異,這些差異可能會影響算法的性能和泛化能力。

e597dae4-8791-11ee-939d-92fbcf53809c.png

圖2 除了聚集的實例外,其他對象的大小分布

數據集

Sama-COCO數據集是對現有MS-COCO數據集的重新標注工作,由一組專業的標注員完成。該項目最初是作為一個內部工作,旨在生成高質量的地面真實數據,后來發展成為一種提供了解機器學習數據集質量復雜因素的新方法。

該數據集是在數月內生成的,使用了不固定的人力資源:有時有多達500名標注員同時工作。關鍵點是有對標注員的進行詳細指導。與MS-COCO數據集一樣,標注以矢量多邊形的形式提供。

我們指導標注員在繪制COCO對象輪廓的多邊形時要盡可能精確,盡量避免包含背景。我們還指導標注員優先標注對象的單個實例,而不是聚集在一起的對象。如果圖像中某個對象類別的實例數量超過了給定的閾值,我們就指示標注員只標注前幾個實例,然后將剩余的實例標記為聚集。整個項目中的閾值根據不同的情況進行調整,以平衡預算、時間和數據質量之間的關系。此外,我們還指示標注員忽略尺寸小于10×10像素的對象。

重新標注過程涵蓋了MS-COCO數據集中的所有123,287張訓練和驗證圖像。這些圖像預先加載了MS-COCO的原始標注,這使得標注員可以根據需要修改、保留或刪除這些標注。在標注階段之后,還有一個質量保證(QA)階段,QA專家會檢查每個提交的標注。不符合質量要求的標注會被退回,要求標注員進行修正,直到達到滿意的水平。需要注意的是,一些標注員誤解了忽略小對象的要求,認為是要刪除MS-COCO的預標注,而另一些標注員則沒有改變它們。

與原始MS-COCO數據集相比,Sama-COCO數據集有幾個顯著的差異。首先,Sama-COCO數據集中標記為聚集的實例明顯更多。這部分是因為標注員被指示將大型的單一聚集分解為較小的部分和單個實體。盡管兩個數據集有相同的基礎,但Sama-COCO在80個類別中的47個類別中擁有更多的實例。其中一些類別,如person,增加的數量非常顯著。其次,Sama-COCO的頂點數幾乎是MS-COCO的兩倍,這是因為標注員被指示在繪制多邊形時要盡可能精確,盡量不包含背景。此外,如圖2所示,大型對象的數量顯著減少,因為大型的聚集或對象群中的單個元素被重新標注為不同的實體。在Sama-COCO數據集中還可以觀察到一個關鍵的變化是非常小的對象(尺寸小于或等于10×10像素)的數量明顯減少。最后,Sama-COCO數據集中還有更多的小型(從10×10到32×32像素)和中等大小(從32×32到96×96像素)的對象。

形狀分析

由于Sama-COCO是重新注釋而非最初數據集的更正,所以樣本之間沒有對應關系。為了確定地分析注釋形狀的差異,必須首先匹配多邊形。放寬分析要求為單個多邊形形狀,并利用邊界框形狀一致性的概念。形狀一致性假設輪廓錯誤不意味著盒子錯誤。使用基于交集與并集(IoU)度量的重疊標準確定匹配。對于任何一對封閉形狀,IoU定義為:

e5ae2f24-8791-11ee-939d-92fbcf53809c.png

數據集之間注釋實例的匹配由所有形狀中IoU大于置信度閾值T的形狀對定義。每個注釋最多只有一個匹配,且不能保證一定找到匹配。經驗選擇匹配閾值為0.90。這種策略可找到受輪廓噪聲影響的匹配,而不是與全局框錯誤相關的匹配。對形狀和形狀集,匹配定義為:

e5bc366e-8791-11ee-939d-92fbcf53809c.png

一旦找到匹配,則使用輪廓分析量化成對形狀之間的差異。設()表示成對形狀()的輪廓,長度為()。設為空間域上輪廓的精確距離變換(EDT),其中定義了中的空間位置。用于量化形狀之間平均差異的平均表面距離定義為:

e5ca8318-8791-11ee-939d-92fbcf53809c.png

某些成對形狀可能存在大型區域分歧。在這種情況下,平均表面距離無法捕獲這種現象。為了緩解這個問題,引入最大距離,定義為:

e5d51314-8791-11ee-939d-92fbcf53809c.png

匹配流程應用于訓練分割,找到310504個確定匹配。每個形狀使用pycoco標準柵格化為掩模,并通過將掩模與自身的二值腐蝕相減生成輪廓。生成EDT,并通過用成對形狀的輪廓索引距離圖來計算路徑積分。該流程對兩個形狀雙向完成,如圖3所示。平均和最大表面距離的分布如圖4所示。

e5dc677c-8791-11ee-939d-92fbcf53809c.png

圖4:平均和最大表面距離的長尾分布

實驗

為了研究重新標注過程對神經網絡預測質量的影響,我們使用檢測和實例分割任務來訓練和評估神經網絡。重新標注過程包括更精確的多邊形、更細化的聚集和更多的標注實例。我們使用Detectron2框架在MS-COCO和Sama-COCO上訓練了一個基于ResNet-50和FPN的Faster R-CNN模型,并使用MS-COCO的標準評估指標對其進行評估,將每個數據集的驗證分割作為地面真實數據。我們使用8個Nvidia V100 GPU,在批量大小為16的情況下,總共進行了270k次迭代的訓練。我們在所有的實驗中保持了相同的超參數。我們使用平均精度均值(mAP)作為評估指標,結果如表1所示。

e5e8032a-8791-11ee-939d-92fbcf53809c.png

表1:檢測和分割結果

我們還評估了學習與驗證集完全匹配的理想表示的意義。在這種情況下,我們將源標注與目標標注進行比較,將源視為模型預測,目標視為地面真實數據。我們交替使用MS-COCO和Sama-COCO作為源和目標,以確保評估的公平性。結果如表2所示。

e5f0e5f8-8791-11ee-939d-92fbcf53809c.png

表2: 當將源數據集視為針對目標數據集的預測時,檢測和分割結果

討論

我們要先說明,沒有任何數據集是完美的,Sama-COCO也不比MS-COCO更好或更差。每個數據集都會不可避免地存在一些偏差,但是不同形式的偏差會對神經網絡的性能產生不同的影響。這可以通過比較不同數據集的基準測試結果來觀察。

當我們比較兩個數據集中的匹配實例時,可以發現MS-COCO數據集中存在一些系統性的偏差。這些偏差有兩種不同的形式。第一種形式的偏差與多邊形的緊密程度有關。我們發現,平均表面距離較低的成對多邊形在輪廓上有輕微的差異。平均來說,Sama-COCO的多邊形比原始標注更貼合對象,但是過分割和欠分割實例的組合可能對真實的預測質量沒有影響,如果噪聲的期望值為零。也有可能,隨著網絡規模的增大,它們會適應這些輪廓中的偏差,從而誤導評估指標。在這種情況下,很難判斷神經網絡學習的表示的真實質量,因為評估它們的唯一方式也包含了偏差。

第二種形式的偏差與遮擋物和標注風格指南的處理和規定有關。Sama-COCO強調多邊形貼近可觀察到的像素,而原始數據集包含繞過遮擋物的多邊形。考慮遮擋物更適合像素級的實例分割任務,而忽略遮擋物更類似于定位任務。在這種隱性的偏差上訓練的神經網絡會以不同的方式學習解決這些任務。因此,任何機器學習從業者都必須了解他們的數據集與他們想要解決的下游任務之間的關聯性,并應該在數據收集階段注意標注標準和指南,以盡量減少頂層問題。合并具有沖突標注風格的數據集可能是不明智的,因為神經網絡的下游行為可能難以預測。

當我們查看檢測和分割任務的評估指標差異時,可以明顯看到網絡從與訓練數據集相同風格的評估中受益,如表1所示。這意味著性能與主觀的質量定義密切相關。如果我們使用額外的樣本來豐富數據集,但是樣本的風格分布發生了變化,那么網絡的性能可能會降低,這與我們的預期相反。這可以通過將一個數據集的驗證標注作為源,另一個數據集的驗證標注作為目標來理論上驗證。即使我們在另一個數據集上是完美的預測者,我們也會受到錯過的實例、邊界變形和細微差異的影響。還值得注意的是,一些最先進的檢測算法的性能優于我們的結果。這很有趣,因為框標注應該與多邊形的變化相對一致。這意味著網絡可能會過擬合訓練數據集中可能無法在另一個數據集中復現的特定信息類型。

結論

從討論中可以看出,數據集中的偏差可能導致一些不期望或意外的結果,這可能是有問題的。在實例分割中,標注方式的選擇會影響模型對遮擋對象的輸出。因此,在構建標注數據集時必須仔細考慮,以確保它們能夠反映真實世界應用中的需求。雖然Sama-COCO并不完全避免所有的標注錯誤,但它確實提供了一組高質量的標注,可以用于更好地探索標簽噪聲領域和對精確多邊形很重要的應用。

編輯:黃飛

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4776

    瀏覽量

    100948
  • 圖像分類
    +關注

    關注

    0

    文章

    90

    瀏覽量

    11943
  • 計算機視覺
    +關注

    關注

    8

    文章

    1699

    瀏覽量

    46050
  • 機器學習
    +關注

    關注

    66

    文章

    8428

    瀏覽量

    132835
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24749

原文標題:ICCV2023 基準測試:MS-COCO數據集的可靠嗎?

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    計算機視覺/深度學習領域常用數據匯總

    on 100,000 peopleCOCO數據由微軟贊助,其對于圖像的標注信息不僅有類別、位置信息,還有對圖像的語義文本描述,COCO數據
    發表于 08-29 10:36

    如何使用eIQ門戶訓練人臉檢測模型?

    我正在嘗試使用 eIQ 門戶訓練人臉檢測模型。我正在嘗試從 tensorflow 數據 (tfds) 導入數據,特別是 coco/201
    發表于 04-06 08:45

    SLX-5MS-MDM數據手冊

    SLX-5MS-MDM數據手冊
    發表于 01-04 11:20 ?0次下載

    SLX-8MS-89數據手冊

    SLX-8MS-89數據手冊
    發表于 01-04 11:19 ?0次下載

    ET-8MS-OEM數據手冊

    ET-8MS-OEM數據手冊
    發表于 01-05 15:24 ?0次下載

    用于動作分類和定位的稀疏標記數據

    ,只有 9146 個樣本)到 ImageNet(2011,包含 120 萬個樣本)這樣的數據。在目標檢測中,盡管收集邊界框信息所需的額外人類標注成本提高了,但也出現了訓練規模逐漸擴展的相似趨勢。Pascal VOC(2007
    發表于 02-28 10:40 ?0次下載

    利用Attention模型為圖像生成字幕

    這款筆記是一種端到端(end-to-end)的樣例。如果你運行它,將會下載 MS-COCO數據,使用Inception V3來預處理和緩存圖像的子集、訓練出編碼-解碼模型,并使用它來在新的圖像上生成字幕。
    的頭像 發表于 07-20 10:19 ?4599次閱讀

    在不使用任何額外數據的情況下,COCO數據上物體檢測結果為50.9 AP的方法

    實驗中,我們發現當只使用 COCO 數據時,從頭開始訓練的模型性能是能夠匹配預訓練模型的性能。我們在 COCO train2017 上訓練模型,并在
    的頭像 發表于 11-24 10:42 ?8455次閱讀
    在不使用任何額外<b class='flag-5'>數據</b>的情況下,<b class='flag-5'>COCO</b><b class='flag-5'>數據</b><b class='flag-5'>集</b>上物體檢測結果為50.9 AP的方法

    微軟刪除 MS Celeb 名人數據,撥開數據隱私的迷霧

    微軟悄悄刪了一個數據,結果大家都知道了
    的頭像 發表于 06-26 17:22 ?2916次閱讀

    「房間里的大象」:讓目標檢測器一臉懵逼

    實驗中采用的圖像均來自 MS-COCO 數據 2017 版的驗證。除非另有說明,我們采用的所有模型均來自 Tensorflow 目標檢測 API [5]。因此,我們的實驗易于復現,
    的頭像 發表于 04-01 14:24 ?1389次閱讀

    HCS138MS 數據

    HCS138MS 數據
    發表于 01-12 18:45 ?0次下載
    HCS138<b class='flag-5'>MS</b> <b class='flag-5'>數據</b>表

    Tandy Coco視頻和音頻輸出(UVD克隆)

    電子發燒友網站提供《Tandy Coco視頻和音頻輸出(UVD克隆).zip》資料免費下載
    發表于 01-29 17:19 ?0次下載
    Tandy <b class='flag-5'>Coco</b>視頻和音頻輸出(UVD克隆)

    HCS32MS 數據

    HCS32MS 數據
    發表于 05-05 18:50 ?0次下載
    HCS32<b class='flag-5'>MS</b> <b class='flag-5'>數據</b>表

    PCB Tandy CoCo EPROM墨盒設計

    電子發燒友網站提供《PCB Tandy CoCo EPROM墨盒設計.zip》資料免費下載
    發表于 06-12 11:52 ?0次下載
    PCB Tandy <b class='flag-5'>CoCo</b> EPROM墨盒設計

    多模態上下文指令調優數據MIMIC-IT

    然而,一個理想的 AI 對話助手應該能夠解決涉及多種模態的任務。這需要獲得一個多樣化和高質量的多模式指令跟隨數據。比如,LLaVAInstruct-150K 數據(也被稱為 LLa
    的頭像 發表于 06-12 16:36 ?764次閱讀
    多模態上下文指令調優<b class='flag-5'>數據</b><b class='flag-5'>集</b>MIMIC-IT
    主站蜘蛛池模板: 性做久久久久久免费观看| 操综合| 三级黄色免费| 美女被免费网站视频在线| xx毛片| 国产精品日本亚洲777| 碰免费人人人视频| 天堂国产| 亚洲国产成人精品青青草原100| 日本一区二区视频| 高清xxx| 欧美三级网址| 99久久国产免费福利| 久久午夜网| 视频在线观看网站| 201天天爱天天做| аⅴ资源天堂8在线| 欧美精品xxxⅹ欧美| 日本免费www| 亚洲va久久久噜噜噜久久狠狠 | 久久婷婷影院| 美女被猛男躁免费视频网站| 日韩综合色| 精品三级在线| 国产一级aaa全黄毛片| 久久一卡二卡| 欧美日韩亚洲国产一区二区综合| 色黄网站成年女人色毛片| 特级aaa毛片| 婷婷色九月| 天堂在线视频观看| 免费日韩毛片| 韩日中文字幕| 成年色黄大色黄大片 视频| 天天碰视频| 深夜久久| 末发育娇小性色xxxxx视频| 米奇精品一区二区三区| 国产黄色网页| 亚洲成a人片在线观看中| 免费一级大片|