在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深入了解目標檢測深度學習算法的技術細節

穎脈Imgtec ? 2024-04-30 08:27 ? 次閱讀

來源:智能衛星研究院、機器視覺


本文將討論目標檢測的基本方法(窮盡搜索、R-CNN、Fast R-CNN和Faster R-CNN),并嘗試理解每個模型的技術細節。為了讓經驗水平各不相同的讀者都能夠理解,文章不會使用任何公式來進行講解。


開啟目標檢測的第一步

這是只鳥還是架飛機?—— 圖像分類

目標檢測(或識別)基于圖像分類。圖像分類是通過上圖所示的像素網格,將圖像分類為一個類類別。目標識別是對圖像中的對象進行識別和分類的過程。

為了使模型能夠學習圖像中對象的類別和位置,目標必須是一個五維標簽(類別,x, y,寬度,長度)。


對象檢測方法的內部工作

一種費機器(奢侈計算)的方法:窮舉搜索

最簡單的目標檢測方法是對圖像的各個子部分使用圖像分類器,讓我們來逐個考慮:

首先,選擇想要執行目標檢測的圖像。

然后將該圖像分割成不同的部分,或者說“區域”。

把每個區域看作一個單獨的圖像。

使用經典的圖像分類器對每幅圖像進行分類。

最后,將檢測到目標的區域的所有圖像與預測標簽結合。

這種方法存在一個問題,對象可能具有的不同縱橫比和空間位置,這可能導致對大量區域進行不必要的昂貴計算。它在計算時間方面存在太大的瓶頸,從而無法用于解決實際問題。


區域提議方法和選擇性搜索

最近有種方法是將問題分解為兩個任務:首先檢測感興趣的區域,然后進行圖像分類以確定每個對象的類別。

第一步通常是使用區域提議方法。這些方法輸出可能包含感興趣對象的邊界框。如果在一個區域提議中正確地檢測到目標對象,那么分類器也應該檢測到了它。這就是為什么對這些方法而言,快速和高回應率非常重要。重要的是這兩個方法不僅要是快速的,還要有著很高的回應率。

這兩個方法還使用了一種聰明的體系結構,其中目標檢測和分類任務的圖像預處理部分相同,從而使其比簡單地連接兩個算法更快。選擇性搜索是最常用的區域提議方法之一。

它的第一步是應用圖像分割。

從圖像分割輸出中,選擇性搜索將依次進行:

從分割部分創建邊界框,然后將其添加到區域建議列表中。

根據四種相似度:顏色,紋理,大小和形狀,將幾個相鄰的小片段合并為較大的片段。

返回到第一步,直到該部分覆蓋了整個圖像。

層次分組在了解了選擇性搜索的工作原理后,接著看一些使用該法最常見的目標檢測算法。


第一目標檢測算法:R-CNN

Ross Girshick等人提出了區域CNN(R-CNN),允許選擇性搜索與CNN結合使用。實際上,對于每個區域方案(如本文中的2000),一個正向傳播會通過CNN生成一個輸出向量。這個向量將被輸入到one-vs-all分類器中。每個類別一個分類器,例如一個分類器設置為如果圖像是狗,則標簽=1,否則為0,另一個分類器設置為如果圖像是貓,標簽= 1,否則為0,以此類推。R-CNN使用的分類算法是SVM。

但如何將該地區標記為提議呢?當然,如果該區域完全匹配真值,可以將其標為1,如果給定的對象根本不存在,這個對象可以被標為0。

如果圖像中存在對象的一部分怎么辦?應該把這個區域標記為0還是1?為了確保訓練分類器的區域是在預測一幅圖像時可以實際獲得的區域(不僅僅是那些完美匹配的區域),來看看選擇性搜索和真值預測的框的并集(IoU)。

IoU是一個度量,用預測的框和真值框的重疊面積除以它們的并集面積來表示。它獎勵成功的像素檢測,懲罰誤報,以防止算法選擇整個圖像。

6c4b31b0-0688-11ef-9118-92fbcf53809c.jpg

回到R-CNN方法,如果IoU低于給定的閾值(0.3),那么相對應的標簽將是0。

在對所有區域建議運行分類器后,R-CNN提出使用一個特定類的邊界框(bbox)回歸量來優化邊界框。bbox回歸量可以微調邊界框的邊界位置。例如,如果選擇性搜索已經檢測到一只狗,但只選擇了它的一半,而意識到狗有四條腿的bbox回歸量,將確保狗的整個身體被選中。

也多虧了新的bbox回歸預測,我們可以使用非最大抑制(NMS)舍棄重疊建議。這里的想法是識別并刪除相同對象的重疊框。NMS根據分類分數對每個類的建議進行排序,并計算具有最高概率分數的預測框與所有其他預測框(于同一類)的IoU。如果IoU高于給定的閾值(例如0.5),它就會放棄這些建議。然后對下一個最佳概率重復這一步。

6ca34076-0688-11ef-9118-92fbcf53809c.jpg

綜上所述,R-CNN遵循以下步驟:

根據選擇性搜索創建區域建議(即,對圖像中可能包含對象的部分進行預測)。

將這些地區帶入到pre-trained模型,然后運用支持向量機分類子圖像。通過預先訓練的模型運行這些區域,然后通過SVM(支持向量機)對子圖像進行分類。

通過邊界框預測來運行正向預測,從而獲得更好的邊界框精度。

在預測過程中使用NMS去除重疊的建議。

6cc1142a-0688-11ef-9118-92fbcf53809c.jpg

R-CNN 網絡不過,R-CNN也有一些問題:

  • 該方法仍然需要分類所有地區建議,可能導致達到計算瓶頸——不可能將其用于實時用例。
  • 在選擇性搜索階段不會學習,可能導致針對某些類型的數據集會提出糟糕的區域建議。

小小的改進:Fast R-CNN(快速R-CNN)

Fast R-CNN,顧名思義,比R-CNN快。它基于R-CNN,但有兩點不同:

不再向CNN提供對每個地區的提議,通過對CNN提供整幅圖像來生成一個卷積特性映射(使用一個過濾器將矢量的像素轉換成另一個矢量,能得到一個卷積特性映射)。接下來,建議區域被識別與選擇性搜索,然后利用區域興趣池(RoI pooling)層將它們重塑成固定大小,從而能夠作為全連接層的輸入。

Fast-RCNN使用更快,精度更高的softmax層而不是SVM來進行區域建議分類。

以下是該網絡的架構:

如下所示,Fast R-CNN在訓練和測試方面比R-CNN要快得多。但是,受選擇性搜索方法的影響,該方法仍然存在瓶頸。

6cf694c4-0688-11ef-9118-92fbcf53809c.jpg


Faster R-CNN(更快的R-CNN)

雖然Fast R-CNN比R-CNN快得多,但其瓶頸仍然是選擇性搜索,因為它非常耗時。因此,任少卿等人設計了更快R-CNN來解決這個問題,并提出用一個非常小的卷積網絡區域提議網Region Proposal network(RPN)代替選擇性搜索來尋找感興趣的區域。

簡而言之,RPN是一個直接尋找區域建議的小型網絡。一種簡單的方法是創建一個深度學習模型,輸出x_min、y_min、x_max和x_max來獲得一個區域建議的邊界框(如果我們想要2000個區域,那么就需要8000個輸出)。然而,有兩個基本問題:

圖像的大小和比例可能各不相同,所以很難創建一個能正確地預測原始坐標的模型。

在預測中有一些坐標排序約束(x_min < x_max, y_min < y_max)。

為了克服這個問題,我們將使用錨:錨是在圖像上預設好不同比例和比例的框。(錨點是預定義的框,它們具有不同的比例,并在整個圖像上縮放。)

例如,對于給定的中心點,通常從三組大小(例如,64px, 128px, 256px)和三種不同的寬高比(1/1,1/2,2/1)開始。在本例中,對于圖像的給定像素(方框的中心),最終會有9個不同的方框。

6d2cd32c-0688-11ef-9118-92fbcf53809c.jpg錨-比例和縮放

那么一張圖片總共有多少個錨點呢?

我們不打算在原始圖像上創建錨點,而是在最后一個卷積層的輸出特征圖上創建錨點,這一點非常重要。例如,對于一個1000*600的輸入圖像,由于每個像素有一個錨點,所以有1000 *600*9=5400000個錨點,這是錯誤的。確實,因為要在特征圖譜上創建它們,所以需要考慮子采樣比率,即由于卷積層的大步移動,輸入和輸出維度之間的因子減少。

在示例中,如果我們將這個比率設為16(像在VGG16中那樣),那么特征圖譜的每個空間位置將有9個錨,因此“只有”大約20000個錨(5400000/ 16^2)。這意味著輸出特征中的兩個連續像素對應于輸入圖像中相距16像素的兩個點。注意,這個下降采樣比率是Faster R-CNN的一個可調參數

錨點中心現在剩下的問題是如何從那20000個錨到2000個區域建議(與之前的區域建議數量相同),這是RPN的目標。


如何訓練區域建議網絡

要實現這一點,需要RPN告知框包含的是對象還是背景,以及對象的精確坐標。輸出預測有作為背景的概率,作為前景的概率,以及增量Dx, Dy, Dw, Dh,它們是錨點和最終建議之間的差異。

1. 第一,我們將刪除跨邊界錨(即因為圖像邊界而被減去的錨點),這給我們留下了約6000張圖像。

2. 如果存在以下兩個條件中的任一,我們需要標簽錨為正:

在所有錨中,該錨具有最高的IoU,并帶有真值框。

錨點至少有0.7的IoU,并帶有真值框。

3. 如果錨的IoU在所有真值框中小于0.3,需要標簽其為負。

4. 舍棄所有剩下的錨。

5. 訓練二進制分類和邊界框回歸調整。

最后,關于實施的幾點說明:

希望正錨和負錨的數量在小批處理中能夠平衡。

因為想盡量減少損失而使用了多任務損失,這是有意義的——損失有錯誤預測前景或背景的錯誤,以及方框的準確性的錯誤。

使用預先訓練好的模型中的權值來初始化卷積層。

如何使用區域建議網絡

所有錨(20000)計入后得到新的邊界框和成為所有邊界框的前景(即成為對象)的概率。

使用non-maximum抑制。

建議選擇:最后,僅保留按分數排序的前N個建議(當N=2000,回到2000個區域建議)。

像之前的方法一樣,最終獲得了2000個方案。盡管看起來更復雜,這個預測步驟比以前的方法更快更準確。

下一步是使用RPN代替選擇性搜索,創建一個與Fast R-CNN相似的模型(即RoI pooling和一個分類器+bbox回歸器)。然而,不像之前那樣,把這2000個建議進行裁剪,然后通過一個預先訓練好的基礎網絡進行傳遞。而是重用現有的卷積特征圖。實際上,使用RPN作為提案生成器的一個好處是在RPN和主檢測器網絡之間共享權值和CNN。

使用預先訓練好的網絡對RPN進行訓練,然后進行微調。

使用預先訓練好的網絡對檢測器網絡進行訓練,然后進行微調。使用來自RPN的建議區域。

使用來自第二個模型的權重對RPN進行初始化,然后進行微調——這將是最終的RPN模型)。

最后,對檢測器網絡進行微調(RPN權值固定)。CNN的特色圖將在兩個網絡之間共享,請參見下圖。

6d68882c-0688-11ef-9118-92fbcf53809c.jpgFaster R-CNN網絡

綜上所述,Faster R-CNN比之前的方法更準確,比Fast-R-CNN快10倍左右,這是一個很大的進步,也是實時評分的開始。

6d85a2e0-0688-11ef-9118-92fbcf53809c.jpg

即便如此,區域建議檢測模型對于嵌入式系統來說還是不夠,因為這些模型太笨重,而且對于大多數實時評分案例來說速度也不夠快——最后一例是大約每秒檢測5張圖像。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 圖像分類
    +關注

    關注

    0

    文章

    90

    瀏覽量

    11918
  • 目標檢測
    +關注

    關注

    0

    文章

    209

    瀏覽量

    15611
  • 深度學習
    +關注

    關注

    73

    文章

    5503

    瀏覽量

    121162
收藏 人收藏

    評論

    相關推薦

    專家開講:深入了解電池技術 ──Part 1

    。筆者不會一一詳細介紹所有的電池技術,只選擇一些常見或是值得認識的;而在接下來的專欄里,筆者將開始介紹電池分類、常見規格以及專業術語,如果你有特別想知道的電池技術,歡迎留言!擴展閱讀:專家開講:深入了解
    發表于 08-18 09:33

    專家開講:深入了解電池技術──Part 3

    資深工程師 Ivan Cowie 的「深入了解電池技術」專欄Part 3來啰!這次要介紹的是鉛酸電池(lead-acidbatteries)技術。鉛酸電池是在1859年由法國物理學家Gaston
    發表于 08-18 09:37

    【HarmonyOS HiSpark AI Camera】基于深度學習目標檢測系統設計

    項目名稱:基于深度學習目標檢測系統設計試用計劃:嘗試在硬件平臺實現對Yolo卷積神經網絡的加速運算,期望提出的方法能夠使目標
    發表于 09-25 10:11

    如何使用深度學習進行視頻行人目標檢測

    近年來,隨著深度學習在計算機視覺領域的廣泛應用,基于深度學習的視頻運動目標檢測受到廣大學者的青睞
    發表于 11-19 16:01 ?22次下載
    如何使用<b class='flag-5'>深度</b><b class='flag-5'>學習</b>進行視頻行人<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>

    如何深入了解目標檢測,掌握模型框架的基本操作?

    目標檢測這一基本任務仍然是非常具有挑戰性的課題,存在很大的提升潛力和空間。從RCNN到Fast RCNN,再到Faster RCNN,一直都有效率上的提升,那么如何深入了解目標
    的頭像 發表于 12-28 11:46 ?1800次閱讀

    基于深度學習目標檢測算法

    整體框架 目標檢測算法主要包括:【兩階段】目標檢測算法、【多階段】目標檢測算法、【單階段】
    的頭像 發表于 04-30 10:22 ?1.1w次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的<b class='flag-5'>目標</b><b class='flag-5'>檢測算法</b>

    迅速了解目標檢測的基本方法并嘗試理解每個模型的技術細節

    本文將討論目標檢測的基本方法(窮盡搜索、R-CNN、Fast R-CNN和Faster R-CNN),并嘗試理解每個模型的技術細節。為了讓經驗水平各不相同的讀者都能夠理解,文章不會使用任何公式來進行
    的頭像 發表于 08-26 15:08 ?3097次閱讀

    基于深度學習目標檢測研究綜述

    的研究背景、意義及難點,接著對基于深度學習目標檢測算法的兩大類進行綜述,即基于候選區域和基于回歸算法.對于第一類
    發表于 01-06 09:14 ?2185次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>研究綜述

    深度學習目標檢測中的應用

    R-CNN 算法在 2014 年提出,可以說是歷史性的算法,將深度學習應用于目標檢測領域,相較于
    的頭像 發表于 10-31 10:08 ?1817次閱讀

    深入了解目標檢測深度學習算法技術細節

    本文將討論目標檢測的基本方法(窮盡搜索、R-CNN、Fast R-CNN和Faster R-CNN),并嘗試理解每個模型的技術細節。為了讓經驗水平各不相同的讀者都能夠理解,文章不會使用任何公式來進行講解。
    發表于 01-05 16:27 ?448次閱讀

    簡述深度學習的基準目標檢測及其衍生算法

    基于深度學習目標檢測方法根據有無區域提案階段劃分為區域提案檢測模型和單階段檢測模型
    的頭像 發表于 02-27 15:31 ?1326次閱讀
    簡述<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的基準<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>及其衍生<b class='flag-5'>算法</b>

    基于強化學習目標檢測算法案例

    摘要:基于強化學習目標檢測算法檢測過程中通常采用預定義搜索行為,其產生的候選區域形狀和尺寸變化單一,導致目標
    發表于 07-19 14:35 ?0次下載

    深入了解 GaN 技術

    深入了解 GaN 技術
    的頭像 發表于 12-06 17:28 ?6161次閱讀
    <b class='flag-5'>深入了解</b> GaN <b class='flag-5'>技術</b>

    基于深度學習的小目標檢測

    在計算機視覺領域,目標檢測一直是研究的熱點和難點之一。特別是在小目標檢測方面,由于小目標在圖像中所占比例小、特征不明顯,使得
    的頭像 發表于 07-04 17:25 ?886次閱讀

    深入解析Zephyr RTOS的技術細節

    ,Zephyr OS在嵌入式開發中的知名度逐漸增加,新的微控制器和開發板都支持Zephyr。本文將深入討論Zephyr RTOS的技術細節
    的頭像 發表于 10-22 16:47 ?533次閱讀
    <b class='flag-5'>深入</b>解析Zephyr RTOS的<b class='flag-5'>技術細節</b>
    主站蜘蛛池模板: 日本不卡一| 永久毛片| 夜夜嗷| 国产高清在线| аⅴ天堂 在线| 五月天婷婷视频在线观看| 欧美午夜性春猛交bbb| 亚洲二区视频| 人操人摸| 国产特级| 国产高清一级视频在线观看| 欧美成人在线网站| 天天做人人爱夜夜爽2020| 国产拍拍拍免费视频网站| 国产综合精品久久久久成人影| 扒开双腿猛进湿润18p| 四虎精品永久在线| 热久久综合这里只有精品电影| 亚洲理论片| 亚洲你我色| 六月婷婷久久| 理论在线看| 一级特黄女人生活片| 国产在线97色永久免费视频| 天天躁狠狠躁夜夜躁| 最新在线网址| 91视频啪啪| 国产手机免费视频| 宅男666在线永久免费观看| 四虎影视地址| 午夜精品久久久久久久久| 视频在线观看一区二区| 免费看逼网站| 午夜一级福利| 黄色网页在线播放| 欧美一级做一级做片性十三| 99久久综合精品免费| 福利视频自拍| 色播图片| 2018天天拍拍拍免费视频| 亚洲一区二区三区网站|