在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文讀懂自動(dòng)駕駛視覺感知技術(shù)

智能汽車電子與軟件 ? 來(lái)源:全球汽貿(mào)網(wǎng) ? 2023-11-13 17:12 ? 次閱讀

環(huán)境感知 是自動(dòng)駕駛的第一環(huán),是車輛和環(huán)境交互的紐帶。一個(gè)自動(dòng)駕駛系統(tǒng)整體表現(xiàn)的好壞,很大程度上都取決于感知系統(tǒng)的好壞。目前,環(huán)境感知技術(shù)有兩大主流技術(shù)路線:

①以視覺為主導(dǎo)的多傳感器融合方案,典型代表是特斯拉

②以激光雷達(dá)為主導(dǎo),其他傳感器為輔助的技術(shù)方案,典型代表如谷歌、百度等。

我們將圍繞著環(huán)境感知中關(guān)鍵的視覺感知算法進(jìn)行介紹,其任務(wù)涵蓋范圍及其所屬技術(shù)領(lǐng)域如下圖所示。

10d241aa-8200-11ee-939d-92fbcf53809c.jpg

我們先從廣泛應(yīng)用于自動(dòng)駕駛的幾個(gè)任務(wù)出發(fā)介紹2D視覺感知算法,包括基于圖像或視頻的2D目標(biāo)檢測(cè)和跟蹤,以及2D場(chǎng)景的語(yǔ)義分割。近些年,深度學(xué)習(xí)滲透到視覺感知的各個(gè)領(lǐng)域,取得不錯(cuò)的成績(jī),因此,我們梳理了一些經(jīng)典的深度學(xué)習(xí)算法。

目標(biāo)檢測(cè)

1.1 兩階段檢測(cè)

兩階段指的是實(shí)現(xiàn)檢測(cè)的方式有先后兩個(gè)過程,一是提取物體區(qū)域;二是對(duì)區(qū)域進(jìn)行CNN分類識(shí)別;因此,“兩階段”又稱基于候選區(qū)域(Region proposal)的目標(biāo)檢測(cè)。代表性算法有R-CNN系列(R-CNN、Fast R-CNN、Faster R-CNN)等。

Faster R-CNN是第一個(gè)端到端的檢測(cè)網(wǎng)絡(luò)。第一階段利用一個(gè)區(qū)域候選網(wǎng)絡(luò)(RPN)在特征圖的基礎(chǔ)上生成候選框,使用ROIPooling對(duì)齊候選特征的大??;第二階段用全連接層做細(xì)化分類和回歸。

這里提出了Anchor的思想,減少運(yùn)算難度,提高速度。特征圖的每個(gè)位置會(huì)生成不同大小、長(zhǎng)寬比的Anchor,用來(lái)作為物體框回歸的參考。Anchor的引入使得回歸任務(wù)只用處理相對(duì)較小的變化,因此網(wǎng)絡(luò)的學(xué)習(xí)會(huì)更加容易。下圖是Faster R-CNN的網(wǎng)絡(luò)結(jié)構(gòu)圖。

10e93d74-8200-11ee-939d-92fbcf53809c.png

CascadeRCNN第一階段和Faster R-CNN完全一樣,第二階段使用多個(gè)RoiHead層進(jìn)行級(jí)聯(lián)。后續(xù)的一些工作多是圍繞著上述網(wǎng)絡(luò)的一些改進(jìn)或者前人工作的雜燴,罕有突破性提升。

1.2 單階段檢測(cè)

相較于兩階段算法,單階段算法只需一次提取特征即可實(shí)現(xiàn)目標(biāo)檢測(cè),其速度算法更快,一般精度稍微低一些。這類算法的開山之作是YOLO,隨后SSD、Retinanet依次對(duì)其進(jìn)行了改進(jìn),提出YOLO的團(tuán)隊(duì)將這些有助于提升性能的trick融入到Y(jié)OLO算法中,后續(xù)又提出了4個(gè)改進(jìn)版本YOLOv2~YOLOv5。

盡管預(yù)測(cè)準(zhǔn)確率不如雙階段目標(biāo)檢測(cè)算法,由于較快的運(yùn)行速度,YOLO成為了工業(yè)界的主流。下圖是YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)圖。

10f63858-8200-11ee-939d-92fbcf53809c.jpg

1.3 Anchor-free檢測(cè)(無(wú)Anchor檢測(cè))

這類方法一般是將物體表示為一些關(guān)鍵點(diǎn),CNN被用來(lái)回歸這些關(guān)鍵點(diǎn)的位置。關(guān)鍵點(diǎn)可以是物體框的中心點(diǎn)(CenterNet)、角點(diǎn)(CornerNet)或者代表點(diǎn)(RepPoints)。CenterNet將目標(biāo)檢測(cè)問題轉(zhuǎn)換成中心點(diǎn)預(yù)測(cè)問題,即用目標(biāo)的中心點(diǎn)來(lái)表示該目標(biāo),并通過預(yù)測(cè)目標(biāo)中心點(diǎn)的偏移量與寬高來(lái)獲取目標(biāo)的矩形框。

Heatmap表示分類信息,每一個(gè)類別將會(huì)產(chǎn)生一個(gè)單獨(dú)的Heatmap圖。對(duì)于每張Heatmap圖而言,當(dāng)某個(gè)坐標(biāo)處包含目標(biāo)的中心點(diǎn)時(shí),則會(huì)在該目標(biāo)處產(chǎn)生一個(gè)關(guān)鍵點(diǎn),我們利用高斯圓來(lái)表示整個(gè)關(guān)鍵點(diǎn),下圖展示了具體的細(xì)節(jié)。

1101ab2a-8200-11ee-939d-92fbcf53809c.png

RepPoints提出將物體表示為一個(gè)代表性點(diǎn)集,并且通過可變形卷積來(lái)適應(yīng)物體的形狀變化。點(diǎn)集最后被轉(zhuǎn)換為物體框,用于計(jì)算與手工標(biāo)注的差異。

1.4 Transformer檢測(cè)

無(wú)論是單階段還是兩階段目標(biāo)檢測(cè),無(wú)論采用Anchor與否,都沒有很好地利用到注意力機(jī)制。針對(duì)這種情況,Relation Net和DETR利用Transformer將注意力機(jī)制引入到目標(biāo)檢測(cè)領(lǐng)域。Relation Net利用Transformer對(duì)不同目標(biāo)之間的關(guān)系建模,在特征之中融入了關(guān)系信息,實(shí)現(xiàn)了特征增強(qiáng)。

DETR則是基于Transformer提出了全新的目標(biāo)檢測(cè)架構(gòu),開啟了目標(biāo)檢測(cè)的新時(shí)代,下圖是DETR的算法流程,先采用CNN提取圖像特征,然后用Transformer對(duì)全局的空間關(guān)系進(jìn)行建模,最后得到的輸出通過二分圖匹配算法與手工標(biāo)注進(jìn)行匹配。

1121fe52-8200-11ee-939d-92fbcf53809c.jpg

下表中的準(zhǔn)確度采用MSCOCO數(shù)據(jù)庫(kù)上的mAP作為指標(biāo),而速度則采用FPS來(lái)衡量,對(duì)比了上述部分算法,由于網(wǎng)絡(luò)的結(jié)構(gòu)設(shè)計(jì)中存在很多不同的選擇(比如不同的輸入大小,不同的Backbone網(wǎng)絡(luò)等),各個(gè)算法的實(shí)現(xiàn)硬件平臺(tái)也不同,因此準(zhǔn)確率和速度并不完全可比,這里只列出來(lái)一個(gè)粗略的結(jié)果供大家參考。

11298ffa-8200-11ee-939d-92fbcf53809c.jpg

目標(biāo)跟蹤

在自動(dòng)駕駛應(yīng)用中,輸入的是視頻數(shù)據(jù),需要關(guān)注的目標(biāo)有很多,比如車輛,行人,自行車等等。因此,這是一個(gè)典型的多物體跟蹤任務(wù)(MOT)。對(duì)于MOT任務(wù)來(lái)說(shuō),目前最流行的框架是Tracking-by-Detection,其流程如下:

①由目標(biāo)檢測(cè)器在單幀圖像上得到目標(biāo)框輸出;

②提取每個(gè)檢測(cè)目標(biāo)的特征,通常包括視覺特征和運(yùn)動(dòng)特征;

③根據(jù)特征計(jì)算來(lái)自相鄰幀的目標(biāo)檢測(cè)之間的相似度,以判斷其來(lái)自同一個(gè)目標(biāo)的概率;

④將相鄰幀的目標(biāo)檢測(cè)進(jìn)行匹配,給來(lái)自同一個(gè)目標(biāo)的物體分配相同的ID。

深度學(xué)習(xí)在以上這四個(gè)步驟中都有應(yīng)用,但是以前兩個(gè)步驟為主。在步驟1中,深度學(xué)習(xí)的應(yīng)用主要在于提供高質(zhì)量的目標(biāo)檢測(cè)器,因此一般都選擇準(zhǔn)確率較高的方法。SORT是基于Faster R-CNN的目標(biāo)檢測(cè)方法,并利用卡爾曼濾波算法+匈牙利算法,極大提高了多目標(biāo)跟蹤的速度,同時(shí)達(dá)到了SOTA的準(zhǔn)確率,也是在實(shí)際應(yīng)用中使用較為廣泛的一個(gè)算法。

在步驟2中,深度學(xué)習(xí)的應(yīng)用主要在于利用CNN提取物體的視覺特征。DeepSORT最大的特點(diǎn)是加入外觀信息,借用了ReID模塊來(lái)提取深度學(xué)習(xí)特征,減少了ID switch的次數(shù)。整體流程圖如下:

114683d0-8200-11ee-939d-92fbcf53809c.jpg

此外,還有一種框架Simultaneous Detection and Tracking。如代表性的CenterTrack,它起源于之前介紹過的單階段無(wú)Anchor的檢測(cè)算法CenterNet。與CenterNet相比,CenterTrack增加了前一幀的RGB圖像和物體中心Heatmap作為額外輸入,增加了一個(gè)Offset分支用來(lái)進(jìn)行前后幀的Association。與多個(gè)階段的Tracking-by-Detection相比,CenterTrack將檢測(cè)和匹配階段用一個(gè)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn),提高了MOT的速度。

語(yǔ)義分割

在自動(dòng)駕駛的車道線檢測(cè)和可行駛區(qū)域檢測(cè)任務(wù)中均用到了語(yǔ)義分割。代表性的算法有FCN、U-Net、DeepLab系列等。DeepLab使用擴(kuò)張卷積和ASPP(Atrous Spatial Pyramid Pooling)結(jié)構(gòu),對(duì)輸入圖像進(jìn)行多尺度處理。最后采用傳統(tǒng)語(yǔ)義分割方法中常用的條件隨機(jī)場(chǎng)(CRF)來(lái)優(yōu)化分割結(jié)果。下圖是DeepLab v3+的網(wǎng)絡(luò)結(jié)構(gòu)。

1166ff8e-8200-11ee-939d-92fbcf53809c.jpg

近些年的STDC算法采用了類似FCN算法的結(jié)構(gòu),去掉了U-Net算法復(fù)雜的decoder結(jié)構(gòu)。但同時(shí)在網(wǎng)絡(luò)下采樣的過程中,利用ARM模塊不斷地去融合來(lái)自不同層特征圖的信息,因此也避免了FCN算法只考慮單個(gè)像素關(guān)系的缺點(diǎn)。

可以說(shuō),STDC算法很好的做到了速度與精度的平衡,其可以滿足自動(dòng)駕駛系統(tǒng)實(shí)時(shí)性的要求。算法流程如下圖所示。

117bfae2-8200-11ee-939d-92fbcf53809c.jpg

單目3D感知

接來(lái)下我們將介紹自動(dòng)駕駛中必不可少的3D場(chǎng)景感知。因?yàn)樯疃刃畔ⅰ⒛繕?biāo)三維尺寸等在2D感知中是無(wú)法獲得的,而這些信息才是自動(dòng)駕駛系統(tǒng)對(duì)周圍環(huán)境作出正確判斷的關(guān)鍵。想得到3D信息,最直接的方法就是采用激光雷達(dá)(LiDAR)。

但是,LiDAR也有其缺點(diǎn),比如成本較高,車規(guī)級(jí)產(chǎn)品量產(chǎn)困難,受天氣影響較大等等。因此,單純基于攝像頭的3D感知仍然是一個(gè)非常有意義和價(jià)值的研究方向,接下來(lái)我們梳理了一些基于單目和雙目的3D感知算法。

基于單攝像頭圖像來(lái)感知3D環(huán)境是一個(gè)不適定問題,但是可以通過幾何假設(shè)(比如像素位于地面)、先驗(yàn)知識(shí)或者一些額外信息(比如深度估計(jì))來(lái)輔助解決。本次將從實(shí)現(xiàn)自動(dòng)駕駛的兩個(gè)基本任務(wù)(3D目標(biāo)檢測(cè)和深度估計(jì))出發(fā)進(jìn)行相關(guān)算法介紹。

4.1 3D目標(biāo)檢測(cè)

119d2b04-8200-11ee-939d-92fbcf53809c.jpg

表示轉(zhuǎn)換(偽激光雷達(dá)):視覺傳感器對(duì)周圍其他車輛等的檢測(cè)通常會(huì)遇到遮擋、無(wú)法度量距離等問題,可以將透視圖轉(zhuǎn)換成鳥瞰圖表示。這里介紹兩種變換方法。一是逆透視圖映射(IPM),它假定所有像素都在地面上,并且相機(jī)外參準(zhǔn)確,此時(shí)可以采用Homography變換將圖像轉(zhuǎn)換到BEV,后續(xù)再采用基于YOLO網(wǎng)絡(luò)的方法檢測(cè)目標(biāo)的接地框。

二是正交特征變換(OFT),利用ResNet-18提取透視圖圖像特征。然后,通過在投影的體素區(qū)域上累積基于圖像的特征來(lái)生成基于體素的特征。然后將體素特征沿垂直方向折疊以產(chǎn)生正交的地平面特征。

最后,用另一個(gè)類似于ResNet的自上而下的網(wǎng)絡(luò)進(jìn)行3D目標(biāo)檢測(cè)。這些方法只適應(yīng)于車輛、行人這類貼地的目標(biāo)。對(duì)于交通標(biāo)志牌、紅綠燈這類非貼地目標(biāo)來(lái)說(shuō),可以通過深度估計(jì)來(lái)生成偽點(diǎn)云,進(jìn)而進(jìn)行3D檢測(cè)。Pseudo-LiDAR先利用深度估計(jì)的結(jié)果生成點(diǎn)云,再直接應(yīng)用基于激光雷達(dá)的3D目標(biāo)檢測(cè)器生成3D目標(biāo)框,其算法流程如下圖所示。

11aaaa54-8200-11ee-939d-92fbcf53809c.jpg

關(guān)鍵點(diǎn)和3D模型:待檢測(cè)目標(biāo)如車輛、行人等其大小和形狀相對(duì)固定且已知,這些可以被用作估計(jì)目標(biāo)3D信息的先驗(yàn)知識(shí)。DeepMANTA是這個(gè)方向的開創(chuàng)性工作之一。

首先,采用一些目標(biāo)檢測(cè)算法比如Faster RNN來(lái)得到2D目標(biāo)框,同時(shí)也檢測(cè)目標(biāo)的關(guān)鍵點(diǎn)。然后,將這些2D目標(biāo)框和關(guān)鍵點(diǎn)與數(shù)據(jù)庫(kù)中的多種3D車輛CAD模型分別進(jìn)行匹配,選擇相似度最高的模型作為3D目標(biāo)檢測(cè)的輸出。MonoGRNet則提出將單目3D目標(biāo)檢測(cè)分成四個(gè)步驟:2D目標(biāo)檢測(cè)、實(shí)例級(jí)深度估計(jì)、投影3D中心估計(jì)、局部角點(diǎn)回歸,算法流程如下圖所示。這類方法都假設(shè)目標(biāo)有相對(duì)固定的形狀模型,對(duì)于車輛來(lái)說(shuō)一般是滿足的,對(duì)于行人來(lái)說(shuō)就相對(duì)困難一些。

11b5fba2-8200-11ee-939d-92fbcf53809c.jpg

2D/3D幾何約束:對(duì)3D中心和粗略實(shí)例深度的投影進(jìn)行回歸,并使用這二者估算粗略的3D位置。開創(chuàng)性的工作是Deep3DBox,首先用2D目標(biāo)框內(nèi)的圖像特征來(lái)估計(jì)目標(biāo)大小和朝向。

然后,通過一個(gè)2D/3D的幾何約束來(lái)求解中心點(diǎn)3D位置。這個(gè)約束就是3D目標(biāo)框在圖像上的投影是被2D目標(biāo)框緊密包圍的,即2D目標(biāo)框的每條邊上都至少能找到一個(gè)3D目標(biāo)框的角點(diǎn)。通過之前已經(jīng)預(yù)測(cè)的大小和朝向,再配合上相機(jī)的標(biāo)定參數(shù),可以求解出中心點(diǎn)的3D位置。

2D和3D目標(biāo)框之間的幾何約束如下圖所示。Shift R-CNN在Deep3DBox的基礎(chǔ)上將之前得到的2D目標(biāo)框、3D目標(biāo)框以及相機(jī)參數(shù)合并起來(lái)作為輸入,采用全連接網(wǎng)絡(luò)預(yù)測(cè)更為精確的3D位置。

11c41494-8200-11ee-939d-92fbcf53809c.jpg

直接生成3DBox:這類方法從稠密的3D目標(biāo)候選框出發(fā),通過2D圖像上的特征對(duì)所有的候選框進(jìn)行評(píng)分,評(píng)分高的候選框即是最終的輸出。有些類似目標(biāo)檢測(cè)中傳統(tǒng)的滑動(dòng)窗口方法。代表性的Mono3D算法首先基于目標(biāo)先驗(yàn)位置(z坐標(biāo)位于地面)和大小來(lái)生成稠密的3D候選框。

這些3D候選框投影到圖像坐標(biāo)后,通過綜合2D圖像上的特征對(duì)其進(jìn)行評(píng)分,再通過CNN再進(jìn)行二輪評(píng)分得到最終的3D目標(biāo)框。M3D-RPN是一種基于Anchor的方法,定義了2D和3D的Anchor。2D Anchor通過圖像上稠密采樣得到,3D Anchor是通過訓(xùn)練集數(shù)據(jù)的先驗(yàn)知識(shí)(如目標(biāo)實(shí)際大小的均值)確定的。

M3D-RPN還同時(shí)采用了標(biāo)準(zhǔn)卷積和Depth-Aware卷積。前者具有空間不變性,后者將圖像的行(Y坐標(biāo))分成多個(gè)組,每個(gè)組對(duì)應(yīng)不同的場(chǎng)景深度,采用不同的卷積核來(lái)處理。

上述這些稠密采樣方法計(jì)算量非常大。SS3D則采用更為高效的單階段檢測(cè),包括用于輸出圖像中每個(gè)相關(guān)目標(biāo)的冗余表示以及相應(yīng)的不確定性估計(jì)的CNN,以及3D邊框優(yōu)化器。FCOS3D也是一個(gè)單階段的檢測(cè)方法,回歸目標(biāo)額外增加了一個(gè)由3D目標(biāo)框中心投影到2D圖像得到的2.5D中心(X,Y,Depth)。

4.2 深度估計(jì)

不管是上述的3D目標(biāo)檢測(cè)還是自動(dòng)駕駛感知的另一項(xiàng)重要任務(wù)——語(yǔ)義分割,從2D擴(kuò)展到3D,都或多或少得應(yīng)用到了稀疏或稠密的深度信息。

單目深度估計(jì)的重要性不言而喻,其輸入是一張圖像,輸出是相同大小的一張由每個(gè)像素對(duì)應(yīng)的場(chǎng)景深度值組成的圖像。輸入也可以是視頻序列,利用相機(jī)或者物體運(yùn)動(dòng)帶來(lái)的額外信息來(lái)提高深度估計(jì)的準(zhǔn)確度。

相比于監(jiān)督學(xué)習(xí),單目深度估計(jì)的無(wú)監(jiān)督方法無(wú)需構(gòu)建極具挑戰(zhàn)性的真值數(shù)據(jù)集,實(shí)現(xiàn)難度更小。單目深度估計(jì)的無(wú)監(jiān)督方法可分為基于單目視頻序列和基于同步立體圖像對(duì)兩種。

前者是建立在運(yùn)動(dòng)相機(jī)和靜止場(chǎng)景的假設(shè)之上的。在后者的方法中,Garg等人首次嘗試使用同一時(shí)刻立體校正后的雙目圖像對(duì)進(jìn)行圖像重建,左右視圖的位姿關(guān)系通過雙目標(biāo)定得到,獲得了較為理想的效果。

在此基礎(chǔ)上,Godard等人用左右一致性約束進(jìn)一步地提升了精度,但是,在逐層下采樣提取高級(jí)特征來(lái)增大感受野的同時(shí),特征分辨率也在不斷下降,粒度不斷丟失,影響了深度的細(xì)節(jié)處理效果和邊界清晰度。

為緩解這一問題,Godard等人引入了全分辨率多尺度的損失,有效減少了低紋理區(qū)域的黑洞和紋理復(fù)制帶來(lái)的偽影。但是,這對(duì)精度的提升效果仍是有限的。

最近,一些基于Transformer的模型層出不窮,旨于獲得全階段的全局感受野,這也非常適用于密集的深度估計(jì)任務(wù)。有監(jiān)督的DPT中就提出采用Transformer和多尺度結(jié)構(gòu)來(lái)同時(shí)保證預(yù)測(cè)的局部精確性和全局一致性,下圖是網(wǎng)絡(luò)結(jié)構(gòu)圖。

11d0ae52-8200-11ee-939d-92fbcf53809c.jpg

雙目3D感知

雙目視覺可以解決透視變換帶來(lái)的歧義性,因此從理論上來(lái)說(shuō)可以提高3D感知的準(zhǔn)確度。但是雙目系統(tǒng)在硬件和軟件上要求都比較高。硬件上來(lái)說(shuō)需要兩個(gè)精確配準(zhǔn)的攝像頭,而且需要保證在車輛運(yùn)行過程中始終保持配準(zhǔn)的正確性。

軟件上來(lái)說(shuō)算法需要同時(shí)處理來(lái)自兩個(gè)攝像頭的數(shù)據(jù),計(jì)算復(fù)雜度較高,算法的實(shí)時(shí)性難以保證。與單目相比,雙目的工作相對(duì)較少。接下來(lái)也同樣從3D目標(biāo)檢測(cè)和深度估計(jì)兩方面進(jìn)行簡(jiǎn)單介紹。

5.1 3D目標(biāo)檢測(cè)

3DOP是一個(gè)兩階段的檢測(cè)方法,是Fast R-CNN方法在3D領(lǐng)域的拓展。首先利用雙目圖像生成深度圖,將深度圖轉(zhuǎn)化為點(diǎn)云后再將其量化為網(wǎng)格數(shù)據(jù)結(jié)構(gòu),再以此為輸入來(lái)生成3D目標(biāo)的候選框。

與之前介紹的Pseudo-LiDAR類似,都是將稠密的深度圖(來(lái)自單目、雙目甚至低線數(shù)LiDAR)轉(zhuǎn)換為點(diǎn)云,然后再應(yīng)用點(diǎn)云目標(biāo)檢測(cè)領(lǐng)域的算法。DSGN利用立體匹配構(gòu)建平面掃描體,并將其轉(zhuǎn)換成3D幾何體,以便編碼3D幾何形狀和語(yǔ)義信息,是一個(gè)端到端的框架,可提取用于立體匹配的像素級(jí)特征和用于目標(biāo)識(shí)別的高級(jí)特征,并且能同時(shí)估計(jì)場(chǎng)景深度和檢測(cè)3D目標(biāo)。

Stereo R-CNN擴(kuò)展了 Faster R-CNN 用于立體輸入,以同時(shí)檢測(cè)和關(guān)聯(lián)左右視圖中的目標(biāo)。在RPN之后增加額外的分支來(lái)預(yù)測(cè)稀疏的關(guān)鍵點(diǎn)、視點(diǎn)和目標(biāo)尺寸,并結(jié)合左右視圖中的2D邊界框來(lái)計(jì)算粗略的3D目標(biāo)邊界框。

然后,通過使用左右感興趣區(qū)域的基于區(qū)域的光度對(duì)齊來(lái)恢復(fù)準(zhǔn)確的3D邊界框,下圖是它的網(wǎng)絡(luò)結(jié)構(gòu)。

11efd94e-8200-11ee-939d-92fbcf53809c.jpg

5.2 深度估計(jì)

雙目深度估計(jì)的原理很簡(jiǎn)單,就是根據(jù)左右視圖上同一個(gè)3D點(diǎn)之間的像素距離d(假設(shè)兩個(gè)相機(jī)保持同一高度,因此只考慮水平方向的距離)即視差,相機(jī)的焦距f,以及兩個(gè)相機(jī)之間的距離B(基線長(zhǎng)度),來(lái)估計(jì)3D點(diǎn)的深度,公式如下,估計(jì)出視差就可以計(jì)算出深度。那么,需要做的就是為每個(gè)像素點(diǎn)在另一張圖像上找出與之匹配的點(diǎn)。

11fae032-8200-11ee-939d-92fbcf53809c.png

對(duì)于每一個(gè)可能的d,都可以計(jì)算每個(gè)像素點(diǎn)處的匹配誤差,因此就得到了一個(gè)三維的誤差數(shù)據(jù)Cost Volume。通過Cost Volume,我們可以很容易得到每個(gè)像素處的視差(對(duì)應(yīng)最小匹配誤差的d),從而得到深度值。

MC-CNN用一個(gè)卷積神經(jīng)網(wǎng)絡(luò)來(lái)預(yù)測(cè)兩個(gè)圖像塊的匹配程度,并用它來(lái)計(jì)算立體匹配成本。通過基于交叉的成本匯總和半全局匹配來(lái)細(xì)化成本,然后進(jìn)行左右一致性檢查以消除被遮擋區(qū)域中的錯(cuò)誤。

PSMNet提出了一個(gè)不需要任何后處理的立體匹配的端到端學(xué)習(xí)框架,引入金字塔池模塊,將全局上下文信息納入圖像特征,并提供了一個(gè)堆疊沙漏3D CNN進(jìn)一步強(qiáng)化全局信息。下圖是其網(wǎng)絡(luò)結(jié)構(gòu)。

1207d206-8200-11ee-939d-92fbcf53809c.jpg

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2552

    文章

    51237

    瀏覽量

    754784
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    784

    文章

    13877

    瀏覽量

    166618

原文標(biāo)題:一文讀懂自動(dòng)駕駛視覺感知技術(shù)

文章出處:【微信號(hào):智能汽車電子與軟件,微信公眾號(hào):智能汽車電子與軟件】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    馬斯克重申:純視覺自動(dòng)駕駛的未來(lái)

    近日,特斯拉始終堅(jiān)持其獨(dú)特的純視覺感知系統(tǒng)。這系統(tǒng)摒棄了傳統(tǒng)的毫米波雷達(dá),完全依賴于攝像頭與先進(jìn)的人工神經(jīng)網(wǎng)絡(luò),以實(shí)現(xiàn)自動(dòng)駕駛的功能。 特斯拉CEO埃隆·馬斯克近期再次就
    的頭像 發(fā)表于 12-04 14:09 ?467次閱讀

    聊聊自動(dòng)駕駛測(cè)試技術(shù)的挑戰(zhàn)與創(chuàng)新

    隨著自動(dòng)駕駛技術(shù)的飛速發(fā)展,自動(dòng)駕駛測(cè)試的重要性也日益凸顯。自動(dòng)駕駛測(cè)試不僅需要驗(yàn)證車輛的感知、決策、控制模塊的獨(dú)立性能,還需確保系統(tǒng)在復(fù)雜
    的頭像 發(fā)表于 12-03 15:56 ?232次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>聊聊<b class='flag-5'>自動(dòng)駕駛</b>測(cè)試<b class='flag-5'>技術(shù)</b>的挑戰(zhàn)與創(chuàng)新

    標(biāo)貝科技:自動(dòng)駕駛中的數(shù)據(jù)標(biāo)注類別分享

    自動(dòng)駕駛訓(xùn)練模型的成熟和穩(wěn)定離不開感知技術(shù)的成熟和穩(wěn)定,訓(xùn)練自動(dòng)駕駛感知模型需要使用大量準(zhǔn)確真實(shí)的數(shù)據(jù)。據(jù)英特爾計(jì)算,L3+級(jí)
    的頭像 發(fā)表于 11-22 15:07 ?934次閱讀
    標(biāo)貝科技:<b class='flag-5'>自動(dòng)駕駛</b>中的數(shù)據(jù)標(biāo)注類別分享

    標(biāo)貝科技:自動(dòng)駕駛中的數(shù)據(jù)標(biāo)注類別分享

    自動(dòng)駕駛訓(xùn)練模型的成熟和穩(wěn)定離不開感知技術(shù)的成熟和穩(wěn)定,訓(xùn)練自動(dòng)駕駛感知模型需要使用大量準(zhǔn)確真實(shí)的數(shù)據(jù)。據(jù)英特爾計(jì)算,L3+級(jí)
    的頭像 發(fā)表于 11-22 14:58 ?721次閱讀
    標(biāo)貝科技:<b class='flag-5'>自動(dòng)駕駛</b>中的數(shù)據(jù)標(biāo)注類別分享

    MEMS技術(shù)自動(dòng)駕駛汽車中的應(yīng)用

    MEMS技術(shù)自動(dòng)駕駛汽車中的應(yīng)用主要體現(xiàn)在傳感器方面,這些傳感器為自動(dòng)駕駛汽車提供了關(guān)鍵的環(huán)境感知和數(shù)據(jù)采集能力。以下是對(duì)MEMS技術(shù)
    的頭像 發(fā)表于 11-20 10:19 ?432次閱讀

    自動(dòng)駕駛技術(shù)的典型應(yīng)用 自動(dòng)駕駛技術(shù)涉及到哪些技術(shù)

    自動(dòng)駕駛技術(shù)的典型應(yīng)用 自動(dòng)駕駛技術(shù)種依賴計(jì)算機(jī)、無(wú)人駕駛設(shè)備以及各種傳感器,實(shí)現(xiàn)汽車自主行
    的頭像 發(fā)表于 10-18 17:31 ?869次閱讀

    激光雷達(dá)與純視覺方案,哪個(gè)才是自動(dòng)駕駛最優(yōu)選?

    主要分為兩大類:激光雷達(dá)與視覺感知。激光雷達(dá)因其能夠提供精確的距離和形狀信息,在自動(dòng)駕駛技術(shù)早期的開發(fā)中被廣泛應(yīng)用。然而,隨著計(jì)算機(jī)視覺
    的頭像 發(fā)表于 09-29 10:47 ?489次閱讀

    聊聊自動(dòng)駕駛離不開的感知硬件

    自動(dòng)駕駛飛速發(fā)展,繞不開感知、決策和控制決策的經(jīng)典框架,而感知作為自動(dòng)駕駛汽車“感官”的重要組成部分,決定了自動(dòng)駕駛系統(tǒng)對(duì)環(huán)境的理解和反應(yīng)能
    的頭像 發(fā)表于 08-23 10:18 ?552次閱讀

    FPGA在自動(dòng)駕駛領(lǐng)域有哪些優(yōu)勢(shì)?

    FPGA(Field-Programmable Gate Array,現(xiàn)場(chǎng)可編程門陣列)在自動(dòng)駕駛領(lǐng)域具有顯著的優(yōu)勢(shì),這些優(yōu)勢(shì)使得FPGA成為自動(dòng)駕駛技術(shù)中不可或缺的部分。以下是FP
    發(fā)表于 07-29 17:11

    FPGA在自動(dòng)駕駛領(lǐng)域有哪些應(yīng)用?

    是FPGA在自動(dòng)駕駛領(lǐng)域的主要應(yīng)用: 、感知算法加速 圖像處理:自動(dòng)駕駛中需要通過攝像頭獲取并識(shí)別道路信息和行駛環(huán)境,這涉及到大量的圖像處理任務(wù)。FPGA在處理圖像上的運(yùn)算速度快,可
    發(fā)表于 07-29 17:09

    自動(dòng)駕駛識(shí)別技術(shù)有哪些

    自動(dòng)駕駛的識(shí)別技術(shù)自動(dòng)駕駛系統(tǒng)中的重要組成部分,它使車輛能夠感知并理解周圍環(huán)境,從而做出智能決策。自動(dòng)駕駛識(shí)別
    的頭像 發(fā)表于 07-23 16:16 ?705次閱讀

    自動(dòng)駕駛的傳感器技術(shù)介紹

    自動(dòng)駕駛的傳感器技術(shù)自動(dòng)駕駛系統(tǒng)的核心組成部分,它使車輛能夠感知并理解周圍環(huán)境,從而做出智能決策。以下是對(duì)自動(dòng)駕駛傳感器
    的頭像 發(fā)表于 07-23 16:08 ?2327次閱讀

    深度學(xué)習(xí)在自動(dòng)駕駛中的關(guān)鍵技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,自動(dòng)駕駛技術(shù)作為其中的重要分支,正逐漸走向成熟。在自動(dòng)駕駛系統(tǒng)中,深度學(xué)習(xí)技術(shù)發(fā)揮著至關(guān)重要的作用。它通過模擬人
    的頭像 發(fā)表于 07-01 11:40 ?795次閱讀

    雷諾集團(tuán)攜手遠(yuǎn)知行推出自動(dòng)駕駛小巴載人服務(wù)

    雷諾集團(tuán)近日宣布與自動(dòng)駕駛領(lǐng)軍企業(yè)遠(yuǎn)知行(WeRide)達(dá)成深度合作,計(jì)劃大規(guī)模商業(yè)化部署L4級(jí)自動(dòng)駕駛技術(shù),并推出自動(dòng)駕駛小巴載人服務(wù)。
    的頭像 發(fā)表于 05-16 09:36 ?402次閱讀

    未來(lái)已來(lái),多傳感器融合感知自動(dòng)駕駛破局的關(guān)鍵

    駕駛的關(guān)鍵的是具備人類的感知能力,多傳感器融合感知正是自動(dòng)駕駛破局的關(guān)鍵。昱感微的雷視體多傳感器融合方案就好像
    發(fā)表于 04-11 10:26
    主站蜘蛛池模板: 视频一区二区不卡| 加勒比一区二区三区| 国内精品久久久久影院免费| 日本在线不卡一区| 高清xxx| 最猛91大神ben与女教师| 18欧美乱大交| 黄网站视频在线观看| 在线观看色视频| 亚洲美女视频在线观看| 四虎www成人影院观看| 日本免费小视频| 噜噜噜色噜噜噜久久| 黄频免费| ww欧洲ww在线视频免费观看| 伊人网视频| 久久夜靖品| 午夜观看| 久久三级网站| 黄色午夜网站| 99热最新网址| 色男人网| 黄色欧美视频| 亚洲第一网站| 午夜影视免费| 免费看久久| 天天爱天天做天天爽夜夜揉| ts在线视频| 哺乳期xxxx视频| 天天弄天天模| 日本视频免费高清一本18| 国产女人水多白浆| 亚洲一区在线视频| 亚洲国产精品综合久久网络| 日本a级影院| 国产 麻豆 欧美亚洲综合久久| 天天爽夜夜爽每晚高澡| 在线欧美三级| 一级毛片aaaaaa视频免费看| 欧美网站色| 午夜在线视频观看版|