在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種 "物體深度重建網(wǎng)絡(luò)"(OLD-Net)的新方法

倩倩 ? 來源:CVer、數(shù)理之家 ? 作者:CVer、數(shù)理之家 ? 2022-09-22 11:38 ? 次閱讀

計(jì)算機(jī)視覺中,我方視角就是相機(jī)鏡頭的視角。那么在當(dāng)前時刻下,如何正確的估計(jì)出相機(jī)中目標(biāo)物體的6D姿態(tài)(三維空間位置和三維朝向),將是一個重要的問題,這就是物體的6D姿態(tài)估計(jì)任務(wù)。

447512a8-3a03-11ed-9e49-dac502259ad0.png

01摘要最近,基于RGBD的類別級6D物體姿態(tài)估計(jì)在性能上取得了很大的進(jìn)步,然而,對于深度信息的需求阻礙了其更廣泛的應(yīng)用。為了解決這一問題,本文提出了一種 "物體深度重建網(wǎng)絡(luò)"(OLD-Net)的新方法。該方法僅輸入RGB圖像進(jìn)行類別級6D物體姿態(tài)估計(jì)。我們通過將類別級形狀先驗(yàn)變形為物體級深度和規(guī)范的NOCS表示,從而實(shí)現(xiàn)由單目RGB圖像中直接預(yù)測物體級深度。我們引入了兩個新的模塊,即歸一化全局位置提示(NGPH)和形狀感知解耦深度重建(SDDR)模塊,以學(xué)習(xí)高精度的物體級深度和形狀表示。最后,通過將預(yù)測的規(guī)范表征與反向投影的物體級深度對齊,解決了6D物體的姿態(tài)問題。在CAMERA25和REAL275數(shù)據(jù)集上進(jìn)行的廣泛實(shí)驗(yàn)表明,雖然我們的模型,但達(dá)到了最先進(jìn)的性能。02本文主要工作

448c4b76-3a03-11ed-9e49-dac502259ad0.png

本文提出了一種基于RGB的類別級6D物體姿態(tài)估計(jì)新方法——Object Level Depth reconstruction Network(OLD-Net)。上圖右示為OLD-Net的主要管道。具體而言,從輸入的RGB圖像中同時預(yù)測物體級深度和NOCS表示,并將兩者對齊預(yù)測6D物體的姿態(tài)。與以往通過重構(gòu)網(wǎng)格預(yù)測物體區(qū)域深度的方法不同,本文采用端到端方式直接從RGB圖像中預(yù)測物體的觀測深度。 要獲得物體區(qū)域的深度,一種直接的方法是預(yù)測場景級深度。然而,由于視場的多樣性,通常預(yù)測的景深較粗,導(dǎo)致物體形狀細(xì)節(jié)的丟失。姿態(tài)估計(jì)性能也會受到影響。為了解決這一問題,我們通過直接學(xué)習(xí)變形類別級形狀先驗(yàn)重構(gòu)物體級深度。與預(yù)測場景級深度圖相比,重建對象級深度圖計(jì)算方便,能夠更好地保存形狀細(xì)節(jié),有利于后續(xù)的物體級深度和NOCS表示對齊過程。 為了更好地重構(gòu)物體級深度,在OLD-Net中提出了一種新的模塊——?dú)w一化全局位置提示(NGPH),以平衡場景級全局信息和局部特征級形狀細(xì)節(jié)。NGPH是帶相機(jī)本征的歸一化二維檢測結(jié)果,提供物體在場景中的絕對深度的全局位置線索,以及對不同相機(jī)捕捉到的圖像的泛化能力。此外,利用形狀感知解耦深度重建(SDDR)方法預(yù)測形狀細(xì)節(jié)和絕對深度。SDDR利用兩個獨(dú)立的深度網(wǎng)絡(luò)將絕對深度解耦預(yù)測為形狀點(diǎn)和深度平移。直觀上,形狀點(diǎn)是為了保留形狀細(xì)節(jié),而深度平移是為了預(yù)測絕對物體中心。 除深度外,我們進(jìn)一步采用基于RGBD的方法預(yù)測目標(biāo)對象的NOCS表示。在訓(xùn)練過程中使用鑒別器提高重建質(zhì)量。在NOCS表示和觀測到的物體級深度都被預(yù)測之后,我們將物體級深度逆向投影到點(diǎn)云中。通過Umeyama算法對它們進(jìn)行對齊,求解出6D物體姿態(tài)。我們在CAMERA25數(shù)據(jù)集和REAL275數(shù)據(jù)集上進(jìn)行了大量的實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,該方法具有先進(jìn)的性能。03網(wǎng)絡(luò)主要結(jié)構(gòu)

44965238-3a03-11ed-9e49-dac502259ad0.png

主要的OLD-Net的網(wǎng)絡(luò)架構(gòu)如上圖所示。 我們的pipeline以圖像和一個形狀先驗(yàn)作為輸入。圖像由一個訓(xùn)練過的檢測器(Detect-Net)裁剪,用以表示物體特定的信息。采用均值嵌入的編碼器-解碼器網(wǎng)絡(luò)物體類別的形狀先驗(yàn)進(jìn)行預(yù)測,來解決類別差異的問題。 然后,將圖像和形狀先驗(yàn)輸入到OLD-Net中,重建上圖頂部所示的物體級深度。此外,OLD-Net還將來自(Detect-Net的二維檢測結(jié)果和攝像機(jī)本征信息作為輸入,并將其歸一化為NGPH。在OLD-Net中采用一種形狀感知的解耦深度重建方案來保持物體的形狀細(xì)節(jié)和絕對中心。 最后,利用深度網(wǎng)絡(luò)對NOCS表示進(jìn)行預(yù)測。然后,我們將對象級深度反向投影到點(diǎn)云中,采用Umeyama算法恢復(fù)物體姿態(tài)。 如上圖圖OLD-Net的網(wǎng)絡(luò)結(jié)構(gòu)所示,OLD-Net以圖像、形狀先驗(yàn)和NGPH為輸入,首先使用兩個MLP和一個CNN學(xué)習(xí)圖像特征圖,先驗(yàn)特征,位置特征。然后,利用這些特征,利用形狀感知解耦深度重構(gòu)(SDDR)方案同時預(yù)測形狀點(diǎn)和深度平移。最后,將形狀點(diǎn)和深度平移重新組合在一起,得到物體級深度。接下來,我們詳細(xì)介紹NGPH和SDDR。

規(guī)范化全局位置提示

我們的旨在直接從高質(zhì)量的圖像中預(yù)測物體層次的深度。實(shí)現(xiàn)這一目標(biāo)的最直接方法是預(yù)測場景級深度圖。然而,從原始圖像預(yù)測場景級深度圖的計(jì)算成本很高。此外,它還可能導(dǎo)致物體形狀細(xì)節(jié)的丟失。而形狀細(xì)節(jié)對于我們的管道非常重要,因?yàn)槲覀冃枰獙R兩個3D表示來恢復(fù)物體的姿態(tài)。因此,我們選擇以特定物體的圖像作為輸入來預(yù)測物體級深度。然而,由于裁剪和調(diào)整大小的操作,圖像失去了目標(biāo)的絕對全局位置信息,導(dǎo)致預(yù)測深度存在尺度模糊。為此,我們提出了NGPH,通過提供絕對全局位置信息和解決尺度模糊,很好地解決了這一問題。 我們選擇Detect-Net輸出的2D邊界框(l, t, r, b)的參數(shù)組成NGPH,它代表左、上、右,下二維邊界框的坐標(biāo)。這些信息足夠有效,可以提供給網(wǎng)絡(luò)來推斷尺度線索。例如,如果所有的圖像都是由同一臺相機(jī)捕獲的,則恢復(fù)物體的絕對深度。然而,圖像通常會被不同的相機(jī)收集。從單目RGB圖像中推斷出物體的絕對深度會受到相機(jī)本身的影響,這是一個常識。因此,我們提出將相機(jī)本征注入NGPH中。因此,經(jīng)過訓(xùn)練的網(wǎng)絡(luò)也可以被推廣到其他由不同相機(jī)捕捉到的圖像。我們通過將2D邊界框和攝像機(jī)intrinsic歸一化到規(guī)范坐標(biāo)中來使用它們:

44b591ac-3a03-11ed-9e49-dac502259ad0.png

其中表示我們使用的最終NGPH。和表示相機(jī)光學(xué)中心坐標(biāo),和表示焦距。前兩個術(shù)語將對象的邊界框大小與焦距歸一化,消除了對象大小引起的尺度模糊。后四個術(shù)語使用邊界框的焦距和大小對物體的中心進(jìn)行歸一化,消除了模糊性,但保留了位置信息。該方法雖然簡單,但在對象級深度重構(gòu)中是必不可少的。實(shí)驗(yàn)結(jié)果表明,NGPH雖然簡單,但在物體層次深度重建中不可或缺。

形狀感知解耦深度重建

OLD-Net中使用的特征是重塑后的圖像特征矩陣(其中為像素?cái)?shù)),位置特征,先驗(yàn)特征。我們還應(yīng)用MLPs和自適應(yīng)池化,得到全局圖像特征集和全局先驗(yàn)特征集。形狀點(diǎn)預(yù)測:我們采用了形狀先驗(yàn)變形(SPD)的思想重構(gòu)形狀點(diǎn),這將為模型提供更多的物體形狀約束。具體來說,利用上述特征,網(wǎng)絡(luò)將學(xué)習(xí)一個形變場,一個,并將先前的形狀先驗(yàn)反向投影到對象級深度的點(diǎn)云中: 44c69704-3a03-11ed-9e49-dac502259ad0.png 為了學(xué)習(xí)??,我們重復(fù)??,??,??共??次并將它們與??連接。將連接的特征輸入到MLP中以學(xué)習(xí)??。類似地,為了學(xué)習(xí)??,我們重復(fù)??,??,??共??次,并將它們與??連接。另一個MLP用于學(xué)習(xí)??。在本文中,我們使用形狀先驗(yàn)來預(yù)測對象級深度,為未來基于RGB的工作提供指導(dǎo)。深度變換預(yù)測:為了學(xué)習(xí)物體中心的絕對位置,我們建議使用一個獨(dú)立的MLP來學(xué)習(xí)深度平移。我們連接??和??作為輸入。輸出是表示對象中心絕對深度的單個值。我們把它命名為??。 SDDR方案主要從三個方面來保留對象形狀細(xì)節(jié)。首先,由于我們只使用圖像塊來重建物體層深度,模型可以專注于物體的形狀而不是整個場景的幾何形狀。其次,形狀先驗(yàn)對物體的形狀提供了強(qiáng)大的約束,使其更容易恢復(fù)形狀細(xì)節(jié)。第三,分別學(xué)習(xí)絕對物體中心和物體形狀,并給予不同的注意。 在??和??被預(yù)測后,對象級深度可以表示為??,其中??為??的第三分量。注意,我們選擇監(jiān)督Z而不是反向投影的點(diǎn)云。因?yàn)橐环矫?,網(wǎng)絡(luò)在訓(xùn)練過程中更容易學(xué)習(xí)Z,另一方面,將Z逆向投影到點(diǎn)云上進(jìn)行對齊,物體的2D坐標(biāo)將為全局位置提供額外的約束,這也有利于最后的物體姿態(tài)的恢復(fù)步驟。04? NOCS預(yù)測我們還預(yù)測管道中目標(biāo)對象的NOCS表示,這是一種規(guī)范表示,用于與物體級深度對齊,以恢復(fù)6D對象姿勢。為了預(yù)測NOCS表示,我們將Z反投影到點(diǎn)云中,并將其輸入到MLP中,以獲得深度特征??。取??,??,??輸入,類似于重建對象級深度,我們使用SPD來預(yù)測NOCS表示:? 44d1c566-3a03-11ed-9e49-dac502259ad0.png 然而,我們發(fā)現(xiàn)在某些情況下,??不夠真實(shí),這將影響最終的6D目標(biāo)姿態(tài)估計(jì)精度。因此我們采用對抗訓(xùn)練策略訓(xùn)練網(wǎng)絡(luò)。具體來說,我們設(shè)計(jì)了一個判別器來判斷預(yù)測的NOCS表示是否足夠真實(shí)。判別器的優(yōu)化目標(biāo)可表示為:? 44df7c06-3a03-11ed-9e49-dac502259ad0.png 同樣,NOCS預(yù)測網(wǎng)絡(luò)的優(yōu)化目標(biāo)??:??在訓(xùn)練過程中,對判別器和NOCS預(yù)測網(wǎng)絡(luò)的參數(shù)進(jìn)行迭代更新。兩個網(wǎng)絡(luò)都將通過對抗變得越來越強(qiáng)大。因此,預(yù)測的NOCS表現(xiàn)也會變得越來越現(xiàn)實(shí)。05??損失函數(shù)對于物體級深度重建,我們使用Z和真實(shí)值的L1損失:?對于NOCS表示預(yù)測,我們使用損失函數(shù)包括重建的NOCS表示和真實(shí)值之間的平滑L1 loss ??,倒角距離損失??,交叉熵?fù)p失??,以鼓勵分配矩陣xmnocs的峰值分布,L2正則化損失。我們使用的總損失函數(shù)為:? 44f07560-3a03-11ed-9e49-dac502259ad0.png 06??實(shí)驗(yàn)我們通過PyTorch實(shí)現(xiàn)我們的方法,并使用Adam優(yōu)化器對其進(jìn)行優(yōu)化。我們在訓(xùn)練過程中隨機(jī)選擇1024像素來預(yù)測深度。Detect-Net是Mask-RCNN。使用帶有ResNet-18骨干的PSPNet來學(xué)習(xí)圖像特征。形狀先驗(yàn)點(diǎn)數(shù)為1024。我們設(shè)C = 64, ???= 1024。該模型訓(xùn)練50個epoch,批次大小為96。主網(wǎng)絡(luò)的初始學(xué)習(xí)率為0.0001,第40個epoch的衰減率為0.1。我們在CAMERA25數(shù)據(jù)集和REAL275數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。重建質(zhì)量評價:在我們的工作中,主要思想是重建物體級深度和NOCS表示。因此,我們首先在表1中評估我們方法的重構(gòu)質(zhì)量。計(jì)算反向投影深度與地面真實(shí)值之間的倒角距離,驗(yàn)證深度重建的質(zhì)量。我們也計(jì)算預(yù)測的NOCS值與真實(shí)NOCS值之間的倒角距離評價NOCS預(yù)測質(zhì)量。

45053996-3a03-11ed-9e49-dac502259ad0.png

如上表所示對于物體級深度重構(gòu),REAL275數(shù)據(jù)集的誤差小于2cm。對于NOCS預(yù)測,REAL275數(shù)據(jù)集的誤差也接近2cm。與我們的大物體尺寸和景深相比,2厘米是一個相對較小的尺度誤差。因此,我們可以得出結(jié)論,我們的方法確實(shí)具有良好的物體級深度重構(gòu)質(zhì)量和NOCS表示預(yù)測質(zhì)量。在CAMERA25數(shù)據(jù)集上,大多數(shù)類別的NOCS表示預(yù)測誤差仍在2cm以下。然而,物體級深度構(gòu)造誤差增加到3cm到5cm。其原因可能是在較大的合成數(shù)據(jù)集中存在較大的深度分布方差。這一觀察結(jié)果還表明,重構(gòu)物體級深度比預(yù)測NOCS表示更難。6D位姿估計(jì)的定量結(jié)果:我們將我們的方法與下表中最先進(jìn)的方法進(jìn)行定量比較。

4515d0c6-3a03-11ed-9e49-dac502259ad0.png

我們首先將我們的方法與Lee et al.在CAMERA25數(shù)據(jù)集上進(jìn)行比較。Lee等人通過首先重建網(wǎng)格,然后將網(wǎng)格渲染成深度圖來預(yù)測深度。相比之下,我們選擇直接重構(gòu)對象級深度,這更簡單,也更有效。我們可以看到,我們的方法在6個指標(biāo)中的4個指標(biāo)上優(yōu)于Lee et al.。在最嚴(yán)格的10?10cm度量,我們的方法超過Lee等人4.2分,這是一個顯著的改進(jìn)。在IoU25和IoU50指標(biāo)上,盡管我們的結(jié)果略低于Lee等人,但我們?nèi)匀粚?shí)現(xiàn)了相當(dāng)?shù)男阅?。這些結(jié)果表明,使用我們的SDDR方案和NGPH重構(gòu)對象級深度是比重構(gòu)對象網(wǎng)格更好的選擇。主要原因可能是,如果深度平移和形狀點(diǎn)解耦,網(wǎng)絡(luò)更容易學(xué)習(xí)有用的信息,如物體的形狀細(xì)節(jié)或物體的絕對中心。 為了進(jìn)一步驗(yàn)證我們重構(gòu)物體級深度比估計(jì)場景級深度的動機(jī)和好處,我們將我們的方法與下表中的兩個場景級深度估計(jì)基線進(jìn)行比較。場景級基線-1和場景級基線-2共享相同的編碼器-解碼器網(wǎng)絡(luò)架構(gòu)。不同的是,在訓(xùn)練時,場景級基線-1與NOCS重構(gòu)分支共享編碼器,而場景級基線-2獨(dú)立訓(xùn)練深度估計(jì)器。這兩個網(wǎng)絡(luò)都經(jīng)過精心調(diào)優(yōu),以實(shí)現(xiàn)最佳性能。下表顯示了OLD-Net顯著優(yōu)于兩個場景級基線。原因可能是由預(yù)測的物體級深度OLD-Net在保存形狀細(xì)節(jié)方面比粗糙的場景級深度要好得多,而形狀細(xì)節(jié)對于NOCS深度對齊過程至關(guān)重要。

452474d2-3a03-11ed-9e49-dac502259ad0.png

所有這些結(jié)果都證明了我們的方法的優(yōu)越性。此外,我們還在下圖中展示了3D IoU、旋轉(zhuǎn)誤差和平移誤差的不同閾值下的平均精度(AP)圖。我們將我們的方法與基于rgbd的NOCS方法進(jìn)行比較。從圖中可以看出,我們的方法在所有類別的IoU和旋轉(zhuǎn)方面都表現(xiàn)出色。旋轉(zhuǎn)預(yù)測的優(yōu)異性能很大程度上是由于我們將形狀點(diǎn)解耦到深度之外,以保留形狀細(xì)節(jié)。在對準(zhǔn)中,旋轉(zhuǎn)是否準(zhǔn)確主要取決于物體形狀的質(zhì)量。因此,我們的模型在旋轉(zhuǎn)預(yù)測方面甚至達(dá)到了與基于rgbd的方法相當(dāng)?shù)男阅?。相比之下,基于rgbd的預(yù)測結(jié)果相對較低。這是因?yàn)閺膯文縍GB圖像中恢復(fù)物體的絕對全局位置是一個問題。因此,今后的工作應(yīng)更加重視獲得更精確的絕對深度預(yù)測。

4532f908-3a03-11ed-9e49-dac502259ad0.png

6D位姿估計(jì)的定性結(jié)果:為了定性分析我們方法的有效性,我們將估計(jì)的邊界框可視化,如下圖所示。給出了綜合數(shù)據(jù)和實(shí)際數(shù)據(jù)的計(jì)算結(jié)果??梢钥闯觯琌LD-Net可以預(yù)測的物體邊界框,這對于增強(qiáng)現(xiàn)實(shí)產(chǎn)品來說是足夠準(zhǔn)確的。在下圖中我們還展示了一些失敗案例。OLDNet有時可能會漏掉物體。我們把解決它作為我們未來的工作。

45444bc2-3a03-11ed-9e49-dac502259ad0.png

457362a4-3a03-11ed-9e49-dac502259ad0.png

07消融實(shí)驗(yàn)VanillaSPD:我們采用SPD來學(xué)習(xí)SDDR中的形狀點(diǎn)。人們可能會想,我們的模型的良好性能是否來自于SPD,而不是我們設(shè)計(jì)的其他模塊。因此,我們展示了僅使用普通SPD模塊(不使用OLD-Net,不使用SDDR,僅使用SPD直接預(yù)測對象級深度的反向投影點(diǎn)云)時的性能。沒有我們的其他設(shè)計(jì),Vanilla SPD的性能很差。SDDR方案的影響:在本文中,SDDR被引入,將物體級深度解耦為深度轉(zhuǎn)換和形狀點(diǎn)。與Vanilla SPD相比,我們在下表中的所有模型版本都采用了SDDR方案,因此,它們的性能在很大程度上得到了改善。

459252ea-3a03-11ed-9e49-dac502259ad0.png

表中的第3行,我們沒有使用兩個單獨(dú)的模塊來獨(dú)立學(xué)習(xí)深度轉(zhuǎn)換和形狀點(diǎn),而是使用一個單一的模塊直接預(yù)測絕對的物體級深度。我們發(fā)現(xiàn),IoU25指標(biāo)和IoU50指標(biāo)下降了很多。這可能是因?yàn)槿绻话焉疃冉怦畛鰜恚W(wǎng)絡(luò)可能會丟失物體的細(xì)節(jié),如物體的長寬高比例或一些特定的物體成分。此外,在第4行,我們顯示了用MLP代替SPD來預(yù)測形狀點(diǎn)的結(jié)果,即直接回歸NOCS和物體級深度。很明顯,所有的指標(biāo)都有明顯的下降。這個結(jié)果證明了在SDDR中采用SPD是非常必要的。SPD為模型提供了關(guān)于物體形狀的強(qiáng)大約束。請注意表的第3行和第4行,雖然我們刪除了一些設(shè)計(jì),但屬于物體的像素的二維坐標(biāo)仍被用于反向投影(它也是SDDR的一部分),這將為絕對深度提供額外的約束。否則,性能會更差,如表第2行所示,它直接預(yù)測了物體點(diǎn)云。總之,SDDR方案在OLD-Net中對物體形狀細(xì)節(jié)的保存和絕對物體中心的預(yù)測都起著重要的作用。NGPH的影響:由于我們的模型只采取RGB圖像來預(yù)測深度以保存形狀細(xì)節(jié),全局位置信息將被丟失。為了彌補(bǔ)這一缺陷,我們將NGPH注入到我們的網(wǎng)絡(luò)中。在表的第5行中,我們將NGPH從我們的網(wǎng)絡(luò)中移除,以研究其影響。當(dāng)它被移除后,所有的指標(biāo)都下降了很多。這是因?yàn)?,沒有NGPH,網(wǎng)絡(luò)就很難預(yù)測絕對深度。盡管三維點(diǎn)之間的相對位置可以從圖像中推斷出來,但錯誤的絕對深度會使我們很難通過對齊來準(zhǔn)確恢復(fù)物體的姿勢。 我們采用對抗性訓(xùn)練策略來提高預(yù)測的NOCS表示的質(zhì)量。當(dāng)它被移除時,如表的倒數(shù)第二行所示,除了10?指標(biāo)外,所有指標(biāo)都下降了。這一結(jié)果證明了對抗性訓(xùn)練對于提高性能是必要的。它還表明,NOCS表示的質(zhì)量和對象層面的深度都很重要。兩者都不能被忽視。08總結(jié)本文提出了一種新的基于rgb的類別級6D目標(biāo)位姿估計(jì)網(wǎng)絡(luò)OLD-Net。利用形狀先驗(yàn)直接預(yù)測物體層次深度是我們研究的關(guān)鍵。在OLD-Net中引入了歸一化全局位置提示和形狀感知解耦深度重構(gòu)方案。我們還使用對抗性訓(xùn)練預(yù)測管道中對象的規(guī)范NOCS表示。在真實(shí)數(shù)據(jù)集和合成數(shù)據(jù)集上的大量實(shí)驗(yàn)表明,我們的方法可以實(shí)現(xiàn)新的最先進(jìn)的性能。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    800

    瀏覽量

    58598
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7586

    瀏覽量

    89013
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24749

原文標(biāo)題:ECCV 2022 | 從單目RGB圖像中進(jìn)行類別級6D物體姿態(tài)估計(jì)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    一種降低VIO/VSLAM系統(tǒng)漂移的新方法

    本文提出了一種新方法,通過使用點(diǎn)到平面匹配將VIO/VSLAM系統(tǒng)生成的稀疏3D點(diǎn)云與數(shù)字孿生體進(jìn)行對齊,從而實(shí)現(xiàn)精確且全球致的定位,無需視覺數(shù)據(jù)關(guān)聯(lián)。所提方法為VIO/VSLAM系
    的頭像 發(fā)表于 12-13 11:18 ?196次閱讀
    <b class='flag-5'>一種</b>降低VIO/VSLAM系統(tǒng)漂移的<b class='flag-5'>新方法</b>

    江西薩瑞微榮獲&amp;amp;quot;2024全國第三代半導(dǎo)體制造最佳新銳企業(yè)&amp;amp;quot;稱號

    快速發(fā)展與創(chuàng)新實(shí)力在2024全國第三代半導(dǎo)體產(chǎn)業(yè)發(fā)展大會上,江西薩瑞微電子科技有限公司榮獲&quot;2024全國第三代半導(dǎo)體制造最佳新銳企業(yè)&quot;稱號。這榮譽(yù)不僅是對公司技術(shù)創(chuàng)新和產(chǎn)業(yè)化
    的頭像 發(fā)表于 10-31 08:09 ?387次閱讀
    江西薩瑞微榮獲&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;2024全國第三代半導(dǎo)體制造最佳新銳企業(yè)&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;稱號

    OCTC發(fā)布&amp;quot;算力工廠&amp;quot;!力促智算中心高效規(guī)劃建設(shè)投運(yùn)

    創(chuàng)新提出面向未來數(shù)據(jù)中心的&quot;算力工廠&quot;模式,核心是以規(guī)(劃)、建(設(shè))、運(yùn)(營)體化的交鑰匙工程,實(shí)現(xiàn)智算中心快速投運(yùn)、綠色低碳,在當(dāng)前AIGC算力供需挑戰(zhàn)下,開創(chuàng)了智算中心建設(shè)運(yùn)營的新思路、
    的頭像 發(fā)表于 10-11 09:10 ?542次閱讀
    OCTC發(fā)布&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;算力工廠&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;!力促智算中心高效規(guī)劃建設(shè)投運(yùn)

    軟通動力攜手華為啟動&amp;quot;智鏈險界&amp;quot;計(jì)劃,強(qiáng)化生態(tài)鏈接共啟保險AI新時代

    軟通動力攜子品牌軟通金科受邀參加此次大會,發(fā)表&quot;智馭未來 ? 探索保險AI新業(yè)態(tài)&quot;主旨演講,并攜手華為正式啟動&quot;智鏈險界——保險生態(tài)場景鏈接計(jì)劃&quot
    的頭像 發(fā)表于 09-23 19:22 ?390次閱讀
    軟通動力攜手華為啟動&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;智鏈險界&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;計(jì)劃,強(qiáng)化生態(tài)鏈接共啟保險AI新時代

    亞馬遜云科技啟動&amp;quot;智能家居與智能產(chǎn)品創(chuàng)新加速計(jì)劃&amp;quot;

    深度融合,加速創(chuàng)新方案落地,為智能家居與智能產(chǎn)品行業(yè)數(shù)智化升級注入新動力。此外,亞馬遜云科技還將持續(xù)推進(jìn)智能家居與智能產(chǎn)品行業(yè)獲得亞馬遜全球業(yè)務(wù)體系相關(guān)資源與認(rèn)證,并聯(lián)合產(chǎn)業(yè)鏈上、中、下游的客戶和各類合作伙伴,助力行業(yè)客戶在拓展產(chǎn)品
    的頭像 發(fā)表于 08-01 09:56 ?417次閱讀
    亞馬遜云科技啟動&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;智能家居與智能產(chǎn)品創(chuàng)新加速計(jì)劃&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;

    一種無透鏡成像的新方法

    透鏡成像形式,它使用掃描光束收集散射光進(jìn)行圖像重建,面臨著周期性樣品的挑戰(zhàn)。為了研究微電子或光子元件中的納米級圖案,一種基于無透鏡成像的新方法可以實(shí)現(xiàn)近乎完美的高分辨率顯微鏡。這在波長短于紫外線時尤為重要,其成像空間分辨率高于
    的頭像 發(fā)表于 07-19 06:20 ?418次閱讀
    <b class='flag-5'>一種</b>無透鏡成像的<b class='flag-5'>新方法</b>

    全方位精準(zhǔn)測量技術(shù)助力:中國經(jīng)濟(jì)加力發(fā)展向前&amp;amp;quot;進(jìn)&amp;amp;quot;

    全方位精準(zhǔn)測量技術(shù)助力:中國經(jīng)濟(jì)加力發(fā)展向前&quot;進(jìn)&quot;
    的頭像 發(fā)表于 07-15 09:53 ?385次閱讀
    全方位精準(zhǔn)測量技術(shù)助力:中國經(jīng)濟(jì)加力發(fā)展向前&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;進(jìn)&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;

    晶科能源榮獲EUPD Research授予的六項(xiàng)&amp;quot;頂級光伏品牌&amp;quot;稱號

    近日,由權(quán)威調(diào)研機(jī)構(gòu)EUPD Research頒發(fā),晶科能源在巴西、哥倫比亞、墨西哥、智利等拉美主要國家六個地區(qū)榮獲 &quot;頂級光伏品牌 &quot;稱號。憑借先進(jìn)的技術(shù)、完善的流程和對卓越的不懈追求,晶科能源將繼續(xù)提升行業(yè)標(biāo)準(zhǔn),并在全球范圍內(nèi)推動積極變革。
    的頭像 發(fā)表于 05-10 09:17 ?520次閱讀
    晶科能源榮獲EUPD Research授予的六項(xiàng)&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;頂級光伏品牌&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;稱號

    九聯(lián)科技推出款&amp;quot;射手座&amp;quot;UMA502-T7物聯(lián)網(wǎng)模組

    在物聯(lián)網(wǎng)技術(shù)飛速發(fā)展的時代背景下,九聯(lián)科技憑借深厚的研發(fā)底蘊(yùn)與創(chuàng)新精神,精心打造出象征著自由探索與勇敢進(jìn)取精神的&quot;射手座&quot;UMA502-T7模組,以昂揚(yáng)之姿挺進(jìn)海外市場,宣告了九聯(lián)科技物聯(lián)網(wǎng)模組國際化進(jìn)程的盛大起航。
    的頭像 發(fā)表于 04-14 09:38 ?908次閱讀

    2024CCLTA | &amp;quot;智&amp;quot;領(lǐng)檢驗(yàn),&amp;quot;慧&amp;quot;聚山城

    上海2024年4月2日?/美通社/ --?2024年3月28日-31日,以"融合發(fā)展,引領(lǐng)未來"為主題的第十屆全國檢驗(yàn)醫(yī)學(xué)技術(shù)與應(yīng)用學(xué)術(shù)會議暨協(xié)同創(chuàng)新、融合發(fā)展國際論壇,第十屆全國臨床檢驗(yàn)裝備展覽會(CCLTA2024)在重慶拉開帷幕。展會上,貝克曼庫爾特分享了"智慧檢驗(yàn)"、"疾病管理"、"創(chuàng)升中國"下的重要力作,包括全自動化學(xué)發(fā)光免疫分析DxI800、全自動生化分析儀AU5800、微生物鑒定藥敏分析儀DxM1096、智研平臺、DxAI智控平臺LabBox Innovation等。 展會現(xiàn)場照片 作為體外
    的頭像 發(fā)表于 04-07 18:19 ?1080次閱讀
    2024CCLTA | &<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;智&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;領(lǐng)檢驗(yàn),&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;慧&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;聚山城

    科沃斯掃地機(jī)器人通過TüV萊茵&amp;quot;防纏繞&amp;quot;和&amp;quot;高效邊角清潔&amp;quot;認(rèn)證

    3月15日,在2024中國家電及消費(fèi)電子博覽會(AWE)上,國際獨(dú)立第三方檢測、檢驗(yàn)和認(rèn)證機(jī)構(gòu)德國萊茵TüV大中華區(qū)(簡稱&quot;TüV萊茵&quot;)為科沃斯兩款掃地機(jī)器人(型號:DDX14、DDX11)
    的頭像 發(fā)表于 03-17 10:49 ?901次閱讀

    Quanterix宣布Tau217血液檢測被美國FDA授予 &amp;quot;突破性器械 &amp;quot;認(rèn)證

    3月4日,Quanterix宣布其Simoa磷酸化Tau217(p-Tau 217)血液檢測已被美國FDA授予 &quot;突破性器械 &quot;認(rèn)證,可用于阿爾茨海默病 (AD) 的輔助診斷評估。
    的頭像 發(fā)表于 03-12 17:23 ?2355次閱讀

    電池&amp;quot;無&amp;quot;隔膜?SEI新&amp;quot;膜&amp;quot;法!

    枝晶是阻礙鋅基水系電池發(fā)展的個亟待解決的問題。電沉積過程主要包含離子遷移、電還原和電結(jié)晶三個步驟。
    的頭像 發(fā)表于 03-11 10:03 ?1032次閱讀
    電池&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;無&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;隔膜?SEI新&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;膜&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;法!

    中創(chuàng)新航榮獲逸動科技2023年度&amp;quot;優(yōu)秀戰(zhàn)略合作伙伴獎&amp;quot;

    近日,中創(chuàng)新航憑借電動船舶領(lǐng)域領(lǐng)先的技術(shù)實(shí)力、卓越的產(chǎn)品質(zhì)量、持續(xù)穩(wěn)定的交付能力以及優(yōu)質(zhì)高效的服務(wù),榮獲逸動科技2023年度&quot;優(yōu)秀戰(zhàn)略合作伙伴獎&quot;。
    的頭像 發(fā)表于 02-29 13:51 ?519次閱讀

    第二代配網(wǎng)行波故障預(yù)警與定位裝置YT/XJ-001:守護(hù)電力線路的超能&amp;amp;quot;哨兵&amp;amp;quot;

    第二代配網(wǎng)行波故障預(yù)警與定位裝置YT/XJ-001:守護(hù)電力線路的超能&quot;哨兵&quot; 電力,如同現(xiàn)代社會的血脈,支撐著我們的生活和工作正常運(yùn)行。然而,旦這條血脈出現(xiàn)故障,生活和工作
    的頭像 發(fā)表于 01-22 15:11 ?572次閱讀
    第二代配網(wǎng)行波故障預(yù)警與定位裝置YT/XJ-001:守護(hù)電力線路的超能&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;哨兵&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;
    主站蜘蛛池模板: 老司机午夜网站| 久久亚洲综合色| 欲色天天| 被男同桌摸内裤好爽视频| 轻点灬大ji巴太粗太长了爽文| 日本不卡免费一区| 国产成人精品曰本亚洲78| 亚洲综合天堂网| 四虎影视在线看| 日本妈妈4| 九色福利| video另类蛇交| 午夜爱爱毛片xxxx视频免费看| 欧美四色| 视频h在线观看| 欧美日本视频一区| 亚洲人免费视频| 日本高清视频色wwwwww色| 精品久久久久久中文字幕欧美| 国产成人在线网址| 手机看日韩毛片福利盒子| 99久久免费午夜国产精品| 热re99久久精品国产99热| 亚洲一区二区三区麻豆| 日韩一级一片| 国产一级aaa全黄毛片| eeuss影院www影院夜场| 一区二区三区网站在线免费线观看| 国产精品久久自在自2021| 亚洲аv电影天堂网| 日韩三级中文| 国产 日韩 欧美 高清| 天天草天天干| 免费在线h视频| 在线视频黄色| 美女被异性狂揉下部羞羞视频| 亚洲成人三级电影| 女人被男人免费播放网站| 8050午夜一级二级全黄| xvideos国产| 免费一级在线|