為研究夜間追尾事故中本車智能防撞預警方法,本文提出了一種基于毫米波雷達和機器視覺的前方車輛檢測方法。利用多傳感器融合數據,檢測前方車輛的距離、速度等。建立傳感器之間轉換關系,轉換雷達目標的世界坐標到圖像坐標。
在圖像上形成感興趣區域,利用圖像處理方法減少干擾點,運用 Dempster-Shafer(D-S)證據理論,融合特征信息,得到總的信任度值檢驗感興趣區域內的車輛。實驗采集多段夜間道路行車視頻數據,統計實現尾燈識別的幀數,與主觀判斷進行比較。結果表明:該方法能夠實現對夜間前方車輛的檢測和定位。
本文來自 2016 年 6 月 15 日出版的《 汽車安全與節能學報 》,作者是吉林大學交通學院的金立生教授和程蕾以及清華大學汽車安全與節能國家重點實驗室的成波教授。
道路交通事故中由追尾相撞導致的事故占很大比例,而夜間交通事故尤為嚴重,約占交通事故總數的 40%。夜間車輛檢測技術已成為智能車輛安全輔助駕駛系統的重要組成部分,用于準確地識別夜間前方車輛,為駕駛員及時提供前方車輛信息及路況,降低夜間交通事故的發生 [1]。
夜間由于光線強度不夠,大部分白天的車輛特征信息已經不可用,因此用于白天的車輛檢測算法基本失效。車輛尾燈是夜間車輛的明顯特征,目前,對于夜間前方車輛檢測識別的研究主要是利用單目視覺傳感器,獲取車輛前方的視覺感知信息,基于圖像信息提取尾燈特征進行前方車輛識別。
劉尊洋等人結合車輛尾燈的顏色與亮度檢測尾燈 [2];吳海濤等人對前車燈對配對進行車輛的跟蹤 [3];唐佳林等人采用幀差法提取感興趣區域 [4];王孝蘭選擇基于模糊理論的分割方法對圖像進行分割,提取車牌、尾燈的特征 [5];祁秋紅等人通過色調(hue)-飽和度(saturation)-明度(value)的顏色模型(HSV)對尾燈的顏色信息進行分割,辨出車輛位置[6];周俊杰采用基于R通道直方圖的紅(red)-綠(green)-藍(blue)彩色(RGB)空間自適應閾值分割圖像,自適應效果不是很理想 [7]。
機器視覺是一種用于車輛檢測的有效傳感器,但其有一定的局限性,因此有文獻提出綜合考慮激光雷達和機器視覺的信息,進行前方目標車輛檢測 [8-9]。雖然激光雷達和機器視覺在一定程度可以互補,但激光雷達對天氣、燈光、障礙物表面光滑度等干擾非常敏感,不適合復雜道路環境。
由于毫米波雷達不易受外界干擾而且測量的距離精度高,可以準確獲得前方車輛的速度、角度等深度信息。因此,本文提出利用毫米波雷達和機器視覺進行多傳感器數據融合,通過先驗知識篩選毫米波雷達探測到的障礙物數據,融合雷達數據和圖像信息初步確立動態感興趣區域(Region of Interest,ROI),在縮小的范圍內基于視覺傳感器提取表征車輛的特征,運用 D-S 證據理論(Dempster-Shafer Evidential Theory)融合信息,減少了計算量和主觀閾值對檢測精確度的影響,提高了執行速度和車輛定位的準確性。
1. 夜間車輛檢測算法實現
整個過程分為假設產生(Hypothesis Generation,HG)和假設檢驗(Hypothesis Verifcation,HV)兩部分:
假設產生過程利用雷達獲取候選目標的的距離、角度、速度等信息,進而得到候選目標的世界坐標,逆用攝像機標定原理得到世界坐標與圖像像素坐標的轉換關系,初步確定候選目標在圖像上的區域,即感興趣區域 ROI;
假設驗證過程是通過改進的自適應閾值確定方法(大津法,OTSU 法)進行圖像分割處理,進而利用圖像處理方法、先驗知識和 D-S 證據理論對感興趣區域檢測是否存在車輛特征。
圖 1 夜間前方車輛檢測方法流程圖
算法流程圖如圖 1 所示。
2. 假設產生(HG)
2.1 雷達數據處理及初選目標的確定
毫米波雷達接收到的是十六進制數據,根據雷達協議解算數據,并提取可以用于車輛檢測的有效信息包括:前方車輛相對于本車的角度、距離、速度、反射強度。在實際測量中,毫米波雷達獲取的信號有一部分是空目標信號、無效目標信號、靜止目標信號,首先要去除這 3 種目標信號的干擾。
根據國家規定車道寬度設置橫向寬度閾值,進行目標與自車的同車道判斷,保留行駛方向距離閾值和相對速度閾值內的目標,對篩選出的前方目標由近及遠的原則重新排序,使用同車道近距離原則初選有效目標,如表 1 所示。
表 1 初選有效目標信號
表 1 中:ID 表示雷達檢測得到的目標信號的標準幀號;α、R、Δv 分別為本車與目標信號的相對角度、相對距離、相對速度(?v = v1 - v0,v1 為目標速度,v0 為本車速度);p 從目標返回信號的強度,即反射率。
長距離的毫米波雷達掃描范圍是 1~175 m,中距離是 1~60 m。距離小于 1 m 時雷達就不能識別物體。以避免車輛行駛過程中與前方車輛發生追尾碰撞為出發點,在有效目標選擇過程中最關注的是與本車位于同一車道的前方最近車輛。當 Δv<0,有出現追尾事故的可能。因此,把雷達掃描近距離 1~60 m 內、離本車最近且 Δv<0 的車輛作為初選目標。
2.2 雷達數據和機器視覺的融合
雷達和機器視覺是不同坐標系的傳感器,因此要實現雷達和機器視覺的空間融合,必須建立兩傳感器所在坐標系的轉換模型,即雷達坐標與圖像像素坐標之間的轉換。雷達坐標系與圖像像素坐標系之間有著密切的聯系 [10],按照右手系原則建立坐標系,由式 (1)-(2) 確定坐標系之間的空間位置關系。
將世界坐標系中的點 ( XW, YW, ZW ) 變換到圖像像素坐標 ( u, v ),轉換公式為:
式中:( XW, YW, ZW, 1 )^T 是點的世界坐標,與其對應的攝像機齊次坐標是 ( XC, YC, ZC, 1 )^T,dx 與 dy 分別表示每個像素在橫、縱軸上的物理單位下的大小,f 是攝像機的焦距,s' 表示因攝像機成像平面坐標軸相互不正交引出的傾斜因子(Skew Factor),R 代表旋轉矩陣(為一個 3×3 的正交單位矩陣),t 代表平移向量,I 是元素全為 1 的對角矩陣,O=(0, 0, 0)^T。
毫米波雷達獲取的前方障礙物信息是在極坐標下的二維信息,將障礙物 P 的極坐標下的二維信息轉換到直角坐標系中,雷達坐標系的 X0O0Z0 平面與世界坐標系的 XOZ 平面平行,兩平面之間的距離為 Y0,通過雷達可以得到前方車輛中心點投影到雷達掃射平面內的點 P 相對雷達的距離 R 和角度 α,確定點 P 在世界坐標系下的坐標,轉換關系如下:
由雷達獲得前方車輛形心點的輸入,綜合以上建立雷達坐標系和圖像像素坐標系之間的相對關系,即可獲得前方車輛在像素平面的投影,基于車輛的常用外形(寬高比)投影在像素平面上,建立可以根據距離變化的動態感興趣區域,縮小在圖像上的搜索時間,減少計算量。通過統計發現一般車輛的寬高比在 0.7~2.0 范圍內,常見轎車、運動型多功能車(Sport Utility Vehicle,SUV)、面包車、商用車輛等車型的寬高比在 0.7~1.3 范圍內 [11],為了避免后續尾燈檢測時會遺漏尾燈目標,本文選取常見幾種車型的最大寬高比 W/H=1.3。
動態感興趣區域的確定如下:
式中:( x_lt, y_lt ),( x_rb, y_rb )分別為動態感興趣矩形區域的左上角點和右下角點的像素坐標,( x, y )為車輛形心點的像素坐標。
圖 2 雷達掃描圖
圖 3 雷達目標在圖像上的的 ROI
雷達掃描圖如圖 2 所示。雷達坐標系中的目標經坐標轉換關系在圖像上形成的感興趣區域如圖 3 中的 (a) 列所示。動態感興趣區域的大小會隨目標的距離發生變化,以更適合的尺寸截取感興趣區域圖像進行下一步檢測驗證,縮小了檢測范圍,從而減少計算量提高檢測實時性。獲取的感興趣區域圖像如圖 3b 列所示。
3. 假設驗證(HV)
3.1 圖像分割
前方車輛尾燈對的灰度級與路面及背景的灰度級有明顯區別,采用閾值分割的方法可以快速準確地將尾燈對分割出來。
本文采用改進的 OTSU 算法分割圖像,凸顯出表征車輛特征的尾燈部分。改進的 OTSU 算法是以傳統 OTSU 為基礎,從最小灰度值到最大灰度值遍歷,當灰度 T 使得方差 σ^2 = w_0*w_1*(μ_0-μ_1)^2 最大時,再次利用傳統 OTSU 對圖像中大于 T 的部分從灰度 T 到最大灰度值遍歷,得到閾值 T0 使大于灰度值 T 的部分的方差最大,提取閾值 T0,用 T0 對感興趣區域圖像進行二值化分割,目標灰度為 1,背景灰度為 0。
圖 4 分割后圖像
分割后的圖像如圖 4 所示。
-
機器視覺
+關注
關注
162文章
4375瀏覽量
120345 -
雷達
+關注
關注
50文章
2937瀏覽量
117553
發布評論請先 登錄
相關推薦
評論