CN102509098B - 一种鱼眼图像车辆识别方法 - Google Patents
一种鱼眼图像车辆识别方法 Download PDFInfo
- Publication number
- CN102509098B CN102509098B CN 201110299504 CN201110299504A CN102509098B CN 102509098 B CN102509098 B CN 102509098B CN 201110299504 CN201110299504 CN 201110299504 CN 201110299504 A CN201110299504 A CN 201110299504A CN 102509098 B CN102509098 B CN 102509098B
- Authority
- CN
- China
- Prior art keywords
- prime
- vehicle
- image
- shadow
- width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 239000013598 vector Substances 0.000 claims abstract description 40
- 239000011159 matrix material Substances 0.000 claims description 32
- 230000011218 segmentation Effects 0.000 claims description 29
- 238000012360 testing method Methods 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 20
- 238000012937 correction Methods 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 230000035945 sensitivity Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000000877 morphologic effect Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 abstract description 8
- 238000000605 extraction Methods 0.000 abstract description 7
- 230000006872 improvement Effects 0.000 abstract description 4
- 238000000926 separation method Methods 0.000 abstract 1
- 230000008901 benefit Effects 0.000 description 7
- 238000003702 image correction Methods 0.000 description 7
- 238000012706 support-vector machine Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003760 hair shine Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种鱼眼图像车辆识别方法,属于车辆识别领域,所述方法包括以下步骤:用鱼眼摄像机获取鱼眼图像;对所述鱼眼图像进行校正,获取校正后鱼眼图像;以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域;对所述车辆候选区域进行分类,识别车辆和非车辆。本发明通过检测车辆的固有特征,并且把这些特征有效地融合起来可以提高车辆分割的准确率,保证了后续的车辆识别快速准确的进行;该方法从另外一个角度对车辆和非车辆进行分类,不受特征向量提取方式的影响,在识别率和识别算法复杂性方面都有很大的改进。
Description
技术领域
本发明涉及车辆识别领域,特别涉及一种鱼眼图像车辆识别方法,用于在智能交通系统中有效地进行交通路况监测和避免交通事故发生。
背景技术
随着车辆的不断增多,通过对车辆进行计算机信息化、智能化的管理成为必然,车辆识别技术是智能交通系统的重要组成部分,广泛应用在交通自动管理系统和车辆辅助驾驶系统中。长期以来,各国研究机构对车辆识别技术在不断改进,对识别率的要求也在不断提高。车辆识别技术主要有以下两类方法:
一种方法是基于模板匹配的方法,这种方法利用预先定义的车辆模板,建立图像中的车辆和模板的关系。常见的模板匹配方法认为车辆具有“U”型样式,如果在候选区域中有“U”型样式出现就认为图像中有车辆存在。基于模板匹配的方法简单,计算速度快,但是由于道路上存在和车辆样式相近的物体,因此误识别率较高。
另外一种方法是基于特征的方法。这种方法对大量的训练样本进行特征提取,根据车辆和非车辆特征来建立一个最优决策边界对车辆和非车辆进行分类。在特征提取阶段常见的方法有主元分析法(PCL),Haar小波特征提取法,Gabor特征提取法等。在分类器设计阶段,常见的分类器有支持向量机(SVM),AdaBoost和基于神经网络(NN)的分类器等。基于特征的车辆识别方法有很好的识别性能,但计算过程相对复杂,有待于在实时性方面进一步改进。
发明内容
本发明要解决的技术问题在于提供一种鱼眼图像车辆识别方法,该方法降低了误识别率、计算过程的复杂度,实时的对车辆进行识别,详见下文描述:
一种鱼眼图像车辆识别方法,所述方法包括以下步骤:
101:用鱼眼摄像机获取鱼眼图像;
102:对所述鱼眼图像进行校正,获取校正后鱼眼图像;
103:以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域;
104:对所述车辆候选区域进行分类,识别车辆和非车辆;
其中,步骤102中所述对所述鱼眼图像进行校正,获取校正后鱼眼图像具体为:
建立校正图像坐标系中点(u′,v′)和校正相机坐标系中点(x′,y′,z′)之间的映射关系;
根据校正相机坐标系到世界坐标系的旋转矩阵R′cw1,将校正相机坐标系中点(x′,y′,z′)转换到世界坐标系中点(x,y,z);其中
R′cw1=R′wc1 -1
根据世界坐标系到鱼眼相机坐标系的旋转矩阵R″wc2,将世界坐标系中点(x,y,z)转换到鱼眼相机坐标系中点(x″,y″,z″);其中
通过3维鱼眼摄像机到2维相机平面的转换矩阵G,建立(x″,y″,z″)到鱼眼相机平面(u″,v″)的映射关系,获取所述校正后鱼眼图像;其中
鱼眼图像中的像素坐标和校正平面中的像素坐标映射关系为:
其中,步骤103中所述以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域具体为:
(1)判断所述校正后鱼眼图像消失线上方区域的灰度值是否大于设定的阈值T,如果是,则车辆当前环境为白天;否则车辆当前环境为夜晚;
(2)当前环境为白天采用基于多特征融合的车辆假设,具体方法包括:
提取车辆阴影,其中,设R表示垂直方向的对比敏感度值Pdown,Pup是像素灰度值,设置对比敏感度阈值为T1,图像的灰度阈值为T2,定义满足R>T1并且灰度值小于T2的点为车辆阴影点,获取车辆阴影点的二值图;
计算实际车辆阴影在图像中的像素宽度,对所述校正后鱼眼图像进行粗分割,获取粗分割区域;
设车辆阴影点在世界坐标系中的坐标为(X,Y,Z),其中Y为鱼眼摄像机的高度,Z为车辆阴影点距鱼眼摄像机的距离,设车辆阴影的实际宽度为Rwidth,根据小孔成像原理,获取车辆阴影在图像中的最小像素宽度和最大像素宽度;
其中,PixelWidth是车辆阴影的像素宽度,f是鱼眼摄像机的焦距,dx是径向畸变系数;车辆阴影在图像中的最小像素宽度和最大像素宽度;
对所述粗分割区域进行直方图均衡化处理,通过阴影长度阈值WT获取车辆下边缘;
其中,Vi,j表示在(i,j)处的图像灰度值,h表示粗分割区域的高度,w表示粗分割区域的宽度;在车辆阴影区域中自下往上找到一条宽度大于WT的边作为车辆下底边;
计算所述粗分割区域的二值轮廓对称轴;
计算所述粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴;
对所述二值轮廓对称轴、所述灰度对称轴和所述S分量对称轴进行融合处理,准确获取车辆对称轴的位置;
通过垂直Sobel算子在粗分割区域内提取垂直边缘,并且对垂直边缘进行垂直投影,结合车辆对称轴的位置确定车辆左右边缘;
(3)当前环境为黑天采用基于车灯检测的车辆假设,具体方法包括:
对所述粗分割区域进行中值滤波处理,用最大类间方差法产生一个灰度阈值T,图像中灰度值大于T则是光亮目标物,即潜在的车灯;
应用形态学选取合适的结构元素对光亮目标物进行先腐蚀后膨胀的处理,得到连通区域,记为Ci,(i=1,2,K,p),将满足组合规则的连通区域组合成车灯对,以车灯对的左边作为车辆左边缘,右边作为车辆右边缘;
其中,每个区域的上、下、左、右边界分别记为t(Ci)、b(Ci)、l(Ci)、r(Ci),所述组合规则具体为:
两个连通区域的中心连线是一条水平线;
两个连通区域的面积相似;
两个连通区域之间的水平距离定义为:
Width(B)=max[r(Ci),r(Cj)]-min[l(Ci),l(Cj)]
Width(B)需要满足实际车辆头灯之间距离的范围;
两个连通区域形成的矩形框的高度定义为:
Height(B)=max[(b(Ci)-t(Ci)),(b(Cj)-t(Cj))]
矩形框的纵横比满足:
Width(B)/Height(B)≥Thar
一般取Thar为2;
确定车底阴影的搜索范围,在搜索范围中计算阴影阈值,利用所述阴影阈值对搜索范围进行二值化,图像灰度值大于Tmin,并且小于Tmax的像素被认为是车底阴影点,从下到上搜索阴影点个数大于某个长度阈值LT的行作为车辆下边缘;
其中,
Height,Width表示搜索范围的高和宽,N=Width×Height。
所述计算所述粗分割区域的二值轮廓对称轴具体为:
(a)用Sobel算子在所述粗分割区域内抽取轮廓图像;
(b)设定所述粗分割区域内实际车辆在图像中的最小宽度和最大宽度阈值W_min,W_max;
(c)构造对称轴计数器数组A[col],并初始化为零数组;
(d)在所述粗分割区域内,计算每一行中的任意两个边缘点P1(x1,y1),P2(x2,y2)之间的距离和对称轴;
(e)如果两个边缘点的距离满足:distance>W_min且distance<W_max,则计数A[axis]=A[axis]+1;
(f)对所述粗分割区域内不同的行重复执行步骤(d)和(e),得到对称轴计数器数组A[col];
(g)获取所述对称轴计数器数组A[col]中最大的元素,其所对应的列就是二值轮廓对称轴。
所述计算所述粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴具体包括:
(a)在所述粗分割区域内抽取车底阴影,计算车底阴影的底边所在的行Row及车底阴影的左右边界Xl和Xr;
(b)计算车底阴影的宽度W=Xr-Xl;按下述公式计算灰度对称轴或HSV色彩空间的S分量对称轴,
其中,H=0.9W,P(x,y)为图像的灰度值或S分量值,jsym即为所求的灰度对称轴或HSV色彩空间的S分量对称轴。
步骤104中的所述对车辆候选区域进行分类,识别车辆和非车辆具体为:
(1)在车辆候选区域中选择Q个车辆训练样本和Q个非车辆训练样本;
(2)把所述Q个车辆训练样本转换为第一灰度图像,统一大小为m×n,mn=d;
(3)利用Sobel算子计算车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V1i,(i=1,2,…,Q),梯度向量形成矩阵A1=[V1,1,V1,2,…,V1,Q];利用Sobel算子计算非车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V2i,(i=1,2,…,Q),梯度向量形成矩阵A2=[V2,1,V2,2,…,V2,Q],定义矩阵A=[A1,A2]为基矩阵;
(4)将所述车辆候选区域转化为第二灰度图像,并且统一大小为m×n,将第二灰度图像定义为测试样本,计算每个测试样本的梯度向量,记为y;如果测试样本为车辆样本,梯度向量y表示为V1,1,V1,2,…,V1,Q的线性组合,即y=a1,1V1,1+a1,2V1,2+…+a1,QV1,Q;如果测试样本为非车辆样本,梯度向量y表示为V2,1,V2,2,…,V2,Q的线性组合,即y=a2,1V2,1+a2,2V2,2+…+a2,QV2,Q;
(5)通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数;
(7)根据i=1,2计算残差,若r1<r2,则测试样本为车辆样本;否则测试样本为非车辆样本。
所述通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数具体为:
(b)在第s次迭代中,计算cs=ATrs-1;其中rs-1是第s-1次迭代产生的残差,计算方法见步骤(f).
(c)选择cs中元素绝对值大于某个阈值所对应的指标集合,即Js={j:|c(j)|>tsσs},
其中n为残差rs-1向量长度,ts根据具体情况
在2到3间取值,即2≤ts≤3;
(d)更新估计的指标集合Λs=Λs-1∪Js;
(f)更新残差rs=y-Axs;
本发明提供的一种鱼眼图像车辆识别方法,与现有技术相比具有如下的优点:
鱼眼图像可以提供比正常图像更加丰富的信息,基于柱面模型的鱼眼图像校正方法可以有效地完成图像校正,恢复真实场景中的水平边缘和垂直边缘信息,为后续的车辆识别提供可靠的保障;通过检测车辆的固有特征,并且把这些特征有效地融合起来可以提高车辆分割的准确率,保证了后续的车辆识别快速准确的进行;该方法从另外一个角度对车辆和非车辆进行分类,不受特征向量提取方式的影响,在识别率和识别算法复杂性方面都有很大的改进。
附图说明
图1为本发明提供的一种鱼眼图像车辆识别方法的流程图;
图2为本发明提供的鱼眼图像校正流程图;
图3为本发明提供的车辆候选区域的示意图;
图4为本发明提供的识别车辆和非车辆的示意图;
图5-1和图5-2为本发明提供的车辆样本梯度向量在基矩阵下的稀疏解示意图;
图6-1和图6-2为本发明提供的非车辆样本梯度向量在基矩阵下的稀疏解示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
压缩采样理论是近几年出现的一种新颖的理论。它可以在采样信号的同时对数据进行适当的压缩,在采样过程中寻找最少的系数来表示信号,并能用适当的重构算法从压缩数据中恢复出原始信号。压缩采样理论具有巨大的吸引力和应用前景,它的应用研究已经涉及到众多领域,如CS雷达、图像处理、生物传感和模式识别等。它可以通过对要识别的目标进行稀疏表示,根据所得到的最稀疏解直接进行分类。这样对车辆识别技术在识别率和实时性方面都有很大改进。
参见图1,一种鱼眼图像车辆识别方法,该方法主要包括以下步骤:
101:用鱼眼摄像机获取鱼眼图像;
102:对鱼眼图像进行校正,获取校正后鱼眼图像;
其中,通过对鱼眼图像进行校正恢复人眼对真实场景的正确理解,参见图2,该步骤具体包括:
以相机光心为原点,建立世界坐标系O,X轴指向车辆前方,Z轴指向地面。建立校正后图像坐标系O′,其各轴角度位置由世界坐标系分别绕X轴旋转α′,绕Y轴旋转β′,绕Z轴旋转γ′得到。建立图像拍摄时的鱼眼摄像机坐标系O″,其各轴角度位置由世界坐标系分别绕X轴旋转α″,绕Y轴旋转β″,绕Z轴旋转γ″得到。设校正相机平面为O(u′,v′),中心所在的空间位置在O′中坐标为(f′,u′0,v′0),实际相机平面为O(u″,v″),中心所在的空间位置在O″中坐标为(f″,u″0,v″0),设两个成像平面的分辨率分别为dx′,dy′与dx″,dy″。校正的关键是建立(u″,v″)与(u′,v′)之间的映射。
(1)建立校正图像坐标系中点(u′,v′)和校正相机坐标系中点(x′,y′,z′)之间的映射关系;
(2)根据校正相机坐标系到世界坐标系的旋转矩阵R′cw1,将校正相机坐标系中点(x′,y′,z′)转换到世界坐标系中点(x,y,z);其中
R′cw1=R′wc1 -1
(3)根据世界坐标系到鱼眼相机坐标系的旋转矩阵R″wc2,将世界坐标系中点(x,y,z)转换到鱼眼相机坐标系中点(x″,y″,z″);其中
(4)通过3维鱼眼摄像机到2维相机平面的转换矩阵G,建立(x″,y″,z″)到鱼眼相机平面(u″,v″)的映射关系,获取校正后鱼眼图像;其中
联立上面的等式,就可以得到鱼眼图像中的像素坐标和校正平面中的像素坐标映射关系为:
通过图像校正公式(1)建立了鱼眼图像坐标和校正平面坐标的映射关系,进而完成鱼眼图像校正任务,来恢复人眼对真实场景的正确理解。上述实施方案算法简单,校正后信息损失小,有效地保持了真实场景中的水平和垂直边缘,为后续的车辆假设验证和车辆假设产生提供可靠保证。
103:以校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域;
参照附图3,鱼眼图像校正后,以校正后鱼眼图像为基础进行车辆假设产生步骤,针对当前环境是白天还是夜晚采用不同的车辆假设产生方法。
判断校正后鱼眼图像消失线上方区域的灰度值是否大于设定的阈值T,如果是,则车辆当前环境为白天,否则车辆当前环境为夜晚。
当前环境为白天采用基于多特征融合的车辆假设,具体方法包括:
(1)提取车辆阴影;
由于车辆阴影区域和相邻的道路区域有比较明显的灰度变化,利用对比敏感度来提取阴影。
其中,设R表示垂直方向的对比敏感度值Pdown,Pup是像素灰度值,设置对比敏感度阈值为T1,图像的灰度阈值为T2,定义满足R>T1并且灰度值小于T2的点为可能的车辆阴影点,这样可以得到表示车辆阴影点的二值图。
(2)计算实际车辆阴影在图像中的像素宽度,对校正后鱼眼图像进行粗分割,获取粗分割区域;
设车辆阴影点在世界坐标系中的坐标为(X,Y,Z),其中Y为鱼眼摄像机的高度,Z为车辆阴影点距鱼眼摄像机的距离。根据鱼眼摄像机的成像原理,可以计算出车辆阴影点和鱼眼摄像机之间的距离Z。设车辆阴影的实际宽度为Rwidth,根据小孔成像原理,车辆阴影在图像中的像素宽度表示如下:
其中,PixelWidth是车辆阴影的像素宽度,Z是车辆与车辆阴影的实际距离,f是鱼眼摄像机的焦距,dx是径向畸变系数。现实场景中要求在世界坐标系中车辆的最小宽度为1.2m,最大宽度为2.8m。因此通过上面的公式(2),可以得到车辆阴影在图像中的最小像素宽度和最大像素宽度。
对校正后鱼眼图像可能的车辆区域进行粗分割,利用检测到的连续的车辆阴影点做为粗分割区域的下边,车辆阴影点的两端做为粗分割区域的左右两边。得到的粗分割区域缩小了进行车辆假设产生的图像区域,提高车辆分割的速度和准确率。
(3)对粗分割区域进行直方图均衡化处理,通过阴影长度阈值WT获取车辆下边缘;
其中,通过对粗分割区域进行直方图均衡化处理,使得车底阴影区域的灰度值比其他区域更低,利用粗分割区域的图像灰度值来形成阴影检测的一个阈值:
其中,Vi,j表示在(i,j)处的图像灰度值,h表示粗分割区域的高度,w表示粗分割区域的宽度。定义粗分割区域的灰度值小于T的点为车底阴影点。再根据鱼眼摄像机成像原理,车底边缘所在的行不同,得到不同的阴影长度阈值WT,然后在车辆阴影区域中自下往上找到一条宽度大于WT的边作为车辆下底边。这样就可以很准确的定位车辆下边缘。
(4)计算粗分割区域的二值轮廓对称轴;
其中,该步骤具体包括:
(a)用Sobel算子在粗分割区域ROI内抽取轮廓图像IMG;
(b)设定该粗分割区域ROI内实际车辆在图像中的最小宽度和最大宽度阈值W_min,W_max;
(c)构造对称轴计数器数组A[col],并初始化为零数组;
(d)在粗分割区域ROI内,计算每一行中的任意两个边缘点P1(x1,y1),P2(x2,y2)之间的距离和对称轴;
(e)如果两个边缘点的距离满足:distance>W_min且distance<W_max,则计数A[axis]=A[axis]+1;
(f)对粗分割区域ROI内不同的行重复执行步骤(d)和(e),得到对称轴计数器数组A[col];
(g)获取对称轴计数器数组A[col]中最大的元素,其所对应的列就是二值轮廓对称轴。
(5)计算粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴;
其中,该步骤具体包括:
(a)在粗分割区域ROI内抽取车底阴影,计算车底阴影的底边所在的行Row及车底阴影的左右边界Xl和Xr;
(b)计算车底阴影的宽度W=Xr-Xl;按公式(4),(5)计算灰度对称轴或HSV色彩空间的S分量对称轴,
其中,H=0.9W,P(x,y)为图像的灰度值或S分量值,jsym即为所求的灰度对称轴或HSV色彩空间的S分量对称轴。
(6)对二值轮廓对称轴、灰度对称轴和S分量对称轴进行融合处理,准确获取车辆对称轴的位置;
二值轮廓对称的优点是不容易受光照的影响,但是二值轮廓对称容易受背景等噪声的影响,如电线杆、树木、楼房等;灰度对称性的优点是不容易受背景影响,但是灰度对称容易受光照的影响;HSV色彩空间是以色彩的色调(H),饱和度(S),亮度(V)为三要素表示的,是适合人的视觉特性的色彩空间。其中S分量是与材料特性有关的分量,受光照影响较小,但受车身颜色影响较大。因此有效地结合它们各自的信息进行融合,避免了使用各种对称轴的固有缺点,充分利用各自的优点,得到准确的对称轴位置,不易受外界因素干扰。
(7)通过垂直Sobel算子在粗分割区域内提取垂直边缘,并且对垂直边缘进行垂直投影,结合车辆对称轴的位置确定车辆左右边缘。
其中,粗分割区域内车辆的两边会形成较明显的波峰。然后,基于对称性约束进行边缘过滤,去掉关于车辆对称轴不对称的边缘点,这样就得到了一个更加简单对称的区域。在得到过滤后的垂直边缘图像后,在车辆对称轴的左右离开车辆对称轴一定范围的区域内分别投影,找出两个投影区域的最大值作为车辆的一个边缘,利用对称性得到另一个边缘,从而比较准确地定位车辆的左右边缘。
根据车辆下边缘和车辆左右边缘,确定车辆候选区域,完成车辆在白天环境下的车辆假设产生步骤,其得到的候选区域可能是车辆也可能是非车辆,需要车辆假设验证系统来对其进行验证。车辆的自身特征为车辆检测算法的研究提供了丰富的信息,针对于白天道路环境,使用车底阴影、对称性、垂直和水平边缘等多特征知识,并进行有效地融合,可以更加可靠准确地在图像中分割车辆。
参见图3,当前环境为黑天采用基于车灯检测的车辆假设,具体方法包括:
(1)对粗分割区域进行中值滤波处理,用最大类间方差法(OTSU)[1]产生一个灰度阈值T,图像中灰度值大于T则是光亮目标物,即潜在的车灯;
其中,获取粗分割区域的方法和当前环境为白天时的获取方法一致,在此不再赘述。
(2)应用形态学选取合适的结构元素对光亮目标物进行先腐蚀后膨胀的处理,得到连通区域,记为Ci,(i=1,2,K,p),将满足组合规则的连通区域组合成车灯对,以车灯对的左边作为车辆左边缘,右边作为车辆右边缘;
通过该步骤去除了一些形状不合理的光亮目标物及去掉车辆头灯造成的尖刺,这样可以减少夜晚其他光源对车灯检测的干扰。
其中,每个区域的上、下、左、右边界分别记为t(Ci)、b(Ci)、l(Ci)、r(Ci),两个连通区域需要满足下面的组合规则才能被认为是一组车灯:
两个连通区域的中心连线几乎是一条水平线;
两个连通区域的面积相似;
两个连通区域之间的水平距离定义为:
Width(B)=max[r(Ci),r(Cj)]-min[l(Ci),l(Cj)]
Width(B)需要满足实际车辆头灯之间距离的范围;
两个连通区域形成的矩形框的高度定义为:
Height(B)=max[(b(Ci)-t(Ci)),(b(Cj)-t(Cj))]
矩形框的纵横比满足:
Width(B)/Height(B)≥Thar
一般取Thar为2。
(3)确定车底阴影的搜索范围,在搜索范围中计算阴影阈值,利用阴影阈值对搜索范围进行二值化,图像灰度值大于Tmin,并且小于Tmax的像素被认为是车底阴影点,从下到上搜索阴影点个数大于某个长度阈值LT的行作为车辆下边缘。
其中,由于头灯光源照射地面,头灯照在地面在两个灯下形成区域比两灯中间区域要暗,会出现车底阴影区域。确定车底阴影的搜索范围,在搜索范围中计算阴影阈值
Height,Width表示搜索范围的高和宽,N=Width×Height。
在夜晚,白天车辆的特征变得模糊甚至消失,车辆头灯成为了车辆在夜晚环境下显著的视觉特征。上述在夜晚环境下的车辆假设产生方法,可以有效地排除其他光源对车灯检测的影响,提高了在夜晚环境下车辆分割的准确率。
104:对车辆候选区域进行分类,识别车辆和非车辆。
参见图4,上述的车辆分割结果即车辆候选区域,车辆候选区域中可能是车辆,也可能是和车辆特征非常相似的其他物体,下面的车辆假设验证步骤就是对车辆候选区域进行分类,来判断车辆候选区域中是否有车辆存在。本发明实施方案利用压缩采样理论对车辆分割结果进行车辆和非车辆的分类。
该步骤具体为:
S401:在车辆候选区域中选择Q个车辆训练样本和Q个非车辆训练样本;
S402:把Q个车辆训练样本转换为第一灰度图像,统一大小为m×n,mn=d;
S403:利用Sobel算子计算车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V1i,(i=1,2,…,Q),梯度向量形成矩阵A1=[V1,1,V1,2,…,V1,Q];利用Sobel算子计算非车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V2i,(i=1,2,…,Q),梯度向量形成矩阵A2=[V2,1,V2,2,…,V2,Q],定义矩阵A=[A1,A2]为基矩阵;
S404:将车辆候选区域转化为第二灰度图像,并且统一大小为m×n,将第二灰度图像定义为测试样本,计算每个测试样本的梯度向量,记为y;如果测试样本为车辆样本,梯度向量y表示为V1,1,V1,2,…,V1,Q的线性组合,即y=a1,1V1,1+a1,2V1,2+…+a1,QV1,Q;如果测试样本为非车辆样本,梯度向量y表示为V2,1,V2,2,…,V2,Q的线性组合,即y=a2,1V2,1+a2,2V2,2+…a2,QV2,Q;
S405:通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数;
其中,该步骤具体包括:
b.在第s次迭代中,计算cs=ATrs-1;其中rs-1是第s-1次迭代产生的残差,计算方法见步骤f.
c.选择cs中元素绝对值大于某个阈值所对应的指标集合,即
d.更新估计的指标集合Λs=Λs-1∪Js;
e.在指标集合Λs下的稀疏表示为其中(xs)Λs表示在xs中指标不属于Λs的元素都为零;
f.更新残差rs=y-Axs;
这样就得到测试样本梯度向量y在基矩阵A下的稀疏系数,稀疏系数记为
参见图5-1、图5-2、图6-1和图6-2,通过上述方法求得的稀疏系数非零元素很稀疏,而且非零项并没有分布在各类上,如果y表示车辆测试样本的梯度向量,则稀疏系数非零项主要集中在车辆这类上;如果y表示非车辆测试样本的梯度向量,则稀疏系数非零项主要集中在非车辆这类上。
下面以具体的试验来验证本发明实施例的可行性,详见下文描述:
为了验证本发明实施例的可行性,把本发明实施例与常见的最近邻法(NN)和支持向量机(SVM)车辆识别方法进行比较,在MATLAB环境下进行了仿真测试。利用鱼眼摄像机拍摄正常天气、雨天和夜晚环境下的道路视频,对各种天气情况下的道路视频图像进行矫正,采用多特征融合的方法对矫正后的视频图像进行车辆候选区域提取,从中选择350个车辆训练样本和350个非车辆训练样本,将训练样本和测试样本统一转换为大小为12×10的灰度图像,利用Sobel算子计算他们对应的梯度,按列排列为大小为120×1的梯度向量,然后再利用本发明实施例提供的识别方法求出测试样本对应的稀疏梯度向量,利用稀疏梯度向量完成车辆和非车辆的分类和识别。经过大量的实验比较,采用NN车辆识别方法达到的识别率是92.1%,采用SVM车辆识别方法的识别率是95.0%,采用本发明实施例识别率达到98.2%。因此本发明实施例和现有的车辆识别系统比较,分类算法简单,并且具有更高的识别率。
参考文献
[1]景晓军,蔡安妮,孙景鳌.一种基于二维最大类间方差的图像分割算法[J],通信学报,2001,22(4):71-76.
综上所述,本发明实施例提供了一种鱼眼图像车辆识别方法,鱼眼图像可以提供比正常图像更加丰富的信息,基于柱面模型的鱼眼图像校正方法可以有效地完成图像校正,恢复真实场景中的水平边缘和垂直边缘信息,为后续的车辆识别提供可靠的保障;通过检测车辆的固有特征,并且把这些特征有效地融合起来可以提高车辆分割的准确率,保证了后续的车辆识别快速准确的进行;该方法从另外一个角度对车辆和非车辆进行分类,不受特征向量提取方式的影响,在识别率和识别算法复杂性方面都有很大的改进。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种鱼眼图像车辆识别方法,其特征在于,所述方法包括以下步骤:
101:用鱼眼摄像机获取鱼眼图像;
102:对所述鱼眼图像进行校正,获取校正后鱼眼图像;
103:以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域;
104:对所述车辆候选区域进行分类,识别车辆和非车辆;
其中,步骤102中所述对所述鱼眼图像进行校正,获取校正后鱼眼图像具体为:
建立校正图像坐标系中点(u',v′)和校正相机坐标系中点(x′,y′,z′)之间的映射关系;
根据校正相机坐标系到世界坐标系的旋转矩阵R′cw1,将校正相机坐标系中点(x',y',z')转换到世界坐标系中点(x,y,z);其中
R′cw1=R′wc1 -1
根据世界坐标系到鱼眼相机坐标系的旋转矩阵R″wc2,将世界坐标系中点(x,y,z)转换到鱼眼相机坐标系中点(x",y",z");其中
通过3维鱼眼摄像机到2维相机平面的转换矩阵G,建立(x",y",z")到鱼眼相机平面(u",v")的映射关系,获取所述校正后鱼眼图像;其中
鱼眼图像中的像素坐标和校正平面中的像素坐标映射关系为:
其中,建立校正后图像坐标系O′,其各轴角度位置由世界坐标系分别绕X轴旋转α',绕Y轴旋转β′,绕Z轴旋转γ'得到;建立图像拍摄时的鱼眼摄像机坐标系O″,其各轴角度位置由世界坐标系分别绕X轴旋转α",绕Y轴旋转β″,绕Z轴旋转γ"得到;设校正相机平面为O(u′,v′),中心所在的空间位置在O′中坐标为(f',u′0,v′0),实际相机平面为O(u",v"),中心所在的空间位置在O″中坐标为(f",u″0,v″0),设两个成像平面的分辨率分别为dx′,dy′与dx",dy";柱面展开图展开角度间隔dθ为:其中f为相机焦距;
其中,步骤103中所述以所述校正后鱼眼图像为基础,根据车辆当前环境分别获取车辆下边缘和车辆左右边缘,得到车俩候选区域具体为:
(1)判断所述校正后鱼眼图像消失线上方区域的灰度值是否大于设定的阈值T,如果是,则车辆当前环境为白天;否则车辆当前环境为夜晚;
(2)当前环境为白天采用基于多特征融合的车辆假设,具体方法包括:
提取车辆阴影,其中,设R表示垂直方向的对比敏感度值Pdown,Pup是像素灰度值,设置对比敏感度阈值为T1,图像的灰度阈值为T2,定义满足R>T1并且灰度值小于T2的点为车辆阴影点,获取车辆阴影点的二值图;
计算实际车辆阴影在图像中的像素宽度,对所述校正后鱼眼图像进行粗分割,获取粗分割区域;
设车辆阴影点在世界坐标系中的坐标为(X,Y,Z),其中Y为鱼眼摄像机的高度,Z为车辆阴影点距鱼眼摄像机的距离,设车辆阴影的实际宽度为Rwidth,根据小孔成像原理,获取车辆阴影在图像中的最小像素宽度和最大像素宽度;
其中,PixelWidth是车辆阴影的像素宽度,f是鱼眼摄像机的焦距,dx是径向畸变系数;车辆阴影在图像中的最小像素宽度和最大像素宽度;
对所述粗分割区域进行直方图均衡化处理,通过阴影长度阈值WT获取车辆下边缘;
其中,Vi,j表示在(i,j)处的图像灰度值,h表示粗分割区域的高度,w表示粗分割区域的宽度;在车辆阴影区域中自下往上找到一条宽度大于WT的边作为车辆下底边;
计算所述粗分割区域的二值轮廓对称轴;
计算所述粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴;
对所述二值轮廓对称轴、所述灰度对称轴和所述S分量对称轴进行融合处理,准确获取车辆对称轴的位置;
通过垂直Sobel算子在粗分割区域内提取垂直边缘,并且对所述垂直边缘进行垂直投影,结合所述车辆对称轴的位置确定所述车辆左右边缘;
(3)当前环境为黑天采用基于车灯检测的车辆假设,具体方法包括:
对所述粗分割区域进行中值滤波处理,用最大类间方差法产生一个灰度阈值T,图像中灰度值大于T则是光亮目标物,即潜在的车灯;
应用形态学选取合适的结构元素对光亮目标物进行先腐蚀后膨胀的处理,得到连通区域,记为Ci,i=1,2,…,p,将满足组合规则的连通区域组合成车灯对,以车灯对的左边作为车辆左边缘,右边作为车辆右边缘;
其中,每个区域的上、下、左、右边界分别记为t(Ci)、b(Ci)、l(Ci)、r(Ci),所述组合规则具体为:
两个连通区域的中心连线是一条水平线;
两个连通区域的面积相似;
两个连通区域之间的水平距离定义为:
Width(B)=max[r(Ci),r(Cj)]-min[l(Ci),l(Cj)]
Width(B)需要满足实际车辆头灯之间距离的范围;
两个连通区域形成的矩形框的高度定义为:
Height(B)=max[(b(Ci)-t(Ci)),(b(Cj)-t(Cj))]
矩形框的纵横比满足:
Width(B)/Height(B)≥Thar
确定车底阴影的搜索范围,在搜索范围中计算阴影阈值,利用所述阴影阈值对搜索范围进行二值化,图像灰度值大于Tmin,并且小于Tmax的像素被认为是车底阴影点,从下到上搜索阴影点个数大于某个长度阈值LT的行作为车辆下边缘;
其中,
Height,Width表示搜索范围的高和宽,N=Width×Height;
其中,所述计算所述粗分割区域的二值轮廓对称轴具体为:
(a)用Sobel算子在所述粗分割区域内抽取轮廓图像;
(b)设定所述粗分割区域内实际车辆在图像中的最小宽度和最大宽度阈值W_min,W_max;
(c)构造对称轴计数器数组A[col],并初始化为零数组;
(d)在所述粗分割区域内,计算每一行中的任意两个边缘点P1(x1,y1),P2(x2,y2)之间的距离和对称轴;
(e)如果两个边缘点的距离满足:distance>W_min且distance<W_max,则计数A[axis]=A[axis]+1;
(f)对所述粗分割区域内不同的行重复执行步骤(d)和(e),得到对称轴计数器数组A[col];
(g)获取所述对称轴计数器数组A[col]中最大的元素,其所对应的列就是所述二值轮廓对称轴;
其中,所述计算所述粗分割区域的灰度对称轴和HSV色彩空间的S分量对称轴具体包括:
(a)在所述粗分割区域内抽取车底阴影,计算车底阴影的底边所在的行Row及车底阴影的左右边界Xl和Xr;
(b)计算车底阴影的宽度W=Xr-Xl;按下述公式计算灰度对称轴或HSV色彩空间的S分量对称轴,
其中,H=0.9W,P(x,y)为图像的灰度值或S分量值,jsym即为所求的灰度对称轴或HSV色彩空间的S分量对称轴;
其中,步骤104中的所述对车辆候选区域进行分类,识别车辆和非车辆具体为:
(1)在车辆候选区域中选择Q个车辆训练样本和Q个非车辆训练样本;
(2)把所述Q个车辆训练样本转换为第一灰度图像,统一大小为m×n,mn=d;
(3)利用Sobel算子计算车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V1i,i=1,2,…,Q,梯度向量形成矩阵A1=[V1,1,V1,2,…,V1,Q];利用Sobel算子计算非车辆训练样本图像的梯度,并按列排成维数为d×1的梯度向量V2i,i=1,2,…,Q,梯度向量形成矩阵A2=[V2,1,V2,2,…,V2,Q],定义矩阵A=[A1,A2]为基矩阵;
(4)将所述车辆候选区域转化为第二灰度图像,并且统一大小为m×n,将第二灰度图像定义为测试样本,计算每个测试样本的梯度向量,记为y;如果测试样本为车辆样本,梯度向量y表示为V1,1,V1,2,…,V1,Q的线性组合,即y=a1,1V1,1+a1,2V1,2+…+a1,QV1,Q;如果测试样本为非车辆样本,梯度向量y表示为V2,1,V2,2,…,V2,Q的线性组合,即y=a2,1V2,1+a2,2V2,2+…+a2,QV2,Q;
(5)通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数;
(7)根据i=1,2计算残差,若r1<r2,则测试样本为车辆样本;否则测试样本为非车辆样本。
2.根据权利要求1所述的一种鱼眼图像车辆识别方法,其特征在于,所述通过正交化匹配追踪迭代获取y在基矩阵A下的稀疏系数具体为:
(b)在第s次迭代中,计算cs=ATrs-1;其中rs-1是第s-1次迭代产生的残差,计算方法见步骤(f);
(d)更新估计的指标集合Λs=Λs-1∪Js;
(f)更新残差rs=y-Axs;
(g)如果||rs||2≤10-3,||rs||2是向量rs的2范数,令y在基矩阵A下的稀疏表示
终止迭代;否则,令s=s+1,重复步骤(b)到(g),稀疏系数记为
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110299504 CN102509098B (zh) | 2011-10-08 | 2011-10-08 | 一种鱼眼图像车辆识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110299504 CN102509098B (zh) | 2011-10-08 | 2011-10-08 | 一种鱼眼图像车辆识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102509098A CN102509098A (zh) | 2012-06-20 |
CN102509098B true CN102509098B (zh) | 2013-05-15 |
Family
ID=46221179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110299504 Expired - Fee Related CN102509098B (zh) | 2011-10-08 | 2011-10-08 | 一种鱼眼图像车辆识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102509098B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304750A (zh) * | 2017-01-13 | 2018-07-20 | 比亚迪股份有限公司 | 前方车辆识别方法、装置及车辆 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184756B (zh) * | 2013-09-04 | 2018-03-09 | 北京英泰智软件技术发展有限公司 | 一种鱼眼镜头的图像校正方法 |
TWI521448B (zh) * | 2014-03-18 | 2016-02-11 | Univ Yuan Ze | Vehicle identification system and method |
US9437001B2 (en) * | 2014-09-18 | 2016-09-06 | Intel Corporation | Tracking objects in bowl-shaped imaging systems |
CN104463170A (zh) * | 2014-12-04 | 2015-03-25 | 江南大学 | 一种卡口系统下基于多重检测的无牌车辆检测方法 |
CN105809131B (zh) * | 2016-03-08 | 2019-10-15 | 宁波裕兰信息科技有限公司 | 一种基于图像处理技术进行车位积水检测的方法及系统 |
CN107578632A (zh) * | 2016-07-05 | 2018-01-12 | 奥迪股份公司 | 交通密度检测系统、交通工具及方法 |
CN106407895A (zh) * | 2016-08-30 | 2017-02-15 | 天津天地伟业数码科技有限公司 | 基于图像灰度和Lab色彩空间的车辆阴影检测算法 |
CN107845056A (zh) * | 2016-09-21 | 2018-03-27 | 西安英诺视通信息技术有限公司 | 基于柱面模型的鱼眼图像全景生成方法 |
CN108229248A (zh) * | 2016-12-14 | 2018-06-29 | 贵港市瑞成科技有限公司 | 基于车底阴影的车辆检测方法 |
CN106898016A (zh) * | 2017-01-19 | 2017-06-27 | 博康智能信息技术有限公司北京海淀分公司 | 获取交通图像中车辆尺度信息的方法及装置 |
CN109747529A (zh) * | 2017-11-02 | 2019-05-14 | 郭宇铮 | 一种车道线预警装置 |
CN107808367B (zh) * | 2017-11-29 | 2020-10-16 | 天津聚飞创新科技有限公司 | 鱼眼图像校正方法、装置、无人机及存储介质 |
CN109086812B (zh) * | 2018-07-20 | 2022-01-07 | 影石创新科技股份有限公司 | 全景相机防水壳自动识别方法、装置及便携式终端 |
CN109358067A (zh) * | 2018-11-30 | 2019-02-19 | 桂林电子科技大学 | 基于计算机视觉的马达环形压敏电阻缺陷检测系统及方法 |
CN109584183B (zh) * | 2018-12-05 | 2020-05-29 | 吉林大学 | 一种激光雷达点云去畸变方法及系统 |
CN111386530B (zh) * | 2018-12-29 | 2024-07-23 | 深圳市卓驭科技有限公司 | 车辆检测方法和设备 |
TWI727352B (zh) * | 2019-06-26 | 2021-05-11 | 國立臺灣海洋大學 | 以非還原校正方式及人工智慧處理擷取影像的方法、裝置及系統 |
CN115993829A (zh) * | 2023-03-21 | 2023-04-21 | 安徽大学 | 一种基于盲道识别的机器狗导盲运动控制方法 |
CN117373689B (zh) * | 2023-12-05 | 2024-02-13 | 吉林大学第一医院 | 一种产程心率实时分析方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1897015A (zh) * | 2006-05-18 | 2007-01-17 | 王海燕 | 基于机器视觉的车辆检测和跟踪方法及系统 |
US7676087B2 (en) * | 2006-09-20 | 2010-03-09 | Delphi Technologies, Inc. | Method for identifying vehicles in electronic images |
-
2011
- 2011-10-08 CN CN 201110299504 patent/CN102509098B/zh not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304750A (zh) * | 2017-01-13 | 2018-07-20 | 比亚迪股份有限公司 | 前方车辆识别方法、装置及车辆 |
CN108304750B (zh) * | 2017-01-13 | 2020-11-06 | 比亚迪股份有限公司 | 前方车辆识别方法、装置及车辆 |
Also Published As
Publication number | Publication date |
---|---|
CN102509098A (zh) | 2012-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102509098B (zh) | 一种鱼眼图像车辆识别方法 | |
CN107545239B (zh) | 一种基于车牌识别与车辆特征匹配的套牌检测方法 | |
Gudigar et al. | A review on automatic detection and recognition of traffic sign | |
Soilán et al. | Traffic sign detection in MLS acquired point clouds for geometric and image-based semantic inventory | |
WO2019196130A1 (zh) | 面向车载热成像行人检测的分类器训练方法和装置 | |
CN112686812B (zh) | 银行卡倾斜矫正检测方法、装置、可读存储介质和终端 | |
CN109657632B (zh) | 一种车道线检测识别方法 | |
Alvarez et al. | Road detection based on illuminant invariance | |
CN103927526B (zh) | 一种基于高斯差分多尺度边缘融合的车辆检测方法 | |
CN112819094B (zh) | 一种基于结构相似度度量的目标检测与识别方法 | |
WO2019196131A1 (zh) | 面向车载热成像行人检测的感兴趣区域过滤方法和装置 | |
CN103366154B (zh) | 可重配置的畅通路径检测系统 | |
CN107103317A (zh) | 基于图像融合和盲反卷积的模糊车牌图像识别算法 | |
Cai et al. | Real-time recognition system of traffic light in urban environment | |
CN104899554A (zh) | 一种基于单目视觉的车辆测距方法 | |
Timofte et al. | Combining traffic sign detection with 3D tracking towards better driver assistance | |
EP2813973B1 (en) | Method and system for processing video image | |
CN105740835B (zh) | 夜视环境下基于车载相机的前方车辆检测方法 | |
Shi et al. | A vision system for traffic sign detection and recognition | |
Cai et al. | Real-time arrow traffic light recognition system for intelligent vehicle | |
CN106815583A (zh) | 一种基于mser和swt相结合的夜间车辆车牌定位方法 | |
Ghahremannezhad et al. | Robust road region extraction in video under various illumination and weather conditions | |
Do et al. | Speed limit traffic sign detection and recognition based on support vector machines | |
Shang et al. | A novel method for vehicle headlights detection using salient region segmentation and PHOG feature | |
Moizumi et al. | Traffic light detection considering color saturation using in-vehicle stereo camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130515 |
|
CF01 | Termination of patent right due to non-payment of annual fee |