JP2016018371A - On-vehicle system, information processing apparatus, and program - Google Patents
On-vehicle system, information processing apparatus, and program Download PDFInfo
- Publication number
- JP2016018371A JP2016018371A JP2014140536A JP2014140536A JP2016018371A JP 2016018371 A JP2016018371 A JP 2016018371A JP 2014140536 A JP2014140536 A JP 2014140536A JP 2014140536 A JP2014140536 A JP 2014140536A JP 2016018371 A JP2016018371 A JP 2016018371A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- vehicle
- edge detection
- detected
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 24
- 238000003708 edge detection Methods 0.000 claims abstract description 72
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000003384 imaging method Methods 0.000 claims description 11
- 238000000034 method Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 239000004575 stone Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、道路を走行する車両に搭載して用いられる車載システムに関する。 The present invention relates to an in-vehicle system used by being mounted on a vehicle traveling on a road.
車両に搭載されたカメラの撮像画像から車両が走行可能な領域を検出する技術が提案されている。例えば、画像の局所領域において輝度値から所定のコストを画像の各点において算出し、画像上の複数の経路各々に沿って経路ごとのコストを累積し、累積したコスト評価が最も高い経路に基づいて走行可能領域を検出する装置がある(特許文献1参照)。 A technique for detecting a region in which a vehicle can travel from a captured image of a camera mounted on the vehicle has been proposed. For example, a predetermined cost is calculated at each point of the image from the luminance value in the local region of the image, the cost for each route is accumulated along each of the plurality of routes on the image, and the accumulated cost evaluation is based on the highest route. There is a device for detecting a travelable area (see Patent Document 1).
上記特許文献1の装置では、例えば市街路のように道路周辺の建物や設置物が多い状況においては、特に測定対象が遠距離の場合に道路境界周辺のノイズが多く含まれることとなり、走行可能領域の正確な検出が難しくなるという問題があった。
In the apparatus of
本発明の目的は、高い精度で走行可能領域を検出することができる車載システム、情報処理装置、及びプログラムを提案することである。 The objective of this invention is proposing the vehicle-mounted system, information processing apparatus, and program which can detect a driving | running | working area | region with high precision.
上述した問題を解決するためになされた請求項1に記載の発明は、撮像手段(5)と、エッジ検出手段(25)と、対象物検出手段(3、21)と、方向決定手段(24)と、を備える車載システム(1)である。撮像手段は、車両の周辺を撮像する。エッジ検出手段は、撮像手段により撮像された撮像画像から、所定の勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いてエッジを検出する。
The invention according to
また対象物検出手段は、車両の周辺に存在する対象物の位置を検出する。方向決定手段は、対象物検出手段により検出した対象物の位置に基づいて上述した勾配方向を決定する。そして上記エッジ検出手段が、上記方向決定手段により決定された勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いて上記撮像画像からエッジを検出することを特徴とする。 The object detection means detects the position of the object existing around the vehicle. The direction determining means determines the gradient direction described above based on the position of the object detected by the object detecting means. The edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the gradient direction determined by the direction determination unit.
このように構成された車載システムでは、対象物検出手段により検出された対象物の位置に基づいてエッジ検出フィルタの方向を定められることから、対象物の存在を考慮したエッジ検出を行うことができる。従って、ノイズの影響を低減してエッジを検出することができ、このように検出されたエッジを用いることで走行可能領域を高い精度で検出することができる。 In the vehicle-mounted system configured as described above, since the direction of the edge detection filter can be determined based on the position of the object detected by the object detection means, it is possible to perform edge detection in consideration of the presence of the object. . Therefore, it is possible to detect the edge by reducing the influence of noise, and it is possible to detect the travelable region with high accuracy by using the edge thus detected.
なお上述したエッジとは、撮像画像上の特徴点であり、例えば画像の明るさが鋭敏に変化している箇所である。また上述した対象物とは、車線の方向に沿って配置される縁石やガードレール、側溝のような立体物であるが、これらに限定されるものではない。 Note that the above-described edge is a feature point on the captured image, for example, a location where the brightness of the image changes sharply. Moreover, although the target object mentioned above is solid objects, such as a curb stone, a guard rail, and a side groove, which are arranged along the direction of the lane, it is not limited to these.
また請求項7に記載の発明は、エッジ検出手段(25)と、対象物検出手段(3、21)と、方向決定手段(24)と、を備える情報処理装置(9)である。エッジ検出手段は、車両の周辺を撮像する撮像手段(5)により撮像された撮像画像から、所定の勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いてエッジを検出する。
The invention described in
また対象物検出手段は、車両の周辺に存在する対象物の位置を検出する。方向決定手段は、対象物検出手段により検出した対象物の位置に基づいて上述した勾配方向を決定する。そして上記エッジ検出手段が、上記方向決定手段により決定された勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いて上記撮像画像からエッジを検出することを特徴とする。 The object detection means detects the position of the object existing around the vehicle. The direction determining means determines the gradient direction described above based on the position of the object detected by the object detecting means. The edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the gradient direction determined by the direction determination unit.
このように構成された情報処理装置は、請求項1に記載の車載システムの一部を構成することができる。
ところで、上記請求項7に記載の情報処理装置を構成する各手段は、ハードウェアによって実現してもよいが、請求項8に記載のように、情報処理装置の各手段としてコンピュータを機能させるためのプログラムによって実現してもよい。このようなプログラムであれば、コンピュータを請求項7に記載の情報処理装置として機能させることができる。
The information processing apparatus configured as described above can constitute a part of the in-vehicle system according to
By the way, although each means which comprises the information processing apparatus of the said
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 In addition, the code | symbol in the parenthesis described in this column and a claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is shown. It is not limited.
以下に本発明の実施形態を図面と共に説明する。
(1)車載システム1の構成
車載システム1は自動車等の車両に搭載されて用いられるシステムであって、図1に示すように、レーザーレーダ3と、車載カメラ5と、ディスプレイ7と、情報処理装置9と、を備えている。
Embodiments of the present invention will be described below with reference to the drawings.
(1) Configuration of the in-
車載システム1は、道路における走行可能領域を検出するシステムである。ここでいう走行可能領域とは、縁石やガードレールなどが車線方向に沿って配置されている道路において、縁石やガードレールの切れ目(連続的に配置される縁石等において、部分的に配置されていない箇所)や縁石の切り下げなど、車両が走行車線から側方に移動できる領域のことを意味する。
The in-
レーザーレーダ3は、レーザー光を照射すると共にそのレーザー光の反射光を取得する装置である。反射光の検出信号は情報処理装置9に出力される。情報処理装置9の後述する対象物検出部21では、当該車載システム1が搭載される車両である自車両の前方を中心とした自車両周辺に存在する対象物の位置を、上記検出信号に基づいて算出する。即ち、レーザーレーダ3と対象物検出部21により車両周辺の対象物の位置を検出する。
The
ここでいう対象物とは、車両の周辺に位置する立体物であって、道路に沿って配置されているものである。またレーザーレーダ3及び対象物検出部21は、車両の走行路面とは高さの相違する対象物、より具体的には所定の範囲の高さを有する立体物の位置を検出する。
The object here is a three-dimensional object located around the vehicle, and is arranged along the road. The
車載カメラ5は、車両の周辺、特に前方を撮像する撮像装置であって、例えば公知のCCDイメージセンサやCMOSイメージセンサなどを用いることができる。車載カメラ5は、所定の時間間隔(一例として1/15s)で車両前方を撮像し、撮像画像を情報処理装置9に出力する。
The in-
ディスプレイ7は、画像を表示する液晶ディスプレイなどの表示手段であって、情報処理装置9から入力される信号に従って画像を表示する。本実施形態では、ディスプレイ7は車載カメラ5により撮像された画像に走行可能領域を示す画像を重畳して表示する。
The
情報処理装置9は、レーザーレーダ3の検出信号と、車載カメラ5にて撮像された撮像画像と、に基づいて走行可能領域を検出すると共に、ディスプレイ7を制御して画像を表示させる。
The
この情報処理装置9は、CPU11と、CPU11が実行するプログラム等を記憶するROM12と、CPU11によるプログラム実行時に作業領域として使用されるRAM13と、電気的にデータを書き換え可能なフラッシュメモリやEEPROM等の不揮発性メモリ14などを備えるコンピュータシステムとして構成されており、プログラムの実行により所定の処理を実行する。
The
またこの情報処理装置9は、車両に搭載されるECUや各種センサからの走行情報15を入力する。走行情報15としては、シフトレンジ、車速、ステアリング角度又はヨーレートなどの情報が挙げられる。
The
この情報処理装置9は、対象物検出部21、射影変換部22、ROI決定部23、フィルタ決定部24、エッジ検出部25、判定部26、及び結果統合出力部27として機能する。
The
(2)情報処理装置9による処理
情報処理装置9により実行される走行可能領域判定処理について、図2に示すフローチャートに基づいて説明する。本処理は、一例として車両の走行が開始されたとき(車速が所定の閾値を超えたとき)に開始される。
(2) Processing by
なお、以下のS1、S2が対象物検出部21の処理であり、S3が射影変換部22の処理であり、S4がROI決定部23の処理であり、S5,S6がフィルタ決定部24の処理であり、S7がエッジ検出部25の処理であり、S8が判定部26の処理であり、S9が結果統合出力部27の処理である。
The following S1 and S2 are processing of the
S1では、CPU11は所定の高さ範囲に含まれる測距点を検出する。ここでは、まずレーザーレーダ3の検出信号に基づいて、車両周辺における立体物の存在する位置を検出する。以降、この位置を測距点と記載する。
In S1, the
図3は、検出される測距点を説明する図である。レーザーレーダ3は車両101に搭載されており、複数の測距点103を検出する。検出された複数の測距点103はそれぞれレーザーレーダ3を基準とした距離及び高さの情報を有している。
FIG. 3 is a diagram for explaining detected distance measuring points. The
CPU11は、検出された複数の測距点103の中から、所定の高さ範囲の高さを有する立体物の測距点103を抽出する。図3においては、破線で示す測距点103cは所定の高さ範囲外のものであるため除外され、測距点103a、103bが抽出される。
The
なお本実施形態における上述した高さ範囲は15〜25cmであって、これは道路の縁石の高さに相当するものである。本実施形態では縁石を対象物としてレーザーレーダ3による検出を行っており、測距点は縁石であるものと想定して以下の処理が実行される。
In addition, the height range mentioned above in this embodiment is 15-25 cm, and this is equivalent to the height of the curb on the road. In the present embodiment, detection by the
なお、ここでいう高さとは車両の走行面を基準とした高さである。例えば車両が走行する現在位置は水平であるが先方は上りになっている道路のように走行中の道路の傾斜と先の道路の傾斜が相違する場合などには、現在の車両の位置を基準として高さを測定すると測距点の高さが正確な値ではなくなってしまう可能性がある。 In addition, the height here is a height based on the traveling surface of the vehicle. For example, if the current road position where the vehicle is traveling is horizontal but the road ahead is different, such as an uphill road, the current road position is the reference. If the height is measured as such, the height of the distance measuring point may not be an accurate value.
そこで、その高さが路面からの高さとなるように数値の補正を行ってもよい。例えば測距点近傍の道路の高さ(現在の車両の位置を基準とする高さ)も合わせて測定して、その道路の高さが基準となるように測距点の高さを補正することが考えられる。 Therefore, the numerical value may be corrected so that the height becomes the height from the road surface. For example, the height of the road in the vicinity of the distance measuring point (height based on the current vehicle position) is also measured, and the height of the distance measuring point is corrected so that the height of the road becomes the reference. It is possible.
S2では、CPU11は測距点の絞り込みを行う。ここでは、S1にて検出した候補点(測距点103a、103b)から縁石以外の測距点を削除する。道路境界に設置されている縁石の並びは直線状或いは緩やかな曲線状になる場合が多い。そのことを利用して、候補点に対して公知の技術であるHOUGH変換を行い直線又は曲線を算出し、その線から所定の距離内に存在する候補点を、縁石を示す測距点として抽出する。
In S2, the
図3においては、HOUGH変換にて算出された直線105に沿った測距点103が縁石を示す測距点として抽出される。
なおこのS2では、前時刻で検出された(過去に実行したS2にて絞り込まれた)測距点107をHOUGH変換による絞り込みに用いる。なお過去の測距点107は車速やステアリング角度などの走行情報15を用いて車両の走行に伴う誤差を補正することができるが、現時刻と前時刻の時間差が十分に小さい場合には補正を行わなくてもよい。S2にて絞り込んだ測距点は、後のS2での絞り込みに用いるためRAM13に記憶される。
In FIG. 3, a
In S2, the distance measuring points 107 detected at the previous time (those narrowed down in S2 executed in the past) are used for narrowing down by HOUGH conversion. The past
S3では、CPU11はS2にて絞り込んだ測距点の位置を、車載カメラ5にて撮像した撮像画像の画像空間の座標へ射影変換する。撮像された撮像画像の一例を図4に示す。撮像画像111では車線に沿って縁石113が配置されているが、一部に縁石113の切り下げ領域115が形成されている。本処理はこの切り下げ領域115を走行可能領域として認識するための処理を実行する。
In S <b> 3, the
このS3では、まず車載カメラ5にて新たに撮像した撮像画像を取得する。次に、図5(A)に示す各測距点103aの座標(X,Y,Z)を、図5(B)に示すような変換行列を用いて図5(C)に示すように撮像画像111上の座標(x,y,1)で示される測距点117に変換する。以下、撮像画像の説明においては、この変換した測距点117の位置を単に測距点の位置と記載する。
In S3, first, a captured image newly captured by the in-
この撮像画像111は、車載カメラ5の設置位置に基づいてその撮像される範囲を求めることが可能である。そのため、上述した変換行列を用いてレーザーレーダ3による測距点を画像上に重畳することができる。
The captured
S4では、CPU11は、撮像画像のROI(Region of Interest)を設定する。ROIはエッジ検出の対象となる領域である。ここでは、図6に示すように、撮像画像111における測距点117の位置を考慮して、測距点117を含むようにROI121を設定する。ROI121は測距点の位置を中心として幅を持って設定されるが、車両から測距点117までの距離が遠いほどその幅は小さく設定される。
In S4, the
S5では、CPU11は、撮像画像からエッジを検出するためのエッジ検出フィルタのサイズを設定する。ここでは、まず、S2にて絞り込んだ測距点の3次元座標の情報(X,Y,Z)から、レーザーレーダ3の位置から測距点までの距離、換言すると自車両の位置から測距点までの実空間距離を算出する。
In S5, the
そしてCPU11は、図7(A)に示すように、測距点117までの実空間距離が近いほどエッジ検出フィルタ123のサイズが大きくなるようにフィルタサイズを設定する。測距点117ごとに実空間距離は異なるため、ROI121における位置によってサイズの異なるエッジ検出フィルタ123が設定される。
Then, as shown in FIG. 7A, the
なお図7(A)のように車両の近傍に測距点が存在する場合には小さなサイズから大きなサイズまでのエッジ検出フィルタ123を用いるが、図7(B)に示す撮像画像111aのように車両と縁石113との距離が離れている場合には、大きなエッジ検出フィルタは用いない。このように、自車両からの距離に応じた適当なサイズのフィルタが設定される。
Note that when there is a distance measuring point in the vicinity of the vehicle as shown in FIG. 7A, an
S6では、CPU11はエッジフィルタの回転を行う。上述したように道路境界に設置されている縁石の並びは直線的になると想定されるため、図6に示すように、エッジの勾配方向も限られた方向に限定される。
In S6, the
このS6では、画像空間に変換した測距点の2次元座標(xi,yi)から、下記の式1により測距点の画像上の勾配方向を算出し、算出された勾配方向に沿うように、即ちその勾配方向に沿ったエッジを検出するように、エッジ検出フィルタ123を回転させてその向きを設定する。このように回転されたエッジ検出フィルタ123を用いることにより、ノイズの影響を低減して高精度に縁石のエッジを検出することができる。
上記式1において、xは画像空間での測距点のx座標であり、yは画像空間での測距点のy座標である。またNは測距点の数である。そして図8に示すように、エッジ検出フィルタを算出したtan(θ)に応じて回転させる。なお図8はフィルタ回転のイメージを表す図である。
In the
なお、フィルタの回転及び設定とは、様々な勾配に沿ったエッジを検出するエッジ検出フィルタが予め用意されており、その中から使用すべきフィルタを選択して用いることが含まれる。 Note that the rotation and setting of the filter includes selecting and using a filter to be used from among edge detection filters that detect edges along various gradients in advance.
S7では、CPU11は撮像画像からエッジを検出する。ここでは、撮像画像におけるS4にて設定したROIにおいて、S5,S6にて設定したエッジ検出フィルタを用いてエッジを検出する。図9にエッジ検出の結果であるエッジ検出画面125の例を示す。このエッジ検出画面125のように、撮像画像のROIにおけるエッジ検出フィルタの向きに沿ったエッジのみが抽出される。
In S7, the
S8では、CPU11はレーザーレーダ3による縁石の測距点と、撮像画像から抽出したエッジとを足し合わせ、その結果から走行可能領域を抽出する。
本実施形態では、まずCPU11はレーザーレーダ3による縁石の測距点に対応するエッジを特定する。図10(A)に示すように、エッジ検出画面125に測距点117を重畳し、エッジと測距点とを重ね合わせると、測距点117に対応するエッジ列131、つまり対象物のエッジと考えられるエッジ列131が特定可能となる。CPU11は、このエッジ列131を走行可能領域抽出のための測距点117の補完に用いる。
In S8, the
In the present embodiment, first, the
図10(A)における対象物のエッジ列131及び測距点117を抽出して拡大した図10(B)に示すように、縁石を示す測距点117が存在せず、更にエッジ列131が存在しない領域が、走行可能領域133と判断される。一方、そのエッジ列131が測距点117を結ぶように延びて存在していれば、測距点117の間隔が大きく空いていても、その間は走行不能領域135と判断される。
As shown in FIG. 10B in which the
なお、測距点117のみ存在する領域は、エッジが検出されていなくとも何らかの立体物が存在するため走行不能領域と判断される。また測距点117は存在せずエッジのみ存在する領域は、小さな段差や白線等の道路表面上の色が異なる領域と想定できるため走行可能領域と判断される。
It should be noted that the area where only the
S9では、CPU11は図11に示すようにディスプレイ7に走行可能領域を示す画像141を重畳表示した撮像画像143を表示させる。このS9の後S1に戻る。よって、車両の走行中は連続的に撮像画像143の表示が行われる。
In S9, the
(3)効果
本実施形態の車載システム1は、レーザーレーダ3及び対象物検出部21が車両周辺の対象物の位置を測距点として検出する。また車載カメラ5は車両の周辺を撮像し、エッジ検出部25がその撮像画像からエッジを検出する。エッジ検出部25はエッジ検出フィルタを用いてエッジを検出する。フィルタ決定部24は対象物の測距点に基づいてエッジ検出フィルタの勾配方向を決定する。
(3) Effect In the in-
即ち、本実施形態の車載システム1は、撮像手段(5)と、エッジ検出手段(25)と、対象物検出手段(3、21)と、方向決定手段(11、24)とを備える。撮像手段は車両の周辺を撮像する。エッジ検出手段は、撮像手段により撮像された撮像画像から、所定の勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いてエッジを検出する。
That is, the in-
また対象物検出手段は、車両の周辺に存在する対象物の位置を検出する。方向決定手段は、対象物検出手段により検出した対象物の位置に基づいて、エッジ検出手段が用いるエッジ検出フィルタの上述した勾配方向を決定する。そして上記エッジ検出手段は、上記方向決定手段により決定された方向に沿ったエッジを検出するエッジ検出フィルタを用いて上記撮像画像からエッジを検出することを特徴とする。 The object detection means detects the position of the object existing around the vehicle. The direction determination unit determines the above-described gradient direction of the edge detection filter used by the edge detection unit based on the position of the target detected by the target detection unit. The edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the direction determined by the direction determination unit.
このように構成された本実施形態の車載システム1は、縁石を対象物として検出した測距点に基づいて、撮像画像におけるその測距点の並ぶ方向に沿ってエッジ検出フィルタの方向が定められることから、撮像画像からエッジを検出するときに、高い精度で縁石のエッジを検出することができる。従って、ノイズの影響を受けにくく有用なエッジを検出することができ、走行可能領域を高い精度で検出することができる。
In the vehicle-mounted
なお、対象物検出手段が検出する対象物の位置とは、少なくとも車両との位置関係を把握することができる情報である。対象物と車両との位置関係を把握することで撮像画像における対象物の存在する位置を求めることができ、それによりエッジ検出フィルタの適切な方向を決定することができる。 Note that the position of the object detected by the object detection means is information capable of grasping at least the positional relationship with the vehicle. By grasping the positional relationship between the target object and the vehicle, the position where the target object exists in the captured image can be obtained, and thereby an appropriate direction of the edge detection filter can be determined.
なお、車両周辺の対象物の存在を検出する装置として、レーザーレーダ以外の装置を用いてもよい。例えば、ミリ波レーダを用いることができる。
また本実施形態の車載システム1は、射影変換部22が対象物の測距点を撮像画像上の座標に射影変換し、その変換した位置に基づいてエッジ検出フィルタの上述した方向を決定する。
An apparatus other than the laser radar may be used as an apparatus for detecting the presence of an object around the vehicle. For example, a millimeter wave radar can be used.
Further, in the in-
即ち本実施形態の車載システム1は、対象物検出手段により検出された対象物の位置を撮像画像上の位置に変換する変換手段(22)を備え、方向決定手段は、変換手段により変換された前記対象物の前記撮像画像上の位置に基づいて、エッジ検出フィルタの方向を決定する。
That is, the in-
対象物を検出した測距点の撮像画像上の位置は、その対象物のエッジが検出される可能性が高い位置であることから、上記のように撮像画像に射影された測距点に基づきエッジ検出フィルタの方向を決定することで高い精度でエッジを検出することができる。 Since the position of the ranging point where the object is detected on the captured image is a position where the edge of the object is highly likely to be detected, it is based on the ranging point projected onto the captured image as described above. By determining the direction of the edge detection filter, the edge can be detected with high accuracy.
また、本実施形態の車載システム1の対象物検出部21は、図2のS1において、高さが15〜25cmの範囲である対象物の位置を検出する。従って、レーザーレーダ3にて検出する対象物を縁石に絞り込むことが可能となり、高い精度で縁石を検出することができる。
Moreover, the target
なお本実施形態では縁石を対象物として設定して走行可能領域を検出する構成を例示したが、縁石以外のものを対象物として検出する構成であってもよい。例えば、検出する高さの範囲を設定することで、側溝やガードレールなどを対象物とすることができる。 In the present embodiment, the curb is set as an object and the travelable area is detected as an example. However, a structure other than the curb may be detected as the object. For example, by setting a range of height to be detected, a side groove, a guard rail, or the like can be set as an object.
検出する対象物に応じて対象物検出部21やエッジ検出部25の処理を変更してもよい。例えばガードレールを対象物とする場合は、撮像画像からガードレールを検出する際に、光の反射強度、色、輝度などのガードレール特有のパラメータを利用してガードレールを検出することができるため、撮像画像からガードレールのエッジを検出する精度を高めることができる。
The processing of the
またこのように撮像画像からの検出精度を高めることができれば、レーザーレーダ3による対象物の絞り込みの閾値を下げて、検出する高さ範囲を広めに設定しても、エッジと測距点とを組み合わせることで精度の高い対象物検出を実現することができる。
Further, if the detection accuracy from the captured image can be improved in this way, the edge and the distance measuring point can be detected even if the threshold for narrowing down the object by the
また、本実施形態の車載システム1の判定部26は、図2のS8において、レーザーレーダ3及び対象物検出部21により検出した測距点と、エッジ検出部25により車載カメラ5の撮像画像から抽出されたエッジとを足し合わせ、その結果から走行可能領域か否かを判断する。
Further, the
即ち、本実施形態の車載システム1は、エッジ検出手段により検出されたエッジと、対象物検出手段により検出された対象物の位置と、に基づいて、車両が走行可能である領域を判定する判定手段(11、26)を備える。
That is, the in-
このように構成された車載システム1は、レーザーレーダ3と車載カメラ5との両方の検出結果を組み合わせて精度の高い走行可能領域の検出を実現できる。
なお本実施形態においては、判定部26は縁石の測距点に対応するエッジが存在せず、かつ、縁石の測距点が存在しない場所を走行可能領域と判断する。
The in-
In the present embodiment, the
即ち、本実施形態の車載システム1は、判定手段が、対象物検出手段により対象物が検出されなかった道路上の領域に、エッジ検出手段により検出されたエッジが撮像画像上の上記領域に対応する位置に存在しない場合に、上記領域が車両の走行が可能である領域と判定する。
That is, in the in-
このように構成された車載システム1は、縁石が存在しないことをレーザーレーダ3と車載カメラ5の両センサの検出信号から判断するため、縁石の存在の判断精度を高めることができる。よって縁石が存在しない場合のみでなく、縁石の切り下げも検出することができるようになる。
Since the in-
なお、判定部26は上述したエッジが複数の測距点を結ぶように延びて存在していれば、測距点の間隔が大きく空いていてもその間は走行不能領域と判断する。そのため、車載システム1は縁石が存在するものの何らかの理由で測距点に間隔が空いてしまったときに、誤って走行可能領域と判断されてしまう危険を低減できる。
Note that if the edge described above extends so as to connect a plurality of distance measuring points, the determining
また本実施形態の車載システム1におけるエッジ検出部25は、図2のS4において、レーザーレーダ3及び対象物検出部21により対象物が検出された位置に基づいて、撮像画像からエッジを検出する範囲(ROI)を設定する。
In addition, the
このように構成された車載システム1は、エッジを検出するための画像処理を行う計算範囲を絞り込めるため、計算コストの削減が可能となる。更に本車載システム1は車両からの距離が遠い地点に対応する撮像画像上の地点ほどROIを小さく設定するため、ROIに含まれるノイズとなる成分を低減できる。
Since the in-
また本実施形態の車載システム1におけるフィルタ決定部24は、レーザーレーダ3及び対象物検出部21により対象物が検出された位置が近いほど、大きいサイズのエッジ検出フィルタを用いるようにフィルタサイズを設定する。車両からの距離が遠い領域では、フィルタを小さくすることで含まれるノイズを低減できる。一方、距離が近い領域では、フィルタを大きくすることで必要なエッジを検出する精度を高めることができる。
Further, the
[変形例]
以上本発明の実施形態について説明したが、本発明は、上記実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
[Modification]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and it goes without saying that various forms can be taken as long as they belong to the technical scope of the present invention.
例えば、上記実施形態において説明した走行可能領域判定処理における具体的な処理内容はあくまで一例であって、上述した内容に限定されるものではない。例えばS2においてはHOUGH変換を用いて縁石の測距点を抽出したが、これ以外の手法で測距点を抽出してもよい。例えば過去の測距点から縁石の位置を予測して、予測された位置に近い測距点のみを抽出することが考えられる。 For example, the specific processing content in the travelable area determination processing described in the above embodiment is merely an example, and is not limited to the above-described content. For example, in S2, the curb distance measurement points are extracted using HOUGH conversion, but the distance measurement points may be extracted by other methods. For example, it is conceivable to predict the position of the curb from past distance measuring points and extract only distance measuring points close to the predicted position.
また、S4,S5にて実行されるROIの設定及びフィルタサイズの設定は、いずれか一方又は両方が実行しないように構成されていてもよい。
また上記実施形態においては、図10(A),(B)に示すように測距点117に沿ったエッジ列131を抽出し、測距点117をベースとしてエッジ列131を補完的に用いて走行可能領域133を検出する構成を例示したが、その方法に限定されることはなく、測距点とエッジとを組み合わせた様々な方法で走行可能領域を検出することができる。
The ROI setting and the filter size setting executed in S4 and S5 may be configured such that either one or both are not executed.
Further, in the above embodiment, as shown in FIGS. 10A and 10B, the
また上記実施形態においては検出した走行可能領域をディスプレイ7に表示させる構成を例示したが、検出した走行可能領域の使用方法はそれに限定されない。
例えば、車両が自動運転を行う機能を有する場合、当該車両は走行可能領域を検出してその領域を走行するように構成されていてもよい。また、走行中の車線を逸脱すると予測された場合に警報を行う機能を車両が有する場合、当該車両は走行可能領域に進行する場合には車線を逸脱したと判定しないように構成されていてもよい。
Moreover, in the said embodiment, although the structure which displays the detected driveable area | region on the
For example, when the vehicle has a function of performing automatic driving, the vehicle may be configured to detect a travelable region and travel in that region. In addition, if the vehicle has a function of issuing an alarm when it is predicted that the vehicle will deviate from the traveling lane, the vehicle may be configured not to determine that the vehicle has deviated from the lane when traveling to the travelable region. Good.
なお、上述した情報処理装置9が備える各手段としての機能は、プログラムによりコンピュータに実現させることができる。
上記プログラムは、コンピュータによる処理に適した命令の順番付けられた列からなるものであって、コンピュータに組み込まれるROMやRAMなどに記憶され、これらからコンピュータにロードされて用いられてもよいし、各種記録媒体や通信回線を介してコンピュータにロードされ用いられるものであってもよい。
In addition, the function as each means with which the
The program consists of an ordered sequence of instructions suitable for processing by a computer, stored in a ROM or RAM incorporated in the computer, and may be loaded and used from there. It may be loaded into a computer and used via various recording media and communication lines.
記録媒体としては、CD−ROMやDVD−ROM等の光ディスク、磁気ディスク、半導体製メモリ等が挙げられる。
情報処理装置9は、ASIC(Application Specific Integrated Circuits)、FPGA(Field Programmable Gate Array)などのプログラマブルロジックデバイスや、ディスクリート回路であってもよい。
Examples of the recording medium include optical disks such as CD-ROM and DVD-ROM, magnetic disks, and semiconductor memories.
The
1…車載システム、3…レーザーレーダ、5…車載カメラ、9…情報処理装置、11…CPU、21…対象物検出部、22…射影変換部、23…ROI決定部、24…フィルタ決定部、25…エッジ検出部、26…判定部
DESCRIPTION OF
Claims (8)
前記撮像手段により撮像された撮像画像から、所定の勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いてエッジを検出するエッジ検出手段(25)と、
前記車両の周辺に存在する対象物の位置を検出する対象物検出手段(3、21)と、
前記対象物検出手段により検出した前記対象物の位置に基づいて前記勾配方向を決定する方向決定手段(24)と、を備え、
前記エッジ検出手段は、前記方向決定手段により決定された前記勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いて前記撮像画像からエッジを検出する
ことを特徴とする車載システム。 Imaging means (5) for imaging the periphery of the vehicle;
Edge detection means (25) for detecting an edge from an image captured by the imaging means using an edge detection filter for detecting an edge along a predetermined gradient direction;
Object detection means (3, 21) for detecting the position of an object existing around the vehicle;
Direction determining means (24) for determining the gradient direction based on the position of the object detected by the object detecting means,
The in-vehicle system, wherein the edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the gradient direction determined by the direction determination unit.
前記方向決定手段は、前記変換手段により変換された前記対象物の前記撮像画像上の位置に基づいて、前記エッジ検出フィルタの前記勾配方向を決定する
ことを特徴とする請求項1に記載の車載システム。 Conversion means (22) for converting the position of the object detected by the object detection means into a position on the captured image;
2. The vehicle-mounted device according to claim 1, wherein the direction determination unit determines the gradient direction of the edge detection filter based on a position on the captured image of the object converted by the conversion unit. system.
ことを特徴とする請求項1又は請求項2に記載の車載システム。 The in-vehicle system according to claim 1, wherein the object detection unit detects a position of the object having a height within a predetermined range.
ことを特徴とする請求項1から請求項3のいずれか1項に記載の車載システム。 And a determination unit that determines a region in which the vehicle can travel based on the edge detected by the edge detection unit and the position of the target detected by the target detection unit. The in-vehicle system according to any one of claims 1 to 3.
ことを特徴とする請求項4に記載の車載システム。 In the case where the determination unit does not include an edge detected by the edge detection unit in a position corresponding to the region on the captured image in an area on the road where the object is not detected by the object detection unit. The vehicle-mounted system according to claim 4, wherein the region is determined as a region where the vehicle can travel.
ことを特徴とする請求項1から請求項5のいずれか1項に記載の車載システム。 The said edge detection means sets the range which detects an edge from the said captured image based on the position where the said target object was detected by the said target object detection means. Any one of Claims 1-5 characterized by the above-mentioned. The in-vehicle system according to claim 1.
前記車両の周辺に存在する対象物の位置を検出する対象物検出手段(3、21)と、
前記対象物検出手段により検出した前記対象物の位置に基づいて前記勾配方向を決定する方向決定手段(24)と、を備え、
前記エッジ検出手段は、前記方向決定手段により決定された前記勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いて前記撮像画像からエッジを検出する
ことを特徴とする情報処理装置。 Edge detection means (25) for detecting an edge using an edge detection filter for detecting an edge along a predetermined gradient direction from a captured image captured by an imaging means (5) for capturing the periphery of the vehicle;
Object detection means (3, 21) for detecting the position of an object existing around the vehicle;
Direction determining means (24) for determining the gradient direction based on the position of the object detected by the object detecting means,
The information processing apparatus according to claim 1, wherein the edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the gradient direction determined by the direction determination unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014140536A JP6295859B2 (en) | 2014-07-08 | 2014-07-08 | In-vehicle system, information processing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014140536A JP6295859B2 (en) | 2014-07-08 | 2014-07-08 | In-vehicle system, information processing apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016018371A true JP2016018371A (en) | 2016-02-01 |
JP6295859B2 JP6295859B2 (en) | 2018-03-20 |
Family
ID=55233557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014140536A Active JP6295859B2 (en) | 2014-07-08 | 2014-07-08 | In-vehicle system, information processing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6295859B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018123641A1 (en) * | 2016-12-27 | 2018-07-05 | 日立オートモティブシステムズ株式会社 | Travelable area detection device and travel assistance system |
JP2019021317A (en) * | 2017-07-20 | 2019-02-07 | コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH | Driver support system and guard rail detection method |
CN109389844A (en) * | 2017-08-09 | 2019-02-26 | 三星电子株式会社 | Method and apparatus for controlling the driving of vehicle |
JP2019053685A (en) * | 2017-09-19 | 2019-04-04 | 株式会社Subaru | Image processing device |
WO2020001888A1 (en) * | 2018-06-26 | 2020-01-02 | Zf Friedrichshafen Ag | System and method for detecting a measurement point on a swap body, said measurement point being suitable for a docking operation of a vehicle on said swap body |
JP2020502685A (en) * | 2016-12-20 | 2020-01-23 | トヨタ・モーター・ヨーロッパToyota Motor Europe | Electronic device, system and method for increasing image data of a passive optical sensor |
JP2021064149A (en) * | 2019-10-11 | 2021-04-22 | アイシン精機株式会社 | Image processing device |
WO2023132275A1 (en) * | 2022-01-05 | 2023-07-13 | 株式会社 Sai | Object measurement device and object measurement method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014002608A (en) * | 2012-06-19 | 2014-01-09 | Toyota Motor Corp | Road side object detection device |
-
2014
- 2014-07-08 JP JP2014140536A patent/JP6295859B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014002608A (en) * | 2012-06-19 | 2014-01-09 | Toyota Motor Corp | Road side object detection device |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020502685A (en) * | 2016-12-20 | 2020-01-23 | トヨタ・モーター・ヨーロッパToyota Motor Europe | Electronic device, system and method for increasing image data of a passive optical sensor |
WO2018123641A1 (en) * | 2016-12-27 | 2018-07-05 | 日立オートモティブシステムズ株式会社 | Travelable area detection device and travel assistance system |
CN110088801A (en) * | 2016-12-27 | 2019-08-02 | 日立汽车系统株式会社 | It can travel regional detection device and travel assist system |
JPWO2018123641A1 (en) * | 2016-12-27 | 2019-10-31 | 日立オートモティブシステムズ株式会社 | RUNNING AREA DETECTION DEVICE AND RUNNING SUPPORT SYSTEM |
CN110088801B (en) * | 2016-12-27 | 2023-04-18 | 日立安斯泰莫株式会社 | Driving region detection device and driving assistance system |
JP2019021317A (en) * | 2017-07-20 | 2019-02-07 | コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH | Driver support system and guard rail detection method |
JP7164342B2 (en) | 2017-07-20 | 2022-11-01 | コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング | DRIVER ASSISTANCE SYSTEM AND GUARDRAIL DETECTION METHOD |
CN109389844B (en) * | 2017-08-09 | 2022-05-03 | 三星电子株式会社 | Method and apparatus for controlling driving of vehicle |
CN109389844A (en) * | 2017-08-09 | 2019-02-26 | 三星电子株式会社 | Method and apparatus for controlling the driving of vehicle |
JP2019053685A (en) * | 2017-09-19 | 2019-04-04 | 株式会社Subaru | Image processing device |
WO2020001888A1 (en) * | 2018-06-26 | 2020-01-02 | Zf Friedrichshafen Ag | System and method for detecting a measurement point on a swap body, said measurement point being suitable for a docking operation of a vehicle on said swap body |
JP2021064149A (en) * | 2019-10-11 | 2021-04-22 | アイシン精機株式会社 | Image processing device |
JP7423970B2 (en) | 2019-10-11 | 2024-01-30 | 株式会社アイシン | Image processing device |
WO2023132275A1 (en) * | 2022-01-05 | 2023-07-13 | 株式会社 Sai | Object measurement device and object measurement method |
Also Published As
Publication number | Publication date |
---|---|
JP6295859B2 (en) | 2018-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6295859B2 (en) | In-vehicle system, information processing apparatus, and program | |
US9047518B2 (en) | Method for the detection and tracking of lane markings | |
JP6747269B2 (en) | Object recognition device | |
US9569673B2 (en) | Method and device for detecting a position of a vehicle on a lane | |
EP2963634B1 (en) | Stereo camera device | |
US9965690B2 (en) | On-vehicle control device | |
JP2011180982A (en) | Lane marker detecting apparatus | |
JP2006031162A (en) | Moving obstacle detection device | |
JP7077910B2 (en) | Bound line detection device and lane marking method | |
US11468691B2 (en) | Traveling lane recognition apparatus and traveling lane recognition method | |
JP4940177B2 (en) | Traffic flow measuring device | |
JP2009053818A (en) | Image processor and method thereof | |
JP2008282386A (en) | Object detector, object detection method, and object detection program | |
JP5548212B2 (en) | Crosswalk sign detection method and crosswalk sign detection device | |
JP6477094B2 (en) | Information processing apparatus, information processing system, and program | |
JP6834401B2 (en) | Self-position estimation method and self-position estimation device | |
JP6115429B2 (en) | Own vehicle position recognition device | |
WO2017013692A1 (en) | Travel lane determination device and travel lane determination method | |
JP2016162130A (en) | Device and method for detecting pedestrian crossing and computer for pedestrian crossing detection | |
JP2010176592A (en) | Driving support device for vehicle | |
KR101595317B1 (en) | Precise positioning of the vehicle for detecting a road surface display method and system | |
JP2017220056A (en) | Information processing device | |
JP6575431B2 (en) | Verification device and verification method | |
US20170132925A1 (en) | Method for operating an assistance system of a motor vehicle and assistance system | |
JP2007240316A (en) | On-board distance measuring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180205 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6295859 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |