JP2016018371A - On-vehicle system, information processing apparatus, and program - Google Patents

On-vehicle system, information processing apparatus, and program Download PDF

Info

Publication number
JP2016018371A
JP2016018371A JP2014140536A JP2014140536A JP2016018371A JP 2016018371 A JP2016018371 A JP 2016018371A JP 2014140536 A JP2014140536 A JP 2014140536A JP 2014140536 A JP2014140536 A JP 2014140536A JP 2016018371 A JP2016018371 A JP 2016018371A
Authority
JP
Japan
Prior art keywords
edge
vehicle
edge detection
detected
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014140536A
Other languages
Japanese (ja)
Other versions
JP6295859B2 (en
Inventor
勇太 吉岡
Yuta Yoshioka
勇太 吉岡
小林 健二
Kenji Kobayashi
健二 小林
雅成 高木
Masanari Takagi
雅成 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014140536A priority Critical patent/JP6295859B2/en
Publication of JP2016018371A publication Critical patent/JP2016018371A/en
Application granted granted Critical
Publication of JP6295859B2 publication Critical patent/JP6295859B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To propose an on-vehicle system, an information processing apparatus, and a program capable of detecting a running available area with high accuracy.SOLUTION: A CPU 11 detects ranging points included in a predetermined height range on the basis of a detection signal of a laser radar 3, narrows down the ranging points by performing HOUGH transform, and performs projection transform on a position of each narrowed-down ranging point into coordinates in an image space of a picked-up image picked up by an on-vehicle camera 5. The CPU 11 rotates an edge filter. The CPU 11 calculates a gradient direction of the ranging point on the image from two-dimensional coordinates (x, y) of the ranging point obtained by the projection transform in the image space, rotates an edge detection filter along the calculated gradient direction, and sets a direction of the edge detection filter. The CPU 11 detects edges from the picked-up image using the set edge detection filter.SELECTED DRAWING: Figure 1

Description

本発明は、道路を走行する車両に搭載して用いられる車載システムに関する。   The present invention relates to an in-vehicle system used by being mounted on a vehicle traveling on a road.

車両に搭載されたカメラの撮像画像から車両が走行可能な領域を検出する技術が提案されている。例えば、画像の局所領域において輝度値から所定のコストを画像の各点において算出し、画像上の複数の経路各々に沿って経路ごとのコストを累積し、累積したコスト評価が最も高い経路に基づいて走行可能領域を検出する装置がある(特許文献1参照)。   A technique for detecting a region in which a vehicle can travel from a captured image of a camera mounted on the vehicle has been proposed. For example, a predetermined cost is calculated at each point of the image from the luminance value in the local region of the image, the cost for each route is accumulated along each of the plurality of routes on the image, and the accumulated cost evaluation is based on the highest route. There is a device for detecting a travelable area (see Patent Document 1).

特開2013−3800公報JP 2013-3800 JP

上記特許文献1の装置では、例えば市街路のように道路周辺の建物や設置物が多い状況においては、特に測定対象が遠距離の場合に道路境界周辺のノイズが多く含まれることとなり、走行可能領域の正確な検出が難しくなるという問題があった。   In the apparatus of Patent Document 1, for example, in a situation where there are many buildings and installations around the road such as a city road, particularly when the measurement target is a long distance, a lot of noise around the road boundary is included, and the vehicle can travel. There is a problem that it is difficult to accurately detect the region.

本発明の目的は、高い精度で走行可能領域を検出することができる車載システム、情報処理装置、及びプログラムを提案することである。   The objective of this invention is proposing the vehicle-mounted system, information processing apparatus, and program which can detect a driving | running | working area | region with high precision.

上述した問題を解決するためになされた請求項1に記載の発明は、撮像手段(5)と、エッジ検出手段(25)と、対象物検出手段(3、21)と、方向決定手段(24)と、を備える車載システム(1)である。撮像手段は、車両の周辺を撮像する。エッジ検出手段は、撮像手段により撮像された撮像画像から、所定の勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いてエッジを検出する。   The invention according to claim 1, which has been made to solve the above-described problem, includes an imaging unit (5), an edge detection unit (25), an object detection unit (3, 21), and a direction determination unit (24). And an in-vehicle system (1). The imaging means images the periphery of the vehicle. The edge detection unit detects an edge from the captured image captured by the imaging unit using an edge detection filter that detects an edge along a predetermined gradient direction.

また対象物検出手段は、車両の周辺に存在する対象物の位置を検出する。方向決定手段は、対象物検出手段により検出した対象物の位置に基づいて上述した勾配方向を決定する。そして上記エッジ検出手段が、上記方向決定手段により決定された勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いて上記撮像画像からエッジを検出することを特徴とする。   The object detection means detects the position of the object existing around the vehicle. The direction determining means determines the gradient direction described above based on the position of the object detected by the object detecting means. The edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the gradient direction determined by the direction determination unit.

このように構成された車載システムでは、対象物検出手段により検出された対象物の位置に基づいてエッジ検出フィルタの方向を定められることから、対象物の存在を考慮したエッジ検出を行うことができる。従って、ノイズの影響を低減してエッジを検出することができ、このように検出されたエッジを用いることで走行可能領域を高い精度で検出することができる。   In the vehicle-mounted system configured as described above, since the direction of the edge detection filter can be determined based on the position of the object detected by the object detection means, it is possible to perform edge detection in consideration of the presence of the object. . Therefore, it is possible to detect the edge by reducing the influence of noise, and it is possible to detect the travelable region with high accuracy by using the edge thus detected.

なお上述したエッジとは、撮像画像上の特徴点であり、例えば画像の明るさが鋭敏に変化している箇所である。また上述した対象物とは、車線の方向に沿って配置される縁石やガードレール、側溝のような立体物であるが、これらに限定されるものではない。   Note that the above-described edge is a feature point on the captured image, for example, a location where the brightness of the image changes sharply. Moreover, although the target object mentioned above is solid objects, such as a curb stone, a guard rail, and a side groove, which are arranged along the direction of the lane, it is not limited to these.

また請求項7に記載の発明は、エッジ検出手段(25)と、対象物検出手段(3、21)と、方向決定手段(24)と、を備える情報処理装置(9)である。エッジ検出手段は、車両の周辺を撮像する撮像手段(5)により撮像された撮像画像から、所定の勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いてエッジを検出する。   The invention described in claim 7 is an information processing apparatus (9) comprising an edge detection means (25), an object detection means (3, 21), and a direction determination means (24). The edge detection means detects edges using an edge detection filter that detects edges along a predetermined gradient direction from the captured image captured by the imaging means (5) that captures the periphery of the vehicle.

また対象物検出手段は、車両の周辺に存在する対象物の位置を検出する。方向決定手段は、対象物検出手段により検出した対象物の位置に基づいて上述した勾配方向を決定する。そして上記エッジ検出手段が、上記方向決定手段により決定された勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いて上記撮像画像からエッジを検出することを特徴とする。   The object detection means detects the position of the object existing around the vehicle. The direction determining means determines the gradient direction described above based on the position of the object detected by the object detecting means. The edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the gradient direction determined by the direction determination unit.

このように構成された情報処理装置は、請求項1に記載の車載システムの一部を構成することができる。
ところで、上記請求項7に記載の情報処理装置を構成する各手段は、ハードウェアによって実現してもよいが、請求項8に記載のように、情報処理装置の各手段としてコンピュータを機能させるためのプログラムによって実現してもよい。このようなプログラムであれば、コンピュータを請求項7に記載の情報処理装置として機能させることができる。
The information processing apparatus configured as described above can constitute a part of the in-vehicle system according to claim 1.
By the way, although each means which comprises the information processing apparatus of the said Claim 7 may be implement | achieved by a hardware, in order to make a computer function as each means of an information processing apparatus as described in Claim 8. It may be realized by the program. With such a program, the computer can function as the information processing apparatus according to the seventh aspect.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parenthesis described in this column and a claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is shown. It is not limited.

車載システムを示すブロック図である。It is a block diagram which shows a vehicle-mounted system. 走行可能領域判定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a driving | running | working area | region determination process. レーザーレーダにより検出される測距点を説明する図である。It is a figure explaining the ranging point detected by a laser radar. 車載カメラにより撮像された撮像画像の一例である。It is an example of the captured image imaged with the vehicle-mounted camera. 測距点の射影変換を説明する図であって、(A)がレーザーレーダにより検出される測距点を示す図であり、(B)が模式的な変換行列を示す図であり、(C)が撮像画像に測距点を重畳した図である。FIG. 6 is a diagram for explaining projection conversion of a ranging point, where (A) is a diagram showing a ranging point detected by a laser radar, (B) is a diagram showing a schematic transformation matrix, and (C ) Is a diagram in which ranging points are superimposed on the captured image. 撮像画像のROIの設定方法を説明する図である。It is a figure explaining the setting method of ROI of a captured image. (A),(B)とも、エッジ検出フィルタのサイズ設定方法を説明する図である。(A), (B) is a figure explaining the size setting method of an edge detection filter. エッジ検出フィルタの回転を説明するイメージ図である。It is an image figure explaining rotation of an edge detection filter. エッジ検出画面の一例である。It is an example of an edge detection screen. 走行可能領域の抽出方法を説明する図であって、(A)がエッジ検出画面に測距点を重畳した図であり、(B)が(A)における対象物のエッジ列及び測距点を抽出して拡大した図である。It is a figure explaining the extraction method of a driving | running | working area | region, Comprising: (A) is a figure which superimposed the ranging point on the edge detection screen, (B) is the edge row | line | column and ranging point of the target object in (A). It is the figure which extracted and expanded. ディスプレイに表示される、走行可能領域を示す画像が重畳された撮像画像を示す図である。It is a figure which shows the captured image on which the image which shows a driving | running | working area | region displayed on a display was superimposed.

以下に本発明の実施形態を図面と共に説明する。
(1)車載システム1の構成
車載システム1は自動車等の車両に搭載されて用いられるシステムであって、図1に示すように、レーザーレーダ3と、車載カメラ5と、ディスプレイ7と、情報処理装置9と、を備えている。
Embodiments of the present invention will be described below with reference to the drawings.
(1) Configuration of the in-vehicle system 1 The in-vehicle system 1 is a system used by being mounted on a vehicle such as an automobile. As shown in FIG. 1, a laser radar 3, an in-vehicle camera 5, a display 7, and information processing And a device 9.

車載システム1は、道路における走行可能領域を検出するシステムである。ここでいう走行可能領域とは、縁石やガードレールなどが車線方向に沿って配置されている道路において、縁石やガードレールの切れ目(連続的に配置される縁石等において、部分的に配置されていない箇所)や縁石の切り下げなど、車両が走行車線から側方に移動できる領域のことを意味する。   The in-vehicle system 1 is a system that detects a travelable area on a road. The travelable area here refers to a road where curbs, guardrails, etc. are arranged along the lane direction, where the curb or guardrail breaks (the part of the curbs, etc. that are continuously arranged are not partly located) ) Or curb cut-off, etc., which means the area where the vehicle can move sideways from the driving lane.

レーザーレーダ3は、レーザー光を照射すると共にそのレーザー光の反射光を取得する装置である。反射光の検出信号は情報処理装置9に出力される。情報処理装置9の後述する対象物検出部21では、当該車載システム1が搭載される車両である自車両の前方を中心とした自車両周辺に存在する対象物の位置を、上記検出信号に基づいて算出する。即ち、レーザーレーダ3と対象物検出部21により車両周辺の対象物の位置を検出する。   The laser radar 3 is a device that irradiates laser light and acquires reflected light of the laser light. The reflected light detection signal is output to the information processing device 9. In the object detection unit 21 described later of the information processing device 9, the position of the object existing around the own vehicle around the front of the own vehicle, which is a vehicle on which the in-vehicle system 1 is mounted, is based on the detection signal. To calculate. That is, the position of the object around the vehicle is detected by the laser radar 3 and the object detection unit 21.

ここでいう対象物とは、車両の周辺に位置する立体物であって、道路に沿って配置されているものである。またレーザーレーダ3及び対象物検出部21は、車両の走行路面とは高さの相違する対象物、より具体的には所定の範囲の高さを有する立体物の位置を検出する。   The object here is a three-dimensional object located around the vehicle, and is arranged along the road. The laser radar 3 and the object detection unit 21 detect the position of an object having a height different from that of the traveling road surface of the vehicle, more specifically, a three-dimensional object having a height within a predetermined range.

車載カメラ5は、車両の周辺、特に前方を撮像する撮像装置であって、例えば公知のCCDイメージセンサやCMOSイメージセンサなどを用いることができる。車載カメラ5は、所定の時間間隔(一例として1/15s)で車両前方を撮像し、撮像画像を情報処理装置9に出力する。   The in-vehicle camera 5 is an image pickup device that picks up an image of the periphery of the vehicle, in particular, the front side. For example, a known CCD image sensor or CMOS image sensor can be used. The in-vehicle camera 5 images the front of the vehicle at a predetermined time interval (1/15 s as an example) and outputs the captured image to the information processing device 9.

ディスプレイ7は、画像を表示する液晶ディスプレイなどの表示手段であって、情報処理装置9から入力される信号に従って画像を表示する。本実施形態では、ディスプレイ7は車載カメラ5により撮像された画像に走行可能領域を示す画像を重畳して表示する。   The display 7 is a display unit such as a liquid crystal display that displays an image, and displays an image according to a signal input from the information processing apparatus 9. In the present embodiment, the display 7 superimposes and displays an image indicating the travelable area on the image captured by the in-vehicle camera 5.

情報処理装置9は、レーザーレーダ3の検出信号と、車載カメラ5にて撮像された撮像画像と、に基づいて走行可能領域を検出すると共に、ディスプレイ7を制御して画像を表示させる。   The information processing device 9 detects the travelable area based on the detection signal of the laser radar 3 and the captured image captured by the in-vehicle camera 5 and controls the display 7 to display the image.

この情報処理装置9は、CPU11と、CPU11が実行するプログラム等を記憶するROM12と、CPU11によるプログラム実行時に作業領域として使用されるRAM13と、電気的にデータを書き換え可能なフラッシュメモリやEEPROM等の不揮発性メモリ14などを備えるコンピュータシステムとして構成されており、プログラムの実行により所定の処理を実行する。   The information processing apparatus 9 includes a CPU 11, a ROM 12 that stores a program executed by the CPU 11, a RAM 13 that is used as a work area when the CPU 11 executes a program, a flash memory that can electrically rewrite data, an EEPROM, and the like. The computer system includes a nonvolatile memory 14 and the like, and executes a predetermined process by executing a program.

またこの情報処理装置9は、車両に搭載されるECUや各種センサからの走行情報15を入力する。走行情報15としては、シフトレンジ、車速、ステアリング角度又はヨーレートなどの情報が挙げられる。   The information processing device 9 also inputs travel information 15 from an ECU and various sensors mounted on the vehicle. The travel information 15 includes information such as a shift range, vehicle speed, steering angle, or yaw rate.

この情報処理装置9は、対象物検出部21、射影変換部22、ROI決定部23、フィルタ決定部24、エッジ検出部25、判定部26、及び結果統合出力部27として機能する。   The information processing device 9 functions as an object detection unit 21, a projective conversion unit 22, an ROI determination unit 23, a filter determination unit 24, an edge detection unit 25, a determination unit 26, and a result integration output unit 27.

(2)情報処理装置9による処理
情報処理装置9により実行される走行可能領域判定処理について、図2に示すフローチャートに基づいて説明する。本処理は、一例として車両の走行が開始されたとき(車速が所定の閾値を超えたとき)に開始される。
(2) Processing by Information Processing Device 9 The travelable area determination processing executed by the information processing device 9 will be described based on the flowchart shown in FIG. For example, this process is started when the vehicle starts running (when the vehicle speed exceeds a predetermined threshold).

なお、以下のS1、S2が対象物検出部21の処理であり、S3が射影変換部22の処理であり、S4がROI決定部23の処理であり、S5,S6がフィルタ決定部24の処理であり、S7がエッジ検出部25の処理であり、S8が判定部26の処理であり、S9が結果統合出力部27の処理である。   The following S1 and S2 are processing of the object detection unit 21, S3 is processing of the projective transformation unit 22, S4 is processing of the ROI determination unit 23, and S5 and S6 are processing of the filter determination unit 24. S7 is processing of the edge detection unit 25, S8 is processing of the determination unit 26, and S9 is processing of the result integrated output unit 27.

S1では、CPU11は所定の高さ範囲に含まれる測距点を検出する。ここでは、まずレーザーレーダ3の検出信号に基づいて、車両周辺における立体物の存在する位置を検出する。以降、この位置を測距点と記載する。   In S1, the CPU 11 detects a distance measuring point included in a predetermined height range. Here, first, based on the detection signal of the laser radar 3, the position where the three-dimensional object exists around the vehicle is detected. Hereinafter, this position is referred to as a distance measuring point.

図3は、検出される測距点を説明する図である。レーザーレーダ3は車両101に搭載されており、複数の測距点103を検出する。検出された複数の測距点103はそれぞれレーザーレーダ3を基準とした距離及び高さの情報を有している。   FIG. 3 is a diagram for explaining detected distance measuring points. The laser radar 3 is mounted on the vehicle 101 and detects a plurality of ranging points 103. Each of the detected distance measuring points 103 has information on distance and height with reference to the laser radar 3.

CPU11は、検出された複数の測距点103の中から、所定の高さ範囲の高さを有する立体物の測距点103を抽出する。図3においては、破線で示す測距点103cは所定の高さ範囲外のものであるため除外され、測距点103a、103bが抽出される。   The CPU 11 extracts a distance measuring point 103 of a three-dimensional object having a height in a predetermined height range from the plurality of detected distance measuring points 103. In FIG. 3, the ranging point 103c indicated by the broken line is excluded because it is outside the predetermined height range, and the ranging points 103a and 103b are extracted.

なお本実施形態における上述した高さ範囲は15〜25cmであって、これは道路の縁石の高さに相当するものである。本実施形態では縁石を対象物としてレーザーレーダ3による検出を行っており、測距点は縁石であるものと想定して以下の処理が実行される。   In addition, the height range mentioned above in this embodiment is 15-25 cm, and this is equivalent to the height of the curb on the road. In the present embodiment, detection by the laser radar 3 is performed using a curb as an object, and the following processing is executed assuming that the distance measuring point is a curb.

なお、ここでいう高さとは車両の走行面を基準とした高さである。例えば車両が走行する現在位置は水平であるが先方は上りになっている道路のように走行中の道路の傾斜と先の道路の傾斜が相違する場合などには、現在の車両の位置を基準として高さを測定すると測距点の高さが正確な値ではなくなってしまう可能性がある。   In addition, the height here is a height based on the traveling surface of the vehicle. For example, if the current road position where the vehicle is traveling is horizontal but the road ahead is different, such as an uphill road, the current road position is the reference. If the height is measured as such, the height of the distance measuring point may not be an accurate value.

そこで、その高さが路面からの高さとなるように数値の補正を行ってもよい。例えば測距点近傍の道路の高さ(現在の車両の位置を基準とする高さ)も合わせて測定して、その道路の高さが基準となるように測距点の高さを補正することが考えられる。   Therefore, the numerical value may be corrected so that the height becomes the height from the road surface. For example, the height of the road in the vicinity of the distance measuring point (height based on the current vehicle position) is also measured, and the height of the distance measuring point is corrected so that the height of the road becomes the reference. It is possible.

S2では、CPU11は測距点の絞り込みを行う。ここでは、S1にて検出した候補点(測距点103a、103b)から縁石以外の測距点を削除する。道路境界に設置されている縁石の並びは直線状或いは緩やかな曲線状になる場合が多い。そのことを利用して、候補点に対して公知の技術であるHOUGH変換を行い直線又は曲線を算出し、その線から所定の距離内に存在する候補点を、縁石を示す測距点として抽出する。   In S2, the CPU 11 narrows down the distance measuring points. Here, ranging points other than the curb are deleted from the candidate points (ranging points 103a and 103b) detected in S1. In many cases, the curbs arranged at the road boundary are linear or gently curved. Using this, HOUGH conversion, which is a well-known technique, is performed on the candidate points to calculate a straight line or a curve, and candidate points existing within a predetermined distance from the line are extracted as ranging points indicating curbstones. To do.

図3においては、HOUGH変換にて算出された直線105に沿った測距点103が縁石を示す測距点として抽出される。
なおこのS2では、前時刻で検出された(過去に実行したS2にて絞り込まれた)測距点107をHOUGH変換による絞り込みに用いる。なお過去の測距点107は車速やステアリング角度などの走行情報15を用いて車両の走行に伴う誤差を補正することができるが、現時刻と前時刻の時間差が十分に小さい場合には補正を行わなくてもよい。S2にて絞り込んだ測距点は、後のS2での絞り込みに用いるためRAM13に記憶される。
In FIG. 3, a distance measuring point 103 along the straight line 105 calculated by the HOUGH conversion is extracted as a distance measuring point indicating a curb.
In S2, the distance measuring points 107 detected at the previous time (those narrowed down in S2 executed in the past) are used for narrowing down by HOUGH conversion. The past distance measuring point 107 can correct the error associated with the traveling of the vehicle using the traveling information 15 such as the vehicle speed and the steering angle, but if the time difference between the current time and the previous time is sufficiently small, the correction is made. It does not have to be done. The distance measuring points narrowed down in S2 are stored in the RAM 13 for use in the subsequent narrowing down in S2.

S3では、CPU11はS2にて絞り込んだ測距点の位置を、車載カメラ5にて撮像した撮像画像の画像空間の座標へ射影変換する。撮像された撮像画像の一例を図4に示す。撮像画像111では車線に沿って縁石113が配置されているが、一部に縁石113の切り下げ領域115が形成されている。本処理はこの切り下げ領域115を走行可能領域として認識するための処理を実行する。   In S <b> 3, the CPU 11 performs projective conversion of the position of the distance measuring point narrowed down in S <b> 2 to the coordinates of the image space of the captured image captured by the in-vehicle camera 5. An example of the captured image is shown in FIG. In the captured image 111, the curb 113 is arranged along the lane, but a cut-down region 115 of the curb 113 is formed in part. This process executes a process for recognizing the cut-down area 115 as a travelable area.

このS3では、まず車載カメラ5にて新たに撮像した撮像画像を取得する。次に、図5(A)に示す各測距点103aの座標(X,Y,Z)を、図5(B)に示すような変換行列を用いて図5(C)に示すように撮像画像111上の座標(x,y,1)で示される測距点117に変換する。以下、撮像画像の説明においては、この変換した測距点117の位置を単に測距点の位置と記載する。   In S3, first, a captured image newly captured by the in-vehicle camera 5 is acquired. Next, the coordinates (X, Y, Z) of each ranging point 103a shown in FIG. 5A are imaged as shown in FIG. 5C using a transformation matrix as shown in FIG. 5B. A distance measuring point 117 indicated by coordinates (x, y, 1) on the image 111 is converted. Hereinafter, in the description of the captured image, the converted position of the distance measuring point 117 is simply referred to as the position of the distance measuring point.

この撮像画像111は、車載カメラ5の設置位置に基づいてその撮像される範囲を求めることが可能である。そのため、上述した変換行列を用いてレーザーレーダ3による測距点を画像上に重畳することができる。   The captured image 111 can determine the range to be captured based on the installation position of the in-vehicle camera 5. Therefore, it is possible to superimpose a distance measuring point by the laser radar 3 on the image using the above-described conversion matrix.

S4では、CPU11は、撮像画像のROI(Region of Interest)を設定する。ROIはエッジ検出の対象となる領域である。ここでは、図6に示すように、撮像画像111における測距点117の位置を考慮して、測距点117を含むようにROI121を設定する。ROI121は測距点の位置を中心として幅を持って設定されるが、車両から測距点117までの距離が遠いほどその幅は小さく設定される。   In S4, the CPU 11 sets an ROI (Region of Interest) of the captured image. The ROI is an area for edge detection. Here, as shown in FIG. 6, the ROI 121 is set so as to include the distance measuring point 117 in consideration of the position of the distance measuring point 117 in the captured image 111. The ROI 121 is set with a width around the position of the distance measuring point, but the width is set smaller as the distance from the vehicle to the distance measuring point 117 is longer.

S5では、CPU11は、撮像画像からエッジを検出するためのエッジ検出フィルタのサイズを設定する。ここでは、まず、S2にて絞り込んだ測距点の3次元座標の情報(X,Y,Z)から、レーザーレーダ3の位置から測距点までの距離、換言すると自車両の位置から測距点までの実空間距離を算出する。   In S5, the CPU 11 sets the size of the edge detection filter for detecting the edge from the captured image. Here, first, the distance from the position of the laser radar 3 to the distance measuring point, in other words, the distance from the position of the own vehicle, from the information (X, Y, Z) of the distance measuring point narrowed down in S2. The real space distance to the point is calculated.

そしてCPU11は、図7(A)に示すように、測距点117までの実空間距離が近いほどエッジ検出フィルタ123のサイズが大きくなるようにフィルタサイズを設定する。測距点117ごとに実空間距離は異なるため、ROI121における位置によってサイズの異なるエッジ検出フィルタ123が設定される。   Then, as shown in FIG. 7A, the CPU 11 sets the filter size so that the size of the edge detection filter 123 increases as the real space distance to the distance measuring point 117 is shorter. Since the real space distance is different for each ranging point 117, the edge detection filter 123 having a different size depending on the position in the ROI 121 is set.

なお図7(A)のように車両の近傍に測距点が存在する場合には小さなサイズから大きなサイズまでのエッジ検出フィルタ123を用いるが、図7(B)に示す撮像画像111aのように車両と縁石113との距離が離れている場合には、大きなエッジ検出フィルタは用いない。このように、自車両からの距離に応じた適当なサイズのフィルタが設定される。   Note that when there is a distance measuring point in the vicinity of the vehicle as shown in FIG. 7A, an edge detection filter 123 having a small size to a large size is used, but as shown in a captured image 111a shown in FIG. 7B. When the distance between the vehicle and the curb stone 113 is large, a large edge detection filter is not used. In this way, a filter of an appropriate size is set according to the distance from the host vehicle.

S6では、CPU11はエッジフィルタの回転を行う。上述したように道路境界に設置されている縁石の並びは直線的になると想定されるため、図6に示すように、エッジの勾配方向も限られた方向に限定される。   In S6, the CPU 11 rotates the edge filter. As described above, it is assumed that the curb lines installed on the road boundary are linear, and as shown in FIG. 6, the edge gradient direction is also limited to a limited direction.

このS6では、画像空間に変換した測距点の2次元座標(x,y)から、下記の式1により測距点の画像上の勾配方向を算出し、算出された勾配方向に沿うように、即ちその勾配方向に沿ったエッジを検出するように、エッジ検出フィルタ123を回転させてその向きを設定する。このように回転されたエッジ検出フィルタ123を用いることにより、ノイズの影響を低減して高精度に縁石のエッジを検出することができる。

Figure 2016018371
In S6, the gradient direction on the image of the distance measurement point is calculated from the two-dimensional coordinates (x i , y i ) of the distance measurement point converted into the image space by the following formula 1, and along the calculated gradient direction. In other words, the edge detection filter 123 is rotated to set its direction so as to detect an edge along the gradient direction. By using the edge detection filter 123 rotated in this way, the influence of noise can be reduced and the edge of the curb can be detected with high accuracy.
Figure 2016018371

上記式1において、xは画像空間での測距点のx座標であり、yは画像空間での測距点のy座標である。またNは測距点の数である。そして図8に示すように、エッジ検出フィルタを算出したtan(θ)に応じて回転させる。なお図8はフィルタ回転のイメージを表す図である。   In the above equation 1, x is the x coordinate of the distance measuring point in the image space, and y is the y coordinate of the distance measuring point in the image space. N is the number of distance measuring points. Then, as shown in FIG. 8, the edge detection filter is rotated according to the calculated tan (θ). FIG. 8 shows an image of filter rotation.

なお、フィルタの回転及び設定とは、様々な勾配に沿ったエッジを検出するエッジ検出フィルタが予め用意されており、その中から使用すべきフィルタを選択して用いることが含まれる。   Note that the rotation and setting of the filter includes selecting and using a filter to be used from among edge detection filters that detect edges along various gradients in advance.

S7では、CPU11は撮像画像からエッジを検出する。ここでは、撮像画像におけるS4にて設定したROIにおいて、S5,S6にて設定したエッジ検出フィルタを用いてエッジを検出する。図9にエッジ検出の結果であるエッジ検出画面125の例を示す。このエッジ検出画面125のように、撮像画像のROIにおけるエッジ検出フィルタの向きに沿ったエッジのみが抽出される。   In S7, the CPU 11 detects an edge from the captured image. Here, in the ROI set in S4 in the captured image, the edge is detected using the edge detection filter set in S5 and S6. FIG. 9 shows an example of the edge detection screen 125 as a result of edge detection. As in the edge detection screen 125, only edges along the direction of the edge detection filter in the ROI of the captured image are extracted.

S8では、CPU11はレーザーレーダ3による縁石の測距点と、撮像画像から抽出したエッジとを足し合わせ、その結果から走行可能領域を抽出する。
本実施形態では、まずCPU11はレーザーレーダ3による縁石の測距点に対応するエッジを特定する。図10(A)に示すように、エッジ検出画面125に測距点117を重畳し、エッジと測距点とを重ね合わせると、測距点117に対応するエッジ列131、つまり対象物のエッジと考えられるエッジ列131が特定可能となる。CPU11は、このエッジ列131を走行可能領域抽出のための測距点117の補完に用いる。
In S8, the CPU 11 adds the curb distance measuring point by the laser radar 3 and the edge extracted from the captured image, and extracts the travelable area from the result.
In the present embodiment, first, the CPU 11 specifies an edge corresponding to a distance measuring point of the curb by the laser radar 3. As shown in FIG. 10A, when the distance measuring point 117 is superimposed on the edge detection screen 125 and the edge and the distance measuring point are overlapped, the edge row 131 corresponding to the distance measuring point 117, that is, the edge of the object. Can be identified. The CPU 11 uses this edge row 131 to complement the distance measuring points 117 for extracting the travelable area.

図10(A)における対象物のエッジ列131及び測距点117を抽出して拡大した図10(B)に示すように、縁石を示す測距点117が存在せず、更にエッジ列131が存在しない領域が、走行可能領域133と判断される。一方、そのエッジ列131が測距点117を結ぶように延びて存在していれば、測距点117の間隔が大きく空いていても、その間は走行不能領域135と判断される。   As shown in FIG. 10B in which the edge row 131 and the distance measuring points 117 of the object in FIG. 10A are extracted and enlarged, the distance measuring points 117 indicating the curb do not exist, and the edge rows 131 further exist. The area that does not exist is determined to be the travelable area 133. On the other hand, if the edge row 131 extends so as to connect the distance measuring points 117, even if the distance between the distance measuring points 117 is large, it is determined that the travel impossible area 135 is in between.

なお、測距点117のみ存在する領域は、エッジが検出されていなくとも何らかの立体物が存在するため走行不能領域と判断される。また測距点117は存在せずエッジのみ存在する領域は、小さな段差や白線等の道路表面上の色が異なる領域と想定できるため走行可能領域と判断される。   It should be noted that the area where only the distance measuring point 117 exists is determined to be a non-travelable area because some solid object exists even if no edge is detected. Further, an area where there is no distance measuring point 117 and only an edge can be assumed to be an area where the color on the road surface such as a small step or a white line is different, so that it is determined as a travelable area.

S9では、CPU11は図11に示すようにディスプレイ7に走行可能領域を示す画像141を重畳表示した撮像画像143を表示させる。このS9の後S1に戻る。よって、車両の走行中は連続的に撮像画像143の表示が行われる。   In S9, the CPU 11 causes the display 7 to display a captured image 143 in which an image 141 indicating the travelable area is superimposed and displayed as shown in FIG. After S9, the process returns to S1. Therefore, the captured image 143 is continuously displayed while the vehicle is traveling.

(3)効果
本実施形態の車載システム1は、レーザーレーダ3及び対象物検出部21が車両周辺の対象物の位置を測距点として検出する。また車載カメラ5は車両の周辺を撮像し、エッジ検出部25がその撮像画像からエッジを検出する。エッジ検出部25はエッジ検出フィルタを用いてエッジを検出する。フィルタ決定部24は対象物の測距点に基づいてエッジ検出フィルタの勾配方向を決定する。
(3) Effect In the in-vehicle system 1 of the present embodiment, the laser radar 3 and the object detection unit 21 detect the position of the object around the vehicle as a distance measuring point. The in-vehicle camera 5 captures the periphery of the vehicle, and the edge detection unit 25 detects the edge from the captured image. The edge detection unit 25 detects an edge using an edge detection filter. The filter determination unit 24 determines the gradient direction of the edge detection filter based on the distance measuring point of the object.

即ち、本実施形態の車載システム1は、撮像手段(5)と、エッジ検出手段(25)と、対象物検出手段(3、21)と、方向決定手段(11、24)とを備える。撮像手段は車両の周辺を撮像する。エッジ検出手段は、撮像手段により撮像された撮像画像から、所定の勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いてエッジを検出する。   That is, the in-vehicle system 1 of the present embodiment includes an imaging unit (5), an edge detection unit (25), an object detection unit (3, 21), and a direction determination unit (11, 24). The imaging means images the periphery of the vehicle. The edge detection unit detects an edge from the captured image captured by the imaging unit using an edge detection filter that detects an edge along a predetermined gradient direction.

また対象物検出手段は、車両の周辺に存在する対象物の位置を検出する。方向決定手段は、対象物検出手段により検出した対象物の位置に基づいて、エッジ検出手段が用いるエッジ検出フィルタの上述した勾配方向を決定する。そして上記エッジ検出手段は、上記方向決定手段により決定された方向に沿ったエッジを検出するエッジ検出フィルタを用いて上記撮像画像からエッジを検出することを特徴とする。   The object detection means detects the position of the object existing around the vehicle. The direction determination unit determines the above-described gradient direction of the edge detection filter used by the edge detection unit based on the position of the target detected by the target detection unit. The edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the direction determined by the direction determination unit.

このように構成された本実施形態の車載システム1は、縁石を対象物として検出した測距点に基づいて、撮像画像におけるその測距点の並ぶ方向に沿ってエッジ検出フィルタの方向が定められることから、撮像画像からエッジを検出するときに、高い精度で縁石のエッジを検出することができる。従って、ノイズの影響を受けにくく有用なエッジを検出することができ、走行可能領域を高い精度で検出することができる。   In the vehicle-mounted system 1 according to the present embodiment configured as described above, the direction of the edge detection filter is determined along the direction in which the distance measurement points are arranged in the captured image based on the distance measurement points detected by using the curb as an object. Therefore, when detecting an edge from a captured image, the edge of the curb can be detected with high accuracy. Therefore, it is possible to detect a useful edge that is not easily affected by noise, and it is possible to detect a travelable region with high accuracy.

なお、対象物検出手段が検出する対象物の位置とは、少なくとも車両との位置関係を把握することができる情報である。対象物と車両との位置関係を把握することで撮像画像における対象物の存在する位置を求めることができ、それによりエッジ検出フィルタの適切な方向を決定することができる。   Note that the position of the object detected by the object detection means is information capable of grasping at least the positional relationship with the vehicle. By grasping the positional relationship between the target object and the vehicle, the position where the target object exists in the captured image can be obtained, and thereby an appropriate direction of the edge detection filter can be determined.

なお、車両周辺の対象物の存在を検出する装置として、レーザーレーダ以外の装置を用いてもよい。例えば、ミリ波レーダを用いることができる。
また本実施形態の車載システム1は、射影変換部22が対象物の測距点を撮像画像上の座標に射影変換し、その変換した位置に基づいてエッジ検出フィルタの上述した方向を決定する。
An apparatus other than the laser radar may be used as an apparatus for detecting the presence of an object around the vehicle. For example, a millimeter wave radar can be used.
Further, in the in-vehicle system 1 of the present embodiment, the projective conversion unit 22 performs projective conversion of the distance measuring point of the object into coordinates on the captured image, and determines the above-described direction of the edge detection filter based on the converted position.

即ち本実施形態の車載システム1は、対象物検出手段により検出された対象物の位置を撮像画像上の位置に変換する変換手段(22)を備え、方向決定手段は、変換手段により変換された前記対象物の前記撮像画像上の位置に基づいて、エッジ検出フィルタの方向を決定する。   That is, the in-vehicle system 1 of this embodiment includes a conversion unit (22) that converts the position of the object detected by the object detection unit into a position on the captured image, and the direction determination unit is converted by the conversion unit. The direction of the edge detection filter is determined based on the position of the object on the captured image.

対象物を検出した測距点の撮像画像上の位置は、その対象物のエッジが検出される可能性が高い位置であることから、上記のように撮像画像に射影された測距点に基づきエッジ検出フィルタの方向を決定することで高い精度でエッジを検出することができる。   Since the position of the ranging point where the object is detected on the captured image is a position where the edge of the object is highly likely to be detected, it is based on the ranging point projected onto the captured image as described above. By determining the direction of the edge detection filter, the edge can be detected with high accuracy.

また、本実施形態の車載システム1の対象物検出部21は、図2のS1において、高さが15〜25cmの範囲である対象物の位置を検出する。従って、レーザーレーダ3にて検出する対象物を縁石に絞り込むことが可能となり、高い精度で縁石を検出することができる。   Moreover, the target object detection part 21 of the vehicle-mounted system 1 of this embodiment detects the position of the target object whose height is the range of 15-25 cm in S1 of FIG. Therefore, the object detected by the laser radar 3 can be narrowed down to the curbstone, and the curbstone can be detected with high accuracy.

なお本実施形態では縁石を対象物として設定して走行可能領域を検出する構成を例示したが、縁石以外のものを対象物として検出する構成であってもよい。例えば、検出する高さの範囲を設定することで、側溝やガードレールなどを対象物とすることができる。   In the present embodiment, the curb is set as an object and the travelable area is detected as an example. However, a structure other than the curb may be detected as the object. For example, by setting a range of height to be detected, a side groove, a guard rail, or the like can be set as an object.

検出する対象物に応じて対象物検出部21やエッジ検出部25の処理を変更してもよい。例えばガードレールを対象物とする場合は、撮像画像からガードレールを検出する際に、光の反射強度、色、輝度などのガードレール特有のパラメータを利用してガードレールを検出することができるため、撮像画像からガードレールのエッジを検出する精度を高めることができる。   The processing of the object detection unit 21 and the edge detection unit 25 may be changed according to the object to be detected. For example, when a guardrail is used as an object, when detecting a guardrail from a captured image, the guardrail can be detected using parameters specific to the guardrail such as light reflection intensity, color, and brightness. The accuracy of detecting the edge of the guardrail can be increased.

またこのように撮像画像からの検出精度を高めることができれば、レーザーレーダ3による対象物の絞り込みの閾値を下げて、検出する高さ範囲を広めに設定しても、エッジと測距点とを組み合わせることで精度の高い対象物検出を実現することができる。   Further, if the detection accuracy from the captured image can be improved in this way, the edge and the distance measuring point can be detected even if the threshold for narrowing down the object by the laser radar 3 is lowered and the height range to be detected is set wider. By combining them, highly accurate object detection can be realized.

また、本実施形態の車載システム1の判定部26は、図2のS8において、レーザーレーダ3及び対象物検出部21により検出した測距点と、エッジ検出部25により車載カメラ5の撮像画像から抽出されたエッジとを足し合わせ、その結果から走行可能領域か否かを判断する。   Further, the determination unit 26 of the in-vehicle system 1 of the present embodiment uses the distance measurement points detected by the laser radar 3 and the object detection unit 21 in S8 of FIG. 2 and the captured image of the in-vehicle camera 5 by the edge detection unit 25. The extracted edges are added together, and it is determined from the result whether or not it is a travelable region.

即ち、本実施形態の車載システム1は、エッジ検出手段により検出されたエッジと、対象物検出手段により検出された対象物の位置と、に基づいて、車両が走行可能である領域を判定する判定手段(11、26)を備える。   That is, the in-vehicle system 1 according to the present embodiment determines the region in which the vehicle can travel based on the edge detected by the edge detection unit and the position of the target detected by the target detection unit. Means (11, 26) are provided.

このように構成された車載システム1は、レーザーレーダ3と車載カメラ5との両方の検出結果を組み合わせて精度の高い走行可能領域の検出を実現できる。
なお本実施形態においては、判定部26は縁石の測距点に対応するエッジが存在せず、かつ、縁石の測距点が存在しない場所を走行可能領域と判断する。
The in-vehicle system 1 configured as described above can realize detection of a travelable region with high accuracy by combining detection results of both the laser radar 3 and the in-vehicle camera 5.
In the present embodiment, the determination unit 26 determines that a region where no edge corresponding to the curb distance measurement point exists and no curb distance measurement point exists is the travelable area.

即ち、本実施形態の車載システム1は、判定手段が、対象物検出手段により対象物が検出されなかった道路上の領域に、エッジ検出手段により検出されたエッジが撮像画像上の上記領域に対応する位置に存在しない場合に、上記領域が車両の走行が可能である領域と判定する。   That is, in the in-vehicle system 1 of the present embodiment, the determination unit corresponds to an area on the road where the object is not detected by the object detection unit, and the edge detected by the edge detection unit corresponds to the area on the captured image. In the case where the vehicle does not exist at the position where the vehicle travels, the region is determined as a region where the vehicle can travel.

このように構成された車載システム1は、縁石が存在しないことをレーザーレーダ3と車載カメラ5の両センサの検出信号から判断するため、縁石の存在の判断精度を高めることができる。よって縁石が存在しない場合のみでなく、縁石の切り下げも検出することができるようになる。   Since the in-vehicle system 1 configured as described above determines that no curb exists from the detection signals of both the laser radar 3 and the in-vehicle camera 5, it is possible to improve the accuracy of determining the presence of the curb. Therefore, it is possible to detect not only curb stones but also curb cut-downs.

なお、判定部26は上述したエッジが複数の測距点を結ぶように延びて存在していれば、測距点の間隔が大きく空いていてもその間は走行不能領域と判断する。そのため、車載システム1は縁石が存在するものの何らかの理由で測距点に間隔が空いてしまったときに、誤って走行可能領域と判断されてしまう危険を低減できる。   Note that if the edge described above extends so as to connect a plurality of distance measuring points, the determining unit 26 determines that the distance between the distance measuring points is an untravelable region during that time. Therefore, the in-vehicle system 1 can reduce the risk of being erroneously determined as the travelable area when the distance measuring point is spaced for some reason although there is a curb.

また本実施形態の車載システム1におけるエッジ検出部25は、図2のS4において、レーザーレーダ3及び対象物検出部21により対象物が検出された位置に基づいて、撮像画像からエッジを検出する範囲(ROI)を設定する。   In addition, the edge detection unit 25 in the in-vehicle system 1 of the present embodiment is a range in which an edge is detected from a captured image based on the position where the object is detected by the laser radar 3 and the object detection unit 21 in S4 of FIG. (ROI) is set.

このように構成された車載システム1は、エッジを検出するための画像処理を行う計算範囲を絞り込めるため、計算コストの削減が可能となる。更に本車載システム1は車両からの距離が遠い地点に対応する撮像画像上の地点ほどROIを小さく設定するため、ROIに含まれるノイズとなる成分を低減できる。   Since the in-vehicle system 1 configured in this way can narrow down the calculation range for performing image processing for detecting edges, the calculation cost can be reduced. Furthermore, since the in-vehicle system 1 sets the ROI to be smaller as the point on the captured image corresponding to the point far from the vehicle is, the noise component included in the ROI can be reduced.

また本実施形態の車載システム1におけるフィルタ決定部24は、レーザーレーダ3及び対象物検出部21により対象物が検出された位置が近いほど、大きいサイズのエッジ検出フィルタを用いるようにフィルタサイズを設定する。車両からの距離が遠い領域では、フィルタを小さくすることで含まれるノイズを低減できる。一方、距離が近い領域では、フィルタを大きくすることで必要なエッジを検出する精度を高めることができる。   Further, the filter determination unit 24 in the in-vehicle system 1 of the present embodiment sets the filter size so that the edge detection filter having a larger size is used as the position where the object is detected by the laser radar 3 and the object detection unit 21 is closer. To do. In a region far from the vehicle, the noise included can be reduced by reducing the filter. On the other hand, in an area where the distance is short, the accuracy of detecting a necessary edge can be increased by increasing the filter.

[変形例]
以上本発明の実施形態について説明したが、本発明は、上記実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
[Modification]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and it goes without saying that various forms can be taken as long as they belong to the technical scope of the present invention.

例えば、上記実施形態において説明した走行可能領域判定処理における具体的な処理内容はあくまで一例であって、上述した内容に限定されるものではない。例えばS2においてはHOUGH変換を用いて縁石の測距点を抽出したが、これ以外の手法で測距点を抽出してもよい。例えば過去の測距点から縁石の位置を予測して、予測された位置に近い測距点のみを抽出することが考えられる。   For example, the specific processing content in the travelable area determination processing described in the above embodiment is merely an example, and is not limited to the above-described content. For example, in S2, the curb distance measurement points are extracted using HOUGH conversion, but the distance measurement points may be extracted by other methods. For example, it is conceivable to predict the position of the curb from past distance measuring points and extract only distance measuring points close to the predicted position.

また、S4,S5にて実行されるROIの設定及びフィルタサイズの設定は、いずれか一方又は両方が実行しないように構成されていてもよい。
また上記実施形態においては、図10(A),(B)に示すように測距点117に沿ったエッジ列131を抽出し、測距点117をベースとしてエッジ列131を補完的に用いて走行可能領域133を検出する構成を例示したが、その方法に限定されることはなく、測距点とエッジとを組み合わせた様々な方法で走行可能領域を検出することができる。
The ROI setting and the filter size setting executed in S4 and S5 may be configured such that either one or both are not executed.
Further, in the above embodiment, as shown in FIGS. 10A and 10B, the edge row 131 along the distance measuring point 117 is extracted, and the edge row 131 is used complementarily based on the distance measuring point 117. Although the configuration for detecting the travelable area 133 has been illustrated, the present invention is not limited to this method, and the travelable area can be detected by various methods combining a distance measuring point and an edge.

また上記実施形態においては検出した走行可能領域をディスプレイ7に表示させる構成を例示したが、検出した走行可能領域の使用方法はそれに限定されない。
例えば、車両が自動運転を行う機能を有する場合、当該車両は走行可能領域を検出してその領域を走行するように構成されていてもよい。また、走行中の車線を逸脱すると予測された場合に警報を行う機能を車両が有する場合、当該車両は走行可能領域に進行する場合には車線を逸脱したと判定しないように構成されていてもよい。
Moreover, in the said embodiment, although the structure which displays the detected driveable area | region on the display 7 was illustrated, the usage method of the detected driveable area | region is not limited to it.
For example, when the vehicle has a function of performing automatic driving, the vehicle may be configured to detect a travelable region and travel in that region. In addition, if the vehicle has a function of issuing an alarm when it is predicted that the vehicle will deviate from the traveling lane, the vehicle may be configured not to determine that the vehicle has deviated from the lane when traveling to the travelable region. Good.

なお、上述した情報処理装置9が備える各手段としての機能は、プログラムによりコンピュータに実現させることができる。
上記プログラムは、コンピュータによる処理に適した命令の順番付けられた列からなるものであって、コンピュータに組み込まれるROMやRAMなどに記憶され、これらからコンピュータにロードされて用いられてもよいし、各種記録媒体や通信回線を介してコンピュータにロードされ用いられるものであってもよい。
In addition, the function as each means with which the information processing apparatus 9 mentioned above is provided can be realized in a computer by a program.
The program consists of an ordered sequence of instructions suitable for processing by a computer, stored in a ROM or RAM incorporated in the computer, and may be loaded and used from there. It may be loaded into a computer and used via various recording media and communication lines.

記録媒体としては、CD−ROMやDVD−ROM等の光ディスク、磁気ディスク、半導体製メモリ等が挙げられる。
情報処理装置9は、ASIC(Application Specific Integrated Circuits)、FPGA(Field Programmable Gate Array)などのプログラマブルロジックデバイスや、ディスクリート回路であってもよい。
Examples of the recording medium include optical disks such as CD-ROM and DVD-ROM, magnetic disks, and semiconductor memories.
The information processing apparatus 9 may be a programmable logic device such as ASIC (Application Specific Integrated Circuits) or FPGA (Field Programmable Gate Array), or a discrete circuit.

1…車載システム、3…レーザーレーダ、5…車載カメラ、9…情報処理装置、11…CPU、21…対象物検出部、22…射影変換部、23…ROI決定部、24…フィルタ決定部、25…エッジ検出部、26…判定部 DESCRIPTION OF SYMBOLS 1 ... In-vehicle system, 3 ... Laser radar, 5 ... In-vehicle camera, 9 ... Information processing apparatus, 11 ... CPU, 21 ... Object detection part, 22 ... Projection conversion part, 23 ... ROI determination part, 24 ... Filter determination part, 25: Edge detection unit, 26: Determination unit

Claims (8)

車両の周辺を撮像する撮像手段(5)と、
前記撮像手段により撮像された撮像画像から、所定の勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いてエッジを検出するエッジ検出手段(25)と、
前記車両の周辺に存在する対象物の位置を検出する対象物検出手段(3、21)と、
前記対象物検出手段により検出した前記対象物の位置に基づいて前記勾配方向を決定する方向決定手段(24)と、を備え、
前記エッジ検出手段は、前記方向決定手段により決定された前記勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いて前記撮像画像からエッジを検出する
ことを特徴とする車載システム。
Imaging means (5) for imaging the periphery of the vehicle;
Edge detection means (25) for detecting an edge from an image captured by the imaging means using an edge detection filter for detecting an edge along a predetermined gradient direction;
Object detection means (3, 21) for detecting the position of an object existing around the vehicle;
Direction determining means (24) for determining the gradient direction based on the position of the object detected by the object detecting means,
The in-vehicle system, wherein the edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the gradient direction determined by the direction determination unit.
前記対象物検出手段により検出された対象物の位置を前記撮像画像上の位置に変換する変換手段(22)を備え、
前記方向決定手段は、前記変換手段により変換された前記対象物の前記撮像画像上の位置に基づいて、前記エッジ検出フィルタの前記勾配方向を決定する
ことを特徴とする請求項1に記載の車載システム。
Conversion means (22) for converting the position of the object detected by the object detection means into a position on the captured image;
2. The vehicle-mounted device according to claim 1, wherein the direction determination unit determines the gradient direction of the edge detection filter based on a position on the captured image of the object converted by the conversion unit. system.
前記対象物検出手段は、所定の範囲の高さを有する前記対象物の位置を検出する
ことを特徴とする請求項1又は請求項2に記載の車載システム。
The in-vehicle system according to claim 1, wherein the object detection unit detects a position of the object having a height within a predetermined range.
前記エッジ検出手段により検出された前記エッジと、前記対象物検出手段により検出された対象物の位置と、に基づいて、車両が走行可能である領域を判定する判定手段を備える
ことを特徴とする請求項1から請求項3のいずれか1項に記載の車載システム。
And a determination unit that determines a region in which the vehicle can travel based on the edge detected by the edge detection unit and the position of the target detected by the target detection unit. The in-vehicle system according to any one of claims 1 to 3.
前記判定手段は、前記対象物検出手段により前記対象物が検出されなかった道路上の領域に、前記エッジ検出手段により検出されたエッジが前記撮像画像上の前記領域に対応する位置に存在しない場合に、前記領域が車両の走行が可能である領域と判定する
ことを特徴とする請求項4に記載の車載システム。
In the case where the determination unit does not include an edge detected by the edge detection unit in a position corresponding to the region on the captured image in an area on the road where the object is not detected by the object detection unit. The vehicle-mounted system according to claim 4, wherein the region is determined as a region where the vehicle can travel.
前記エッジ検出手段は、前記対象物検出手段により前記対象物が検出された位置に基づいて、前記撮像画像からエッジを検出する範囲を設定する
ことを特徴とする請求項1から請求項5のいずれか1項に記載の車載システム。
The said edge detection means sets the range which detects an edge from the said captured image based on the position where the said target object was detected by the said target object detection means. Any one of Claims 1-5 characterized by the above-mentioned. The in-vehicle system according to claim 1.
車両の周辺を撮像する撮像手段(5)により撮像された撮像画像から、所定の勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いてエッジを検出するエッジ検出手段(25)と、
前記車両の周辺に存在する対象物の位置を検出する対象物検出手段(3、21)と、
前記対象物検出手段により検出した前記対象物の位置に基づいて前記勾配方向を決定する方向決定手段(24)と、を備え、
前記エッジ検出手段は、前記方向決定手段により決定された前記勾配方向に沿ったエッジを検出するエッジ検出フィルタを用いて前記撮像画像からエッジを検出する
ことを特徴とする情報処理装置。
Edge detection means (25) for detecting an edge using an edge detection filter for detecting an edge along a predetermined gradient direction from a captured image captured by an imaging means (5) for capturing the periphery of the vehicle;
Object detection means (3, 21) for detecting the position of an object existing around the vehicle;
Direction determining means (24) for determining the gradient direction based on the position of the object detected by the object detecting means,
The information processing apparatus according to claim 1, wherein the edge detection unit detects an edge from the captured image using an edge detection filter that detects an edge along the gradient direction determined by the direction determination unit.
請求項7に記載の情報処理装置の各手段として、コンピュータを機能させるためのプログラム。   A program for causing a computer to function as each unit of the information processing apparatus according to claim 7.
JP2014140536A 2014-07-08 2014-07-08 In-vehicle system, information processing apparatus, and program Active JP6295859B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014140536A JP6295859B2 (en) 2014-07-08 2014-07-08 In-vehicle system, information processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014140536A JP6295859B2 (en) 2014-07-08 2014-07-08 In-vehicle system, information processing apparatus, and program

Publications (2)

Publication Number Publication Date
JP2016018371A true JP2016018371A (en) 2016-02-01
JP6295859B2 JP6295859B2 (en) 2018-03-20

Family

ID=55233557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014140536A Active JP6295859B2 (en) 2014-07-08 2014-07-08 In-vehicle system, information processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP6295859B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018123641A1 (en) * 2016-12-27 2018-07-05 日立オートモティブシステムズ株式会社 Travelable area detection device and travel assistance system
JP2019021317A (en) * 2017-07-20 2019-02-07 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH Driver support system and guard rail detection method
CN109389844A (en) * 2017-08-09 2019-02-26 三星电子株式会社 Method and apparatus for controlling the driving of vehicle
JP2019053685A (en) * 2017-09-19 2019-04-04 株式会社Subaru Image processing device
WO2020001888A1 (en) * 2018-06-26 2020-01-02 Zf Friedrichshafen Ag System and method for detecting a measurement point on a swap body, said measurement point being suitable for a docking operation of a vehicle on said swap body
JP2020502685A (en) * 2016-12-20 2020-01-23 トヨタ・モーター・ヨーロッパToyota Motor Europe Electronic device, system and method for increasing image data of a passive optical sensor
JP2021064149A (en) * 2019-10-11 2021-04-22 アイシン精機株式会社 Image processing device
WO2023132275A1 (en) * 2022-01-05 2023-07-13 株式会社 Sai Object measurement device and object measurement method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002608A (en) * 2012-06-19 2014-01-09 Toyota Motor Corp Road side object detection device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002608A (en) * 2012-06-19 2014-01-09 Toyota Motor Corp Road side object detection device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020502685A (en) * 2016-12-20 2020-01-23 トヨタ・モーター・ヨーロッパToyota Motor Europe Electronic device, system and method for increasing image data of a passive optical sensor
WO2018123641A1 (en) * 2016-12-27 2018-07-05 日立オートモティブシステムズ株式会社 Travelable area detection device and travel assistance system
CN110088801A (en) * 2016-12-27 2019-08-02 日立汽车系统株式会社 It can travel regional detection device and travel assist system
JPWO2018123641A1 (en) * 2016-12-27 2019-10-31 日立オートモティブシステムズ株式会社 RUNNING AREA DETECTION DEVICE AND RUNNING SUPPORT SYSTEM
CN110088801B (en) * 2016-12-27 2023-04-18 日立安斯泰莫株式会社 Driving region detection device and driving assistance system
JP2019021317A (en) * 2017-07-20 2019-02-07 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH Driver support system and guard rail detection method
JP7164342B2 (en) 2017-07-20 2022-11-01 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング DRIVER ASSISTANCE SYSTEM AND GUARDRAIL DETECTION METHOD
CN109389844B (en) * 2017-08-09 2022-05-03 三星电子株式会社 Method and apparatus for controlling driving of vehicle
CN109389844A (en) * 2017-08-09 2019-02-26 三星电子株式会社 Method and apparatus for controlling the driving of vehicle
JP2019053685A (en) * 2017-09-19 2019-04-04 株式会社Subaru Image processing device
WO2020001888A1 (en) * 2018-06-26 2020-01-02 Zf Friedrichshafen Ag System and method for detecting a measurement point on a swap body, said measurement point being suitable for a docking operation of a vehicle on said swap body
JP2021064149A (en) * 2019-10-11 2021-04-22 アイシン精機株式会社 Image processing device
JP7423970B2 (en) 2019-10-11 2024-01-30 株式会社アイシン Image processing device
WO2023132275A1 (en) * 2022-01-05 2023-07-13 株式会社 Sai Object measurement device and object measurement method

Also Published As

Publication number Publication date
JP6295859B2 (en) 2018-03-20

Similar Documents

Publication Publication Date Title
JP6295859B2 (en) In-vehicle system, information processing apparatus, and program
US9047518B2 (en) Method for the detection and tracking of lane markings
JP6747269B2 (en) Object recognition device
US9569673B2 (en) Method and device for detecting a position of a vehicle on a lane
EP2963634B1 (en) Stereo camera device
US9965690B2 (en) On-vehicle control device
JP2011180982A (en) Lane marker detecting apparatus
JP2006031162A (en) Moving obstacle detection device
JP7077910B2 (en) Bound line detection device and lane marking method
US11468691B2 (en) Traveling lane recognition apparatus and traveling lane recognition method
JP4940177B2 (en) Traffic flow measuring device
JP2009053818A (en) Image processor and method thereof
JP2008282386A (en) Object detector, object detection method, and object detection program
JP5548212B2 (en) Crosswalk sign detection method and crosswalk sign detection device
JP6477094B2 (en) Information processing apparatus, information processing system, and program
JP6834401B2 (en) Self-position estimation method and self-position estimation device
JP6115429B2 (en) Own vehicle position recognition device
WO2017013692A1 (en) Travel lane determination device and travel lane determination method
JP2016162130A (en) Device and method for detecting pedestrian crossing and computer for pedestrian crossing detection
JP2010176592A (en) Driving support device for vehicle
KR101595317B1 (en) Precise positioning of the vehicle for detecting a road surface display method and system
JP2017220056A (en) Information processing device
JP6575431B2 (en) Verification device and verification method
US20170132925A1 (en) Method for operating an assistance system of a motor vehicle and assistance system
JP2007240316A (en) On-board distance measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180205

R151 Written notification of patent or utility model registration

Ref document number: 6295859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250