JP2009132259A - Vehicle surrounding-monitoring device - Google Patents
Vehicle surrounding-monitoring device Download PDFInfo
- Publication number
- JP2009132259A JP2009132259A JP2007309797A JP2007309797A JP2009132259A JP 2009132259 A JP2009132259 A JP 2009132259A JP 2007309797 A JP2007309797 A JP 2007309797A JP 2007309797 A JP2007309797 A JP 2007309797A JP 2009132259 A JP2009132259 A JP 2009132259A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- obstacle
- detection
- distance
- detection area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両に搭載したカメラを用いて車両周辺の障害物を検出する車両周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring device that detects an obstacle around a vehicle using a camera mounted on the vehicle.
従来、車両に搭載したカメラを使って車両周辺のカメラ画像を撮影し、そのカメラ画像に画像処理を施して、車両周辺の障害物を検出する物体検出装置が知られている(例えば特許文献1参照)。この従来の物体検出装置では、事前に(例えば停車直後に)撮影した基準画像とその後に逐次撮影した比較画像とを比較する差分処理を行って、比較画像中の障害物が検出される。また、二つの比較画像(前回の比較画像と今回の比較画像)を互いに比較することによって、その障害物が静止物体であるか移動物体であるかの判定が行われる。
しかしながら、従来の物体検出装置では、車両から障害物までの距離に係らず、カメラ画像中のすべての障害物が検出される。このように検出された障害物をすべて一律にドライバーに報知すると、車両から遠く離れた障害物であって安全走行に影響のないものについてもドライバーに報知されることになる。このように本来報知が不要な障害物についてまで報知が行われると、本当に報知が必要な障害物(例えば車両の近くの障害物で危険度の高いもの)についての報知の効果(注意喚起効果)が希薄になるおそれがある。 However, in the conventional object detection device, all obstacles in the camera image are detected regardless of the distance from the vehicle to the obstacle. If all the obstacles detected in this way are uniformly notified to the driver, the driver is also notified of obstacles far from the vehicle that do not affect safe driving. When notifications are made even for obstacles that do not need to be reported in this way, the notification effect (attention effect) on the obstacles that really need to be notified (for example, obstacles near the vehicle that are highly dangerous) May become diluted.
また、従来の物体検出装置では、車両の停車中に基準画像を撮影する必要があり、車両が走行中の場合については考慮されていない。また、検出した障害物が静止物体であるか移動物体であるかは判定することができるものの、その障害物が何であるか(例えば人であるのか車両であるのか等)については判定することができず、障害物の誤検出をしてしまうこともあり得る。 Further, in the conventional object detection device, it is necessary to take a reference image while the vehicle is stopped, and no consideration is given to the case where the vehicle is running. Further, although it can be determined whether the detected obstacle is a stationary object or a moving object, it is possible to determine what the obstacle is (for example, a person or a vehicle). It may not be possible to erroneously detect an obstacle.
本発明は、上記の課題に鑑みてなされたもので、ドライバーに不要な報知を減らして報知の効果を高めることのできる車両周辺監視装置を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a vehicle periphery monitoring device that can reduce the notification unnecessary for the driver and enhance the effect of the notification.
本発明の車両周辺監視装置は、車両に搭載されたカメラで撮影したカメラ画像を用いて車両周辺の障害物を検出する車両周辺監視装置であって、前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定する検出領域設定手段と、前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出する障害物検出手段と、前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する報知決定手段と、を備えている。 A vehicle periphery monitoring device according to the present invention is a vehicle periphery monitoring device that detects an obstacle around a vehicle using a camera image taken by a camera mounted on the vehicle, the steering angle information of the vehicle steering and the camera Detection area setting means for setting a plurality of detection areas having different sizes in accordance with the distance from the vehicle on the expected course of the vehicle in the camera image, and the plurality of detection areas And detecting obstacles based on the distance from the vehicle to the detection area where the obstacle is detected, and obstacle detection means for detecting an obstacle in the detection area. Notification determining means for determining whether to perform or not.
これにより、車両からの距離ごとに複数の検出領域が設定され、各検出領域について障害物の検出が行われる。そして、障害物が検出された検出領域の車両からの距離に基づいて検出報知を行うか否かが決定される。例えば、車両の近くの障害物の検出報知が行われ、車両から遠く離れた障害物の検出報知は行われない。これにより、ドライバーに不要な報知を減らすことができる。また、従来のように車両の停車中に基準画像を撮影する必要がないので、車両が走行中であっても障害物の検出や報知が可能である。 Thus, a plurality of detection areas are set for each distance from the vehicle, and obstacles are detected for each detection area. Then, it is determined whether or not to perform the detection notification based on the distance from the vehicle in the detection area where the obstacle is detected. For example, the detection notification of the obstacle near the vehicle is performed, and the detection notification of the obstacle far away from the vehicle is not performed. Thereby, notifications unnecessary for the driver can be reduced. Further, since it is not necessary to take a reference image while the vehicle is stopped as in the prior art, it is possible to detect and notify an obstacle even when the vehicle is traveling.
また、本発明の車両周辺監視装置では、前記検出領域設定手段は、前記車両の予想進路に沿った仮想三次元ゾーンを前記車両からの距離に応じて切断して形成される仮想断面エリアを、前記検出領域として設定し、前記報知決定手段は、前記検出領域の前記車両からの距離が所定のしきい距離以下である場合には、前記障害物の検出報知を行い、前記検出領域の前記車両からの距離が前記しきい距離より大きい場合には、前記障害物の検出報知を行わないように決定してもよい。 Further, in the vehicle periphery monitoring device of the present invention, the detection area setting means has a virtual cross-sectional area formed by cutting a virtual three-dimensional zone along the predicted course of the vehicle according to the distance from the vehicle, The detection area is set as the detection area, and when the distance of the detection area from the vehicle is equal to or less than a predetermined threshold distance, the notification determination unit performs detection notification of the obstacle, and the vehicle in the detection area If the distance from the vehicle is larger than the threshold distance, it may be determined not to notify the obstacle detection.
これにより、車両の予想進路に沿った仮想三次元ゾーンを車両からの距離ごとに切断した仮想断面エリアが検出領域として設定される。このように三次元的な要素を考慮することにより、検出領域が適切に設定される。例えば、従来のように平面的に(二次元的に)検出領域を設定した場合には、縦長の障害物の一部のみ(例えば歩行者の足のみ)しか検出領域に入らず、障害物を誤検出する(歩行者以外の障害物として誤って検出する)ことがある。それに対して、本発明では三次元的な要素を考慮して検出領域が適切に設定されているので、縦長の障害物であっても全体が検出領域に入り、障害物の誤検出を少なくすることができる。また、この場合、所定のしきい距離より近くの障害物については検出報知が行われ、しきい距離より遠くの障害物については検出報知が行われない。これにより、ドライバーに不要な報知を減らすことができる。 Thereby, the virtual cross-sectional area obtained by cutting the virtual three-dimensional zone along the predicted course of the vehicle for each distance from the vehicle is set as the detection region. In this way, the detection region is appropriately set by considering the three-dimensional element. For example, when a detection area is set in a two-dimensional manner as in the past, only a part of a vertically long obstacle (for example, only a pedestrian's foot) enters the detection area. It may be erroneously detected (detected as an obstacle other than a pedestrian). On the other hand, in the present invention, since the detection area is appropriately set in consideration of a three-dimensional element, even if it is a vertically long obstacle, the entire area enters the detection area, thereby reducing false detection of the obstacle. be able to. Further, in this case, detection notification is performed for obstacles closer than a predetermined threshold distance, and detection notification is not performed for obstacles farther than the threshold distance. Thereby, notifications unnecessary for the driver can be reduced.
また、本発明の車両周辺監視装置では、前記障害物検出手段は、前記障害物のモデルパターンのデータを記憶した記憶手段と、前記障害物が検出された検出領域の前記車両からの距離に応じてパターンサイズを調整して、前記検出領域内で検出されたパターンと前記障害物のモデルパターンが一致するか否を判断するパターンマッチング処理を行うパターンマッチング手段と、を備え、前記報知決定手段は、前記パターンマッチング処理の結果に応じて、前記障害物の検出報知を行うか否かを決定してもよい。 In the vehicle periphery monitoring device according to the present invention, the obstacle detection unit may be a storage unit that stores model pattern data of the obstacle, and a detection area where the obstacle is detected is detected according to a distance from the vehicle. Pattern matching means for adjusting a pattern size and performing pattern matching processing for determining whether or not the pattern detected in the detection area matches the model pattern of the obstacle, and the notification determining means Depending on the result of the pattern matching process, it may be determined whether or not the obstacle detection notification is performed.
このようにパターンマッチング処理を行うことにより、検出された障害物が何であるか(例えば、人であるのか車両であるのか等)について判定することができる。そして、そのパターンマッチング処理の結果に応じて、適切に障害物の検出報知が行われる。例えば、パターンマッチング処理の結果、検出した障害物が「子供」の歩行者である場合には、危険度が高いので検出報知が行われ、検出した障害物が「大人」の歩行者である場合には、比較的危険度が低いので検出報知が行われない。 By performing the pattern matching process in this way, it is possible to determine what the detected obstacle is (for example, whether it is a person or a vehicle). And according to the result of the pattern matching process, the obstacle detection notification is appropriately performed. For example, if the detected obstacle is a “child” pedestrian as a result of the pattern matching process, the detection is performed because the danger level is high, and the detected obstacle is an “adult” pedestrian. Is not detected because the degree of danger is relatively low.
また、本発明の車両周辺監視装置では、前記車両には、複数のカメラが搭載されており、前記車両のシフトギア情報に基づいて、前記複数のカメラのカメラ画像から前記障害物の検出に用いるカメラ画像を選択する画像選択手段を備えてもよい。 In the vehicle periphery monitoring device of the present invention, a plurality of cameras are mounted on the vehicle, and the camera used for detecting the obstacle from the camera images of the plurality of cameras based on shift gear information of the vehicle. You may provide the image selection means to select an image.
これにより、シフトギア操作に応じて、障害物の検出に用いるカメラ画像が適切に切り替えられる。例えば、シフトギアを「R」にした場合には、車両後方のカメラ画像に切り替えられ、車両後方の進路上の障害物を検出することができる。また、シフトギアを「D」にした場合には、車両前方のカメラ画像に切り替えられ、車両前方の進路上の障害物を検出することができる。 Thereby, the camera image used for the detection of an obstacle is appropriately switched according to the shift gear operation. For example, when the shift gear is set to “R”, the camera image is switched to the rear of the vehicle, and an obstacle on the path behind the vehicle can be detected. Further, when the shift gear is set to “D”, the camera image is switched to the front of the vehicle, and an obstacle on the course ahead of the vehicle can be detected.
また、本発明の車両周辺監視装置では、前記報知決定手段は、前記車両の速度情報に基づいて前記しきい距離を変更するしきい距離変更手段を備えてもよい。 In the vehicle periphery monitoring device of the present invention, the notification determining unit may include a threshold distance changing unit that changes the threshold distance based on speed information of the vehicle.
これにより、車両の走行速度に応じて、障害物の検出報知を行う基準が適切に変更される。例えば、車両の走行速度が低速である場合には、車両の近くの障害物の検出報知が行われ、車両から遠く離れた障害物の検出報知は危険度が低いため行われない。また、車両の走行速度が高速である場合には、車両から遠く離れた障害物であっても危険度が高いため検出報知が行われる。 Thereby, the reference | standard which performs detection notification of an obstruction is changed appropriately according to the running speed of a vehicle. For example, when the traveling speed of the vehicle is low, the detection notification of the obstacle near the vehicle is performed, and the detection notification of the obstacle far away from the vehicle is not performed because the risk is low. Further, when the traveling speed of the vehicle is high, the detection notification is performed because the risk is high even for an obstacle far from the vehicle.
本発明の車両周辺監視方法は、車両に搭載されたカメラで撮影したカメラ画像を用いて車両周辺の障害物を検出する車両周辺監視方法であって、前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定し、前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出し、前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する。 The vehicle periphery monitoring method of the present invention is a vehicle periphery monitoring method for detecting obstacles around the vehicle using a camera image taken by a camera mounted on the vehicle, the steering angle information of the vehicle steering and the camera On the basis of the installation condition information, a plurality of detection areas having different sizes according to the distance from the vehicle are set on the expected course of the vehicle in the camera image, and image processing is performed on each of the plurality of detection areas. The obstacle is detected in the detection area, and it is determined whether or not to detect the obstacle based on the distance from the vehicle in the detection area where the obstacle is detected.
この方法によれば、車両からの距離ごとに複数の検出領域が設定され、各検出領域について障害物の検出が行われる。そして、障害物が検出された検出領域の車両からの距離に基づいて検出報知を行うか否かが決定される。例えば、車両の近くの障害物の検出報知が行われ、車両から遠く離れた障害物の検出報知は行われない。これにより、ドライバーに不要な報知を減らすことができる。また、従来のように車両の停車中に基準画像を撮影する必要がないので、車両が走行中であっても障害物の検出や報知が可能である。 According to this method, a plurality of detection areas are set for each distance from the vehicle, and obstacles are detected for each detection area. Then, it is determined whether or not to perform the detection notification based on the distance from the vehicle in the detection area where the obstacle is detected. For example, the detection notification of the obstacle near the vehicle is performed, and the detection notification of the obstacle far away from the vehicle is not performed. Thereby, notifications unnecessary for the driver can be reduced. Further, since it is not necessary to take a reference image while the vehicle is stopped as in the prior art, it is possible to detect and notify an obstacle even when the vehicle is traveling.
本発明の車両周辺監視プログラムは、車両に搭載されたカメラで撮影したカメラ画像を用いて車両周辺の障害物を検出する車両周辺監視プログラムであって、コンピュータに、前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定する検出領域設定処理と、前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出する障害物検出処理と、前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する報知決定処理と、を実行させる。 The vehicle periphery monitoring program according to the present invention is a vehicle periphery monitoring program for detecting obstacles around the vehicle using a camera image taken by a camera mounted on the vehicle, and the steering angle information of the steering of the vehicle is stored in a computer. A plurality of detection areas having different sizes according to the distance from the vehicle on the expected course of the vehicle in the camera image based on the installation condition information of the camera The obstacle is detected based on an obstacle detection process for detecting an obstacle in the detection area by performing image processing on each of the detection areas, and a distance from the vehicle to the detection area where the obstacle is detected. And a notification determination process for determining whether or not to perform the detection notification.
このプログラムによれば、車両からの距離ごとに複数の検出領域が設定され、各検出領域について障害物の検出が行われる。そして、障害物が検出された検出領域の車両からの距離に基づいて検出報知を行うか否かが決定される。例えば、車両の近くの障害物の検出報知が行われ、車両から遠く離れた障害物の検出報知は行われない。これにより、ドライバーに不要な報知を減らすことができる。また、従来のように車両の停車中に基準画像を撮影する必要がないので、車両が走行中であっても障害物の検出や報知が可能である。 According to this program, a plurality of detection areas are set for each distance from the vehicle, and obstacles are detected for each detection area. Then, it is determined whether or not to perform the detection notification based on the distance from the vehicle in the detection area where the obstacle is detected. For example, the detection notification of the obstacle near the vehicle is performed, and the detection notification of the obstacle far away from the vehicle is not performed. Thereby, notifications unnecessary for the driver can be reduced. Further, since it is not necessary to take a reference image while the vehicle is stopped as in the prior art, it is possible to detect and notify an obstacle even when the vehicle is traveling.
本発明の車両周辺監視装置によれば、ドライバーに不要な報知を減らして報知の効果を高めることができる。 According to the vehicle periphery monitoring device of the present invention, it is possible to reduce the notification unnecessary for the driver and enhance the notification effect.
以下、本発明の実施の形態の車両周辺監視装置について、図面を用いて説明する。本実施の形態では、車両の後退駐車支援装置等に用いられる場合を例示する。後退駐車支援装置は、車両を後退させて駐車する際に、車両後方の障害物を検出してドライバーに報知する。このような後退駐車支援機能は、装置のHDDやメモリ等に格納されたプログラムによって実現される。 Hereinafter, a vehicle periphery monitoring device according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a case where the present invention is used for a reverse parking assist device for a vehicle is illustrated. The reverse parking assist device detects an obstacle behind the vehicle and informs the driver when the vehicle is parked backward. Such a reverse parking support function is realized by a program stored in the HDD or memory of the apparatus.
本実施の形態の車両周辺監視装置を、図1〜図10を用いて説明する。ここでは、まず、車両周辺監視装置の構成について説明する。図1は、車両周辺監視装置の主な構成を示したブロック図である。 The vehicle periphery monitoring apparatus of this Embodiment is demonstrated using FIGS. 1-10. Here, first, the configuration of the vehicle periphery monitoring device will be described. FIG. 1 is a block diagram showing a main configuration of a vehicle periphery monitoring apparatus.
図1に示すように、車両周辺監視装置1は、CPUやメモリ等で構成されたナビゲーション制御ユニット2と画像処理制御ユニット3を備えている。ナビゲーション制御ユニット2は、後退駐車支援等のための音声案内や画像案内を行うナビゲーション機能を備えている。また、画像処理制御ユニット3は、後退駐車支援等のための画像処理を行う機能を備えている。なお、ナビゲーション制御ユニット2と画像処理制御ユニット3の詳細な構成については後述する。
As shown in FIG. 1, the vehicle
車両には、複数のカメラ4が搭載されている。例えば、車両の前方を撮影する前方カメラ、車両の側方を撮影する側方カメラ、車両の後方を撮影する後方カメラなどが、車両に搭載されている。なお、図1では、説明の便宜のため、複数のカメラ4を図示せず、1つのカメラ4(例えば、後方カメラ)のみが図示されている。そして、カメラ4で撮影されたカメラ画像は、ナビゲーション制御ユニット2と画像処理制御ユニット3にそれぞれ入力される。
A plurality of
また、車両には、シフトギア位置(例えば「1、2、D、N、R、P」など)を検出するためのシフトギアスイッチ5と、ステアリングの舵角(切れ角)を検出する舵角センサ6と、車両の走行速度を検出する速度センサ7が備えられている。そして、ナビゲーション制御ユニット2には、シフトギアスイッチ5からシフトギア位置を示すシフトギア情報が入力され、舵角センサ6からステアリングの舵角を示す舵角情報が入力され、速度センサ7から車両の走行速度を示す速度情報が入力される。
Further, the vehicle includes a
また、図1に示すように、車両周辺監視装置1は、モニタ8とスピーカ9を備えている。モニタ8には、ナビゲーション制御ユニット2から画像データが送られて、後退駐車支援等のための画像案内が表示される。また、スピーカ9には、ナビゲーション制御ユニット2から音声データが送られて、後退駐車支援等のための音声案内が行われる。本実施の形態では、車両周辺の障害物が検出されたときの検出報知は、スピーカ9からの音声で行われる。
As shown in FIG. 1, the vehicle
図2は、ナビゲーション制御ユニット2の構成を示すブロック図である。図2に示すように、ナビゲーション制御ユニット2は、カメラ4から画像を取得する画像取得部10を備えている。また、ナビゲーション制御ユニット2は、シフトギアスイッチ5や舵角センサ6や速度センサ7から、シフトギア情報や舵角情報や速度情報を取得する情報取得部11を備えている。そして、ナビゲーション制御ユニット2は、シフトギア情報に基づいて、複数のカメラ4のカメラ画像から障害物検出用のカメラ画像を選択する画像選択部12を備えている。例えば、シフトギア位置が「R(後退)」のときには、後方カメラ4のカメラ画像が選択される。
FIG. 2 is a block diagram showing the configuration of the
また、図2に示すように、ナビゲーション制御ユニット2は、車両周辺の障害物を検出するための検出領域を設定する検出領域設定部13を備えている。このナビゲーション制御ユニット2は、検出領域用データベース14を備えており、検出領域用データベース14には、カメラ画像中に検出領域を設定するための検出領域設定データが記憶されている。この検出領域設定データは、ステアリングの舵角情報(例えば、0度、60度、120度・・・)と検出領域設定データに基づいて、車両からの距離に応じて大きさの異なる検出領域を、カメラ画像中の車両の予想進路上に配置するためのデータである。なお、カメラ4の設置条件情報には、カメラ4の仕様条件(例えば、画角、解像度など)も含まれる。
As shown in FIG. 2, the
例えば、検出領域設定データは、車両の予想進路や車両からの距離ごとの検出領域の位置(例えば、四角いフレームの角部の座標)と大きさ(例えば、四角いフレームの縦と横の長さ)のデータで構成され、製品出荷時等に予め検出領域用データベース14に記憶されている。検出領域の位置は、ステアリングの舵角に応じて左右方向にずらした位置に配置される。また、検出領域の大きさは、車両からの距離が遠い障害物を検出するための検出領域ほど小さくなるように設定されている。具体的には、カメラ画像中に車両の予想進路に沿った仮想三次元ゾーンを想定し、その仮想三次元ゾーンを車両からの距離(例えば0.5m、1.5m、3.0m)ごとに切断したときに形成される3つの仮想断面エリアが、検出領域として設定される(図7〜図9参照)。図では、車両からの距離が0.5mの検出領域が破線で示されており、1.5mの検出領域が一点鎖線で示されており、3.0mの検出領域が二点鎖線で示されている。
For example, the detection area setting data includes the position of the detection area (for example, the coordinates of the corners of the square frame) and the size (for example, the vertical and horizontal lengths of the square frame) for each predicted course of the vehicle and the distance from the vehicle. And is stored in advance in the
ナビゲーション制御ユニット2は、障害物の検出報知を行うか否かを決定する報知決定部15を備えている。報知決定部15は、後述するパターンマッチングによって障害物が検出されたときに、検出領域の車両からの距離に基づいて検出報知を行うか否かを決定する。具体的には、検出領域の車両からの距離が2.0m以下である場合には検出報知が行われ、検出領域の車両からの距離が2.0mより大きい場合には検出報知が行われない。つまり、車両からの距離が0.5mと1.5mの場合には検出報知が行われ、車両からの距離が3.0mの場合には検出報知が行われない。この場合、車両からの距離2.0mが、検出報知を行うか否かの基準となるしきい距離であるともいえる。
The
報知決定部15は、このしきい距離を車両の速度情報に基づいて変更するしきい距離変更部16を備えている。このしきい距離変更部16は、例えば、車両の走行速度が時速10km以下である場合には、しきい距離を2.0mに設定し、車両の走行速度が時速10km以上である場合には、しきい距離を5.0mに設定する。これにより、車両の走行速度が時速10km以下である場合には、車両から0.5mと1.5mの位置にある障害物の検出報知が行われ、車両から3.0mの位置にある障害物の検出報知は行われない。一方、車両の走行速度が時速10km以上である場合には、車両から3.0mの位置にある障害物であっても検出報知が行われる。
The
図3は、画像処理制御ユニット3の構成を示すブロック図である。図3に示すように、画像処理制御ユニット3は、カメラ4から画像を取得する画像取得部17と、検出領域内の障害物を検出する障害物検出部18を備えている。障害物検出部18は、障害物のモデルパターンのデータを記憶したパターンマッチング用データベース19と、検出領域内で検出されたパターンと障害物のモデルパターンが一致するか否かを判断するパターンマッチング処理を行うパターンマッチング部20を備えている。
FIG. 3 is a block diagram showing a configuration of the image
例えば、このパターンマッチング部20では、CNN(Convolutional Neural Network)などの機械学習法を用いたパターンマッチング処理が行われる。そして、障害物のモデルパターンには、歩行者(大人の歩行者、子供の歩行者など)、車両(自動車、オートバイ、自転車など)などのモデルパターンが含まれる。このような障害物のモデルパターンのデータは、予め機械学習によってパターンマッチング用データベース19に記憶されている。なお、パターンマッチング処理の内容については後述する。
For example, the
以上のように構成された車両周辺監視装置1の後退駐車支援機能について、図4〜図10を用いて説明する。図4は、後退駐車をするときに車両後方の歩行者をカメラ4で撮影する様子を示す説明図であり、図5は、そのときに撮影されるカメラ画像の説明図である。
The backward parking assist function of the vehicle
図4に示すように、この例では、車両は後方の駐車スペースに向けて直進しており、車両からの距離0.5m、1.5m、3.0mに歩行者が存在している。この場合、図5に示すように、後方カメラ4のカメラ画像には0.5m、1.5m、3.0mの障害物の検出領域が設けられ、3人の歩行者がそれぞれの検出領域内に撮影される。
As shown in FIG. 4, in this example, the vehicle goes straight toward the parking space behind, and pedestrians exist at distances of 0.5 m, 1.5 m, and 3.0 m from the vehicle. In this case, as shown in FIG. 5, the camera image of the
図6(a)〜(c)は、パターンマッチング処理を行う様子の説明図である。図6(a)は、車両からの距離0.5mの障害物のパターンマッチングの説明図である。この場合、まず、距離0.5mの検出領域(図5の破線の四角フレーム)がパターンマッチング用のサイズ(所定サイズ)に縮小(または拡大)される。そして、縮小(または拡大)された検出領域内のパターンと、パターンマッチング用データベース19のモデルパターンとが一致するか否かが判断される。この例では、図で斜線を用いて示すように、カメラ画像における左側の歩行者(0.5mの位置の歩行者)のパターンが、パターンマッチング用のモデルパターンと一致する。このようにして、0.5mの位置の歩行者が障害物として検出される。
FIGS. 6A to 6C are explanatory diagrams showing how pattern matching processing is performed. FIG. 6A is an explanatory diagram of pattern matching of an obstacle with a distance of 0.5 m from the vehicle. In this case, first, a detection area (dashed square frame in FIG. 5) having a distance of 0.5 m is reduced (or enlarged) to a pattern matching size (predetermined size). Then, it is determined whether or not the reduced (or enlarged) pattern in the detection area matches the model pattern in the
図6(b)は、車両からの距離1.5mの障害物のパターンマッチングの説明図である。この場合、距離1.5mの検出領域(図5の一点鎖線の四角フレーム)がパターンマッチング用のサイズ(所定サイズ)に縮小(または拡大)される。そして、縮小(または拡大)された検出領域内のパターンと、パターンマッチング用データベース19のモデルパターンとが一致するか否かが判断される。この例では、図で斜線を用いて示すように、カメラ画像における中央の歩行者(1.5mの位置の歩行者)のパターンが、パターンマッチング用のモデルパターンと一致する。このようにして、1.5mの位置の歩行者が障害物として検出される。
FIG. 6B is an explanatory diagram of pattern matching of an obstacle with a distance of 1.5 m from the vehicle. In this case, a detection area (a dashed-dotted square frame in FIG. 5) having a distance of 1.5 m is reduced (or enlarged) to a pattern matching size (predetermined size). Then, it is determined whether or not the reduced (or enlarged) pattern in the detection area matches the model pattern in the
図6(c)は、車両からの距離3.0mの障害物のパターンマッチングの説明図である。この場合、距離3.0mの検出領域(図5の二点鎖線の四角フレーム)がパターンマッチング用のサイズ(所定サイズ)に縮小(または拡大)される。そして、縮小(または拡大)された検出領域内のパターンと、パターンマッチング用データベース19のモデルパターンとが一致するか否かが判断される。この例では、図で斜線を用いて示すように、カメラ画像における右側の歩行者(3.0mの位置の歩行者)のパターンが、パターンマッチング用のモデルパターンと一致する。このようにして、3.0mの位置の歩行者が障害物として検出される。
FIG. 6C is an explanatory diagram of pattern matching of an obstacle with a distance of 3.0 m from the vehicle. In this case, the detection area (distance chain square frame in FIG. 5) having a distance of 3.0 m is reduced (or enlarged) to a pattern matching size (predetermined size). Then, it is determined whether or not the reduced (or enlarged) pattern in the detection area matches the model pattern in the
図7〜図9は、ステアリングを切ったときに検出領域の配置が変化する様子を示した図である。図7は、図5と同様、直進で後退駐車をするときの検出領域の配置を示す説明図である。図7に示すように、ステアリングを直進にした場合には、直進しながら後退するときの予想進路に沿った仮想三次元ゾーンを切断した仮想断面エリアが、検出領域として設定される。 7 to 9 are diagrams showing how the arrangement of the detection regions changes when the steering is turned off. FIG. 7 is an explanatory view showing the arrangement of the detection areas when the vehicle is parked in a straight line as in FIG. As shown in FIG. 7, when the steering is made straight, a virtual cross-sectional area obtained by cutting a virtual three-dimensional zone along an expected course when going backward while going straight is set as a detection region.
図7の例では、カメラ画面の中央右寄りに歩行者(車両からの距離3.0m)が写されている。この歩行者は、距離3.0mの検出領域内に含まれており、パターンマッチング処理でモデルパターンと一致するため、距離3.0mの障害物として検出される。なお、この歩行者は、距離0.5mや1.5mの検出領域内にも含まれているが、パターンマッチング処理でモデルパターンとの大きさが一致しないため、距離0.5mや1.5mの障害物としては検出されない。 In the example of FIG. 7, a pedestrian (a distance of 3.0 m from the vehicle) is shown on the right side of the center of the camera screen. This pedestrian is included in a detection area with a distance of 3.0 m and is detected as an obstacle with a distance of 3.0 m because it matches the model pattern in the pattern matching process. Although this pedestrian is also included in the detection area at a distance of 0.5 m or 1.5 m, the size of the model pattern does not match in the pattern matching process, so the distance of 0.5 m or 1.5 m It is not detected as an obstacle.
図8は、ステアリングを左にきったときの検出領域の配置を示す説明図である。図8に示すように、ステアリングを左にきった場合には、右に曲がりながら後退する予想進路に沿った仮想三次元ゾーンを切断した仮想断面エリアが、検出領域として設定される。 FIG. 8 is an explanatory diagram showing the arrangement of detection areas when the steering is turned to the left. As shown in FIG. 8, when the steering is turned to the left, a virtual cross-sectional area obtained by cutting a virtual three-dimensional zone along an expected course that turns backward while turning right is set as a detection region.
図8の例でも、図7と同じ位置に歩行者(車両からの距離3.0m)が写されている。この歩行者は、距離3.0mの検出領域内に含まれており、パターンマッチング処理でモデルパターンと一致するため、距離3.0mの障害物として検出される。図8では、右に曲がりながら後退する予想進路上に検出領域が配置されるので、図7に比べて、予想進路上の歩行者を検出領域の中央で検出することができる。なお、この歩行者は、距離0.5mや1.5mの検出領域内にも含まれているが、パターンマッチング処理でモデルパターンとの大きさが一致しないため、距離0.5mや1.5mの障害物としては検出されない。 In the example of FIG. 8 as well, a pedestrian (a distance of 3.0 m from the vehicle) is shown at the same position as in FIG. This pedestrian is included in a detection area with a distance of 3.0 m and is detected as an obstacle with a distance of 3.0 m because it matches the model pattern in the pattern matching process. In FIG. 8, since the detection area is arranged on the expected course that turns backward while turning to the right, a pedestrian on the expected course can be detected at the center of the detection area as compared with FIG. Although this pedestrian is also included in the detection area at a distance of 0.5 m or 1.5 m, the size of the model pattern does not match in the pattern matching process, so the distance of 0.5 m or 1.5 m It is not detected as an obstacle.
図9は、ステアリングを右にきったときの検出領域の配置を示す説明図である。図9に示すように、ステアリングを右にきった場合には、左に曲がりながら後退する予想進路に沿った仮想三次元ゾーンを切断した仮想断面エリアが、検出領域として設定される。 FIG. 9 is an explanatory diagram showing the arrangement of detection areas when the steering is turned to the right. As shown in FIG. 9, when the steering is turned to the right, a virtual cross-sectional area obtained by cutting a virtual three-dimensional zone along an expected course turning backward while turning left is set as a detection region.
図9の例でも、図7と同じ位置に歩行者(車両からの距離3.0m)が写されている。この場合、左に曲がりながら後退する予想進路上に検出領域が配置されるので、この歩行者は、距離3.0mの検出領域内に含まれず、距離3.0mの障害物として検出されない。また、この歩行者は、距離0.5mや1.5mの検出領域内には含まれているが、パターンマッチング処理でモデルパターンとの大きさが一致しないため、距離0.5mや1.5mの障害物としても検出されない。 Also in the example of FIG. 9, a pedestrian (a distance of 3.0 m from the vehicle) is shown at the same position as in FIG. In this case, since the detection area is arranged on the expected course of turning backward while turning left, the pedestrian is not included in the detection area of the distance of 3.0 m and is not detected as an obstacle of the distance of 3.0 m. In addition, although this pedestrian is included in a detection area with a distance of 0.5 m or 1.5 m, the size of the model pattern does not match in the pattern matching process, so the distance of 0.5 m or 1.5 m It is not detected as an obstacle.
図10は、車両周辺監視装置1の後退駐車支援機能の動作の流れを示すフロー図である。図10に示すように、後退駐車支援機能をオンにすると、ナビゲーション制御ユニット2は、シフトギアスイッチ5から車両のシフトギア情報を取得する(S1)。そして、シフトギアの位置が「R(後退)」であるか否かの判断を行う(S2)。
FIG. 10 is a flowchart showing a flow of operations of the reverse parking support function of the vehicle
シフトギアの位置が「R」であった場合、ナビゲーション制御ユニット2は、車両の後方カメラ4のカメラ画像を取得する(S3)。また、ナビゲーション制御ユニット2は、舵角センサ6からステアリングの舵角情報を取得して(S4)、車両の予想進路を決定する(S5)。そして、ナビゲーション制御ユニット2は、取得した舵角情報と検出領域用データベース14から読み出した検出領域設定データに基づいて、カメラ画像中の車両の予想進路上に3つの検出領域を設定する(S6)。
When the position of the shift gear is “R”, the
そして、画像処理制御ユニット3は、この3つの検出領域の各々についてパターンマッチング処理を行い(S7)、検出領域内に障害物があるか否かを判断する(S8)。ある検出領域内で障害物が検出された場合には、その検出領域の車両からの距離がしきい距離以下であるか否かを判断する(S9)。障害物が検出された検出領域の車両からの距離がしきい距離以下である場合には、ドライバーへの音声による報知がスピーカ9から行われる(S10)。
Then, the image
このような本実施の形態の車両周辺監視装置1によれば、ドライバーに不要な報知を減らして報知の効果を高めることができる。また、車両の走行中であっても障害物の検出や報知が可能である。
According to the vehicle
すなわち、本実施の形態では、車両からの距離ごと(例えば0.5m、1.5m、3.0m)に三つの検出領域が設定され、各検出領域について障害物の検出が行われる。そして、障害物が検出された検出領域の車両からの距離に基づいて検出報知を行うか否かが決定される。例えば、車両の近くの障害物(例えば、車両から0.5mと1.5mの位置にある障害物)の検出報知が行われ、車両から遠く離れた障害物(例えば、車両から3.0mの位置にある障害物)の検出報知は行われない。これにより、ドライバーに不要な報知を減らすことができる。また、従来のように車両の停車中に基準画像を撮影する必要がないので、車両が走行中であっても障害物の検出や報知が可能である。 That is, in the present embodiment, three detection areas are set for each distance from the vehicle (for example, 0.5 m, 1.5 m, and 3.0 m), and obstacle detection is performed for each detection area. Then, it is determined whether or not to perform the detection notification based on the distance from the vehicle in the detection area where the obstacle is detected. For example, an obstacle near the vehicle (for example, an obstacle at a position of 0.5 m and 1.5 m from the vehicle) is detected and notified, and an obstacle far from the vehicle (for example, 3.0 m from the vehicle) Detection notification of the obstacle at the position is not performed. Thereby, notifications unnecessary for the driver can be reduced. Further, since it is not necessary to take a reference image while the vehicle is stopped as in the prior art, it is possible to detect and notify an obstacle even when the vehicle is traveling.
この場合、車両の予想進路に沿った仮想三次元ゾーンを車両からの距離ごとに切断した仮想断面エリアが検出領域として設定される。このように三次元的な要素を考慮することにより、検出領域が適切に設定される。例えば、従来のように平面的に(二次元的に)検出領域を設定した場合には、縦長の障害物の一部のみ(例えば歩行者の足のみ)しか検出領域に入らず、障害物を誤検出する(歩行者以外の障害物として誤って検出する)ことがある。それに対して、本実施の形態では三次元的な要素を考慮して検出領域が適切に設定されているので、縦長の障害物であっても全体が検出領域に入り、障害物の誤検出を少なくすることができる。また、この場合、所定のしきい距離(例えば2m)より近くの障害物については検出報知が行われ、しきい距離より遠くの障害物については検出報知が行われない。これにより、ドライバーに不要な報知を減らすことができる。 In this case, a virtual cross-sectional area obtained by cutting a virtual three-dimensional zone along the expected course of the vehicle for each distance from the vehicle is set as a detection region. In this way, the detection region is appropriately set by considering the three-dimensional element. For example, when a detection area is set in a two-dimensional manner as in the past, only a part of a vertically long obstacle (for example, only a pedestrian's foot) enters the detection area. It may be erroneously detected (detected as an obstacle other than a pedestrian). On the other hand, in the present embodiment, the detection area is appropriately set in consideration of the three-dimensional elements, so even if the obstacle is a vertically long obstacle, the whole enters the detection area, and erroneous detection of the obstacle is performed. Can be reduced. Further, in this case, detection notification is performed for an obstacle near a predetermined threshold distance (for example, 2 m), and detection notification is not performed for an obstacle far from the threshold distance. Thereby, notifications unnecessary for the driver can be reduced.
また、本実施の形態では、パターンマッチング処理を行うことにより、検出された障害物が何であるか(例えば、人であるのか車両であるのか等)について判定することができる。そして、そのパターンマッチング処理の結果に応じて、適切に障害物の検出報知が行われる。例えば、パターンマッチング処理の結果、検出した障害物が「子供」の歩行者である場合には、危険度が高いので検出報知が行われ、検出した障害物が「大人」の歩行者である場合には、比較的危険度が低いので検出報知が行われない。 In the present embodiment, it is possible to determine what the detected obstacle is (for example, whether it is a person or a vehicle) by performing the pattern matching process. And according to the result of the pattern matching process, the obstacle detection notification is appropriately performed. For example, if the detected obstacle is a “child” pedestrian as a result of the pattern matching process, the detection is performed because the danger level is high, and the detected obstacle is an “adult” pedestrian. Is not detected because the degree of danger is relatively low.
例えば、従来の物体検出装置では、検出領域内に植込み等の木々の枝や影などが入った場合にも、障害物として誤検出する(本来は障害物でないものを障害物であるとして誤って検出する)ことがある。それに対して、本実施の形態では、パターンマッチング処理を行って障害物の検出を行うので、障害物のモデルパターンと一致しないもの(植込み等の木々の枝や影など)は障害物として検出されず、障害物の誤検出を少なくすることができる。 For example, in a conventional object detection device, even when a tree branch or shadow of an implanted plant enters the detection area, it is erroneously detected as an obstacle (a thing that is not an obstacle is mistakenly regarded as an obstacle) May be detected). On the other hand, in the present embodiment, pattern matching processing is performed to detect obstacles, so that objects that do not match the obstacle model pattern (such as branches and shadows of trees or the like) are detected as obstacles. Therefore, it is possible to reduce false detection of obstacles.
また、従来の物体検出装置では、本来障害物として検出されるべきものであっても、その障害物が基準画像に入っていると、比較画像との差分処理で背景として扱われ、障害物として検出されないことがある。それに対して、本実施の形態では、パターンマッチング処理を行って障害物の検出を行うので、本来検出されるべき障害物を適切に検出することができる。 In addition, in the conventional object detection device, even if it should be detected as an obstacle, if the obstacle is included in the reference image, it is treated as a background in the difference processing with the comparison image, May not be detected. On the other hand, in this embodiment, since the obstacle is detected by performing the pattern matching process, the obstacle that should be detected can be appropriately detected.
また、本実施の形態では、シフトギア操作に応じて、障害物の検出に用いるカメラ画像が適切に切り替えられる。例えば、シフトギアを「R」にした場合には、車両後方のカメラ画像に切り替えられ、車両後方の進路上の障害物を検出することができる。また、シフトギアを「D」にした場合には、車両前方のカメラ画像に切り替えられ、車両前方の進路上の障害物を検出することができる。 Moreover, in this Embodiment, the camera image used for an obstacle detection is switched appropriately according to shift gear operation. For example, when the shift gear is set to “R”, the camera image is switched to the rear of the vehicle, and an obstacle on the path behind the vehicle can be detected. Further, when the shift gear is set to “D”, the camera image is switched to the front of the vehicle, and an obstacle on the course ahead of the vehicle can be detected.
また、本実施の形態では、車両の走行速度に応じて、障害物の検出報知を行う基準が適切に変更される。例えば、車両の走行速度が低速(例えば時速10km以下)である場合には、車両の近くの障害物(例えば、車両から0.5mと1.5mの位置にある障害物)の検出報知が行われ、車両から遠く離れた障害物(例えば、車両から3.0mの位置にある障害物)の検出報知は危険度が低いため行われない。また、車両の走行速度が高速(例えば時速10km以上)である場合には、車両から遠く離れた障害物であっても危険度が高いため検出報知が行われる。 Moreover, in this Embodiment, the reference | standard which performs detection notification of an obstruction is changed appropriately according to the running speed of a vehicle. For example, when the traveling speed of the vehicle is low (for example, 10 km / h or less), the detection and notification of an obstacle near the vehicle (for example, an obstacle at positions 0.5 m and 1.5 m from the vehicle) is performed. However, detection and notification of an obstacle far from the vehicle (for example, an obstacle at a position of 3.0 m from the vehicle) is not performed because the risk is low. Further, when the traveling speed of the vehicle is high (for example, 10 km / h or more), even if the obstacle is far away from the vehicle, the danger is high, and thus the detection notification is performed.
以上、本発明の実施の形態を例示により説明したが、本発明の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。 The embodiments of the present invention have been described above by way of example, but the scope of the present invention is not limited to these embodiments, and can be changed or modified according to the purpose within the scope of the claims. is there.
以上の説明では、画像選択部12が、シフトギア情報に基づいて車両の前方と後方のカメラ画像を選択する例について説明したが、本発明の範囲はこれに限定されるものではない。例えば、画像選択部12は、車両のウィンカー情報に基づいて、障害物の検出に用いるカメラ画像として車両側方のカメラ画像を選択してもよい。
In the above description, the example in which the
また、以上の説明では、検出領域設定部13が、舵角情報に基づいて予想進路上に検出領域を配置する例について説明したが、本発明の範囲はこれに限定されるものではない。例えば、検出領域設定部13は、車両のウィンカー情報に基づいて、予想進路上に検出領域を配置してもよい。
Moreover, although the detection
また、以上の説明では、障害物の検出報知をスピーカ9を用いて音声で行う例について説明したが、本発明の範囲はこれに限定されるものではない。例えば、スピーカ9からの音声だけでなく、モニタ8の画像に障害物の検出位置を強調表示することによって、障害物の検出報知を行ってもよい。
Moreover, although the above description demonstrated the example which performs the detection notification of an obstruction with the audio | voice using the
以上のように、本発明にかかる車両周辺監視装置は、ドライバーに不要な報知を減らして報知の効果を高めることができるという効果を有し、車両の後退駐車支援装置等に用いられ、有用である。 As described above, the vehicle periphery monitoring device according to the present invention has an effect that the notification effect unnecessary for the driver can be reduced and the effect of the notification can be enhanced. is there.
1 車両周辺監視装置
2 ナビゲーション制御ユニット
3 画像処理制御ユニット
4 カメラ
5 シフトギアスイッチ
6 舵角センサ
7 速度センサ
8 モニタ
9 スピーカ
10 画像取得部
11 情報取得部
12 画像選択部
13 検出領域設定部
14 検出領域用データベース
15 報知決定部
16 しきい距離変更部
17 画像取得部
18 障害物検出部
19 パターンマッチング用データベース
20 パターンマッチング部
DESCRIPTION OF
Claims (7)
前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定する検出領域設定手段と、
前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出する障害物検出手段と、
前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する報知決定手段と、
を備えたことを特徴とする車両周辺監視装置。 A vehicle periphery monitoring device that detects obstacles around a vehicle using a camera image taken by a camera mounted on the vehicle,
Based on the steering angle information of the steering of the vehicle and the installation condition information of the camera, a plurality of detection areas having different sizes according to the distance from the vehicle are set on the expected course of the vehicle in the camera image. Detection area setting means;
Obstacle detection means for performing an image process on each of the plurality of detection areas and detecting an obstacle in the detection area;
Notification determining means for determining whether to perform detection notification of the obstacle based on the distance from the vehicle of the detection area where the obstacle is detected;
A vehicle periphery monitoring device comprising:
前記車両の予想進路に沿った仮想三次元ゾーンを前記車両からの距離に応じて切断して形成される仮想断面エリアを、前記検出領域として設定し、
前記報知決定手段は、
前記検出領域の前記車両からの距離が所定のしきい距離以下である場合には、前記障害物の検出報知を行い、前記検出領域の前記車両からの距離が前記しきい距離より大きい場合には、前記障害物の検出報知を行わないように決定することを特徴とする請求項1に記載の車両周辺監視装置。 The detection area setting means includes:
A virtual cross-sectional area formed by cutting a virtual three-dimensional zone along the predicted course of the vehicle according to the distance from the vehicle, is set as the detection region;
The notification determining means includes
When the distance of the detection area from the vehicle is equal to or less than a predetermined threshold distance, the obstacle is detected and notified, and when the distance of the detection area from the vehicle is larger than the threshold distance The vehicle periphery monitoring device according to claim 1, wherein the vehicle periphery monitoring device is determined not to perform detection and notification of the obstacle.
前記障害物のモデルパターンのデータを記憶した記憶手段と、
前記障害物が検出された検出領域の前記車両からの距離に応じてパターンサイズを調整して、前記検出領域内で検出されたパターンと前記障害物のモデルパターンが一致するか否を判断するパターンマッチング処理を行うパターンマッチング手段と、
を備え、
前記報知決定手段は、
前記パターンマッチング処理の結果に応じて、前記障害物の検出報知を行うか否かを決定することを特徴とする請求項1または請求項2に記載の車両周辺監視装置。 The obstacle detection means includes
Storage means for storing the model pattern data of the obstacle;
A pattern for adjusting whether the pattern detected in the detection area matches the model pattern of the obstacle by adjusting the pattern size according to the distance from the vehicle in the detection area where the obstacle is detected Pattern matching means for performing matching processing;
With
The notification determining means includes
The vehicle periphery monitoring apparatus according to claim 1 or 2, wherein whether or not to perform detection notification of the obstacle is determined according to a result of the pattern matching processing.
前記車両のシフトギア情報に基づいて、前記複数のカメラのカメラ画像から前記障害物の検出に用いるカメラ画像を選択する画像選択手段を備えたことを特徴とする請求項1〜請求項3のいずれかに記載の車両周辺監視装置。 The vehicle is equipped with a plurality of cameras,
The image selection means which selects the camera image used for the detection of the said obstruction from the camera image of the said several camera based on the shift gear information of the said vehicle, The any one of Claims 1-3 characterized by the above-mentioned. The vehicle periphery monitoring device described in 1.
前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定し、
前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出し、
前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定することを特徴とする車両周辺監視方法。 A vehicle periphery monitoring method for detecting obstacles around a vehicle using a camera image taken by a camera mounted on the vehicle,
Based on the steering angle information of the vehicle steering and the installation condition information of the camera, a plurality of detection areas having different sizes according to the distance from the vehicle are set on the expected course of the vehicle in the camera image. ,
Image processing is performed on each of the plurality of detection areas to detect obstacles in the detection areas,
A vehicle periphery monitoring method, comprising: determining whether or not to perform the obstacle detection detection based on a distance from the vehicle in a detection area where the obstacle is detected.
コンピュータに、
前記車両のステアリングの舵角情報と前記カメラの設置条件情報に基づいて、前記車両からの距離に応じて大きさの異なる複数の検出領域を、前記カメラ画像における前記車両の予想進路上に設定する検出領域設定処理と、
前記複数の検出領域の各々に画像処理を施して、前記検出領域内の障害物を検出する障害物検出処理と、
前記障害物が検出された検出領域の前記車両からの距離に基づいて、前記障害物の検出報知を行うか否かを決定する報知決定処理と、
を実行させることを特徴とする車両周辺監視プログラム。 A vehicle periphery monitoring program for detecting obstacles around a vehicle using a camera image taken by a camera mounted on the vehicle,
On the computer,
Based on the steering angle information of the steering of the vehicle and the installation condition information of the camera, a plurality of detection areas having different sizes according to the distance from the vehicle are set on the expected course of the vehicle in the camera image. Detection area setting process;
Obstacle detection processing for performing an image process on each of the plurality of detection areas to detect an obstacle in the detection area;
A notification determination process for determining whether to perform detection notification of the obstacle, based on a distance from the vehicle in a detection region where the obstacle is detected;
The vehicle periphery monitoring program characterized by performing this.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007309797A JP2009132259A (en) | 2007-11-30 | 2007-11-30 | Vehicle surrounding-monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007309797A JP2009132259A (en) | 2007-11-30 | 2007-11-30 | Vehicle surrounding-monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009132259A true JP2009132259A (en) | 2009-06-18 |
Family
ID=40864601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007309797A Pending JP2009132259A (en) | 2007-11-30 | 2007-11-30 | Vehicle surrounding-monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009132259A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011159186A (en) * | 2010-02-03 | 2011-08-18 | Clarion Co Ltd | Drive support device and control method of drive support device |
JP2011248640A (en) * | 2010-05-27 | 2011-12-08 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2012123470A (en) * | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | Object detection device and object detection method |
JP2013141876A (en) * | 2012-01-10 | 2013-07-22 | Denso Corp | Vehicle periphery monitoring apparatus |
JP2013191052A (en) * | 2012-03-14 | 2013-09-26 | Toyota Motor Corp | Vehicle surroundings monitoring-device |
JP2016051941A (en) * | 2014-08-29 | 2016-04-11 | 株式会社富士通ゼネラル | Moving object detection device |
JP2016126405A (en) * | 2014-12-26 | 2016-07-11 | 日本電気株式会社 | Potential customer position information detection system, method, and program |
JP2017092678A (en) * | 2015-11-09 | 2017-05-25 | 修一 田山 | Vehicle image display system |
JP2018116450A (en) * | 2017-01-18 | 2018-07-26 | ダイハツ工業株式会社 | Parking support device |
JP2019142304A (en) * | 2018-02-19 | 2019-08-29 | 株式会社明電舎 | Fallen object detection device and fallen object detection method |
JP2020013206A (en) * | 2018-07-13 | 2020-01-23 | 日本ユニシス株式会社 | Device for detecting two-wheeled vehicle from moving image/camera, program, and system |
JP2021154795A (en) * | 2020-03-25 | 2021-10-07 | 本田技研工業株式会社 | Vehicle and control device therefor |
US12067522B2 (en) * | 2009-09-25 | 2024-08-20 | Federal Express Corporation | Sensor based logistics system |
US12112502B2 (en) | 2021-04-21 | 2024-10-08 | Kabushiki Kaisha Toshiba | Three-dimensional map estimation apparatus and obstacle detection apparatus |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003267173A (en) * | 2002-03-14 | 2003-09-25 | Toyota Central Res & Dev Lab Inc | Inter-vehicle distance alarm device |
JP2006018751A (en) * | 2004-07-05 | 2006-01-19 | Nissan Motor Co Ltd | Image processor for vehicle |
JP2006137274A (en) * | 2004-11-11 | 2006-06-01 | Nissan Motor Co Ltd | Operation assisting device, and driving assisting method |
JP2006234485A (en) * | 2005-02-23 | 2006-09-07 | Japana Co Ltd | Method and device for measuring rotation direction and amount of rotation in sphere traveling in space, and sphere suited for measuring rotation direction and amount of rotation when traveling in space |
JP2007045336A (en) * | 2005-08-10 | 2007-02-22 | Sumitomo Electric Ind Ltd | System and method for detecting obstacle |
JP2007124097A (en) * | 2005-10-26 | 2007-05-17 | Auto Network Gijutsu Kenkyusho:Kk | Apparatus for visually recognizing surrounding of vehicle |
-
2007
- 2007-11-30 JP JP2007309797A patent/JP2009132259A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003267173A (en) * | 2002-03-14 | 2003-09-25 | Toyota Central Res & Dev Lab Inc | Inter-vehicle distance alarm device |
JP2006018751A (en) * | 2004-07-05 | 2006-01-19 | Nissan Motor Co Ltd | Image processor for vehicle |
JP2006137274A (en) * | 2004-11-11 | 2006-06-01 | Nissan Motor Co Ltd | Operation assisting device, and driving assisting method |
JP2006234485A (en) * | 2005-02-23 | 2006-09-07 | Japana Co Ltd | Method and device for measuring rotation direction and amount of rotation in sphere traveling in space, and sphere suited for measuring rotation direction and amount of rotation when traveling in space |
JP2007045336A (en) * | 2005-08-10 | 2007-02-22 | Sumitomo Electric Ind Ltd | System and method for detecting obstacle |
JP2007124097A (en) * | 2005-10-26 | 2007-05-17 | Auto Network Gijutsu Kenkyusho:Kk | Apparatus for visually recognizing surrounding of vehicle |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12067522B2 (en) * | 2009-09-25 | 2024-08-20 | Federal Express Corporation | Sensor based logistics system |
JP2011159186A (en) * | 2010-02-03 | 2011-08-18 | Clarion Co Ltd | Drive support device and control method of drive support device |
JP2011248640A (en) * | 2010-05-27 | 2011-12-08 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
JP2012123470A (en) * | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | Object detection device and object detection method |
JP2013141876A (en) * | 2012-01-10 | 2013-07-22 | Denso Corp | Vehicle periphery monitoring apparatus |
JP2013191052A (en) * | 2012-03-14 | 2013-09-26 | Toyota Motor Corp | Vehicle surroundings monitoring-device |
JP2016051941A (en) * | 2014-08-29 | 2016-04-11 | 株式会社富士通ゼネラル | Moving object detection device |
JP2016126405A (en) * | 2014-12-26 | 2016-07-11 | 日本電気株式会社 | Potential customer position information detection system, method, and program |
JP2017092678A (en) * | 2015-11-09 | 2017-05-25 | 修一 田山 | Vehicle image display system |
JP2018116450A (en) * | 2017-01-18 | 2018-07-26 | ダイハツ工業株式会社 | Parking support device |
JP2019142304A (en) * | 2018-02-19 | 2019-08-29 | 株式会社明電舎 | Fallen object detection device and fallen object detection method |
JP2020013206A (en) * | 2018-07-13 | 2020-01-23 | 日本ユニシス株式会社 | Device for detecting two-wheeled vehicle from moving image/camera, program, and system |
JP2021154795A (en) * | 2020-03-25 | 2021-10-07 | 本田技研工業株式会社 | Vehicle and control device therefor |
JP7028905B2 (en) | 2020-03-25 | 2022-03-02 | 本田技研工業株式会社 | Vehicle and its control device |
US12112502B2 (en) | 2021-04-21 | 2024-10-08 | Kabushiki Kaisha Toshiba | Three-dimensional map estimation apparatus and obstacle detection apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009132259A (en) | Vehicle surrounding-monitoring device | |
US10956757B2 (en) | Image processing device, outside recognition device | |
JP2014013524A (en) | Vehicle notification device | |
JP5850066B2 (en) | Object detection device | |
JP5898001B2 (en) | Vehicle periphery monitoring device | |
JP6496982B2 (en) | Cognitive support system | |
JP5511431B2 (en) | Parking assistance device | |
JP2005309797A (en) | Warning device for pedestrian | |
JP2008186170A (en) | Driving support system and driving support method | |
JP2009033743A (en) | Method for recognition of object | |
JP2008293122A (en) | Obstacle monitoring device | |
JP6512044B2 (en) | Behavior detection device | |
JP2019186853A (en) | Vehicle display control device, vehicle display system, vehicle display control method, and program | |
JP2010040015A (en) | Road shape detector for vehicle | |
JP2010072947A (en) | Obstacle detection device | |
JP4957589B2 (en) | Obstacle warning device, obstacle warning method, and computer program | |
JP2007219836A (en) | Vehicle travel support device | |
JP2010039933A (en) | Inattentive driving determination device | |
JP2008310690A (en) | Recognition support device for vehicle | |
JP6087240B2 (en) | Vehicle periphery monitoring device | |
JP2017182139A (en) | Determination apparatus, determination method, and determination program | |
JP2021056717A (en) | Object detection device | |
KR20170060449A (en) | Method and system for alarming a capable of entrance using recognition of road sign | |
JP2008090655A (en) | Driving support device | |
JP2009083824A (en) | Pedestrian detection device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111018 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120703 |