JP2013168063A - Image processing device, image display system, and image processing method - Google Patents

Image processing device, image display system, and image processing method Download PDF

Info

Publication number
JP2013168063A
JP2013168063A JP2012031628A JP2012031628A JP2013168063A JP 2013168063 A JP2013168063 A JP 2013168063A JP 2012031628 A JP2012031628 A JP 2012031628A JP 2012031628 A JP2012031628 A JP 2012031628A JP 2013168063 A JP2013168063 A JP 2013168063A
Authority
JP
Japan
Prior art keywords
image
host vehicle
vehicle
peripheral
relative speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012031628A
Other languages
Japanese (ja)
Inventor
Tetsuo Yamamoto
徹夫 山本
Minoru Yoshimura
実 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2012031628A priority Critical patent/JP2013168063A/en
Publication of JP2013168063A publication Critical patent/JP2013168063A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology that allows a driver to make an appropriate decision to change a lane.SOLUTION: An image acquisition unit 21 acquires a photographing image of a camera 5 mounted on an own vehicle 9, and an image generation unit 22 generates a surrounding image indicative of a surrounding area of the own vehicle 9 including an area shown on a side mirror of the own vehicle 9 on the basis of the photographing image. Further, a relative speed derivation unit 20b derives a relative speed of another vehicle running behind the own vehicle with respect to the own vehicle, and a guide line setting unit 20c determines a specified distance on the basis of the relative speed. An information superimposition unit 23 superimposes a varying guide line indicating a position of the specified distance backward from the own vehicle 9 on the surrounding image. And, an image input unit 24 outputs the surrounding image on which the varying guide line is superimposed to a display device 3 to be displayed. Thus, a driver of the own vehicle can grasp a safe positional relation between the own vehicle and another vehicle in accordance with the relative speed of another vehicle on the basis of the displayed surrounding image, and thereby the driver thereof can make an appropriate decision to change the lane.

Description

本発明は、車両に搭載されたカメラの画像を処理する技術に関する。   The present invention relates to a technique for processing an image of a camera mounted on a vehicle.

自動車などの車両を運転するドライバは、車線変更を行う場合には、一般に、サイドミラーを用いて隣接車線における他車両の位置などを把握し、車線変更を行うか否かを判断する。しかしながら、運転に不慣れなドライバにとってはサイドミラーに映った像に基づいて他車両の位置を把握することは難しいことから、このような車線変更の判断を苦手とするドライバは多い。   When changing a lane, a driver who drives a vehicle such as an automobile generally uses a side mirror to grasp the position of another vehicle in an adjacent lane and determines whether to change the lane. However, since it is difficult for drivers who are unfamiliar with driving to grasp the position of another vehicle based on the image shown on the side mirror, there are many drivers who are not good at judging such a lane change.

このため、カメラで得られた撮影画像を用いてサイドミラーに映る領域を示す周辺画像を生成し、指標となるガイド線を重畳した周辺画像を車室内の表示装置に表示する画像表示システムが提案されている(例えば、特許文献1参照。)。この画像表示システムでは、自車両から後方に所定の距離の位置を示すガイド線が周辺画像に重畳される。ドライバは、このような周辺画像を参照することで、周辺画像に含まれるガイド線と他車両の像とに基づいて他車両の位置を比較的容易に把握できる。   For this reason, an image display system that generates a peripheral image showing a region reflected in a side mirror using a captured image obtained by a camera and displays a peripheral image on which a guide line as an index is superimposed on a display device in a vehicle interior is proposed. (For example, refer to Patent Document 1). In this image display system, a guide line indicating a position at a predetermined distance behind the host vehicle is superimposed on the peripheral image. By referring to such a surrounding image, the driver can relatively easily grasp the position of the other vehicle based on the guide line included in the surrounding image and the image of the other vehicle.

特開2010−39953号公報JP 2010-39953 A

ところで、ドライバは、変更後の車線における他車両の位置のみならず、自車両の走行速度や、自車両に対する他車両の相対速度などを総合的に考慮して車線変更の判断を行う必要がある。   By the way, it is necessary for the driver to determine whether to change the lane by comprehensively considering not only the position of the other vehicle in the changed lane but also the traveling speed of the own vehicle and the relative speed of the other vehicle with respect to the own vehicle. .

例えば、自車両が比較的高速に走行している場合は、比較的低速に走行している場合よりも、自車両と他車両との車間距離として大きな距離が必要とされる。このため、ドライバは、自車両の走行速度を考慮して車線変更の判断を行う必要がある。   For example, when the host vehicle is traveling at a relatively high speed, a larger distance is required as the inter-vehicle distance between the host vehicle and the other vehicle than when the host vehicle is traveling at a relatively low speed. For this reason, the driver needs to determine the lane change in consideration of the traveling speed of the host vehicle.

また、後方を走行する他車両が自車両に急接近しているような場合には、車線変更前に自車両と他車両との車間距離が一般的に必要な距離であったとしても、車線変更後にはその車間距離が非常に小さくなってしまう。このため、ドライバは、自車両に対する他車両の相対速度を考慮して車線変更の判断を行う必要がある。   In addition, when another vehicle traveling in the rear is approaching the host vehicle, even if the distance between the host vehicle and the other vehicle is a necessary distance before the lane change, After the change, the distance between the vehicles will be very small. For this reason, the driver needs to determine the lane change in consideration of the relative speed of the other vehicle with respect to the own vehicle.

しかしながら、上記のような従来の画像表示システムでは、走行速度や相対速度などについては考慮されておらず、ドライバは周辺画像のガイド線に基づいて他車両の位置を把握できるのみである。このため、ドライバが車線変更の判断を適切に行うことは難しかった。   However, in the conventional image display system as described above, the traveling speed, the relative speed, and the like are not taken into consideration, and the driver can only grasp the position of the other vehicle based on the guide line of the surrounding image. For this reason, it has been difficult for the driver to appropriately determine the lane change.

本発明は、上記課題に鑑みてなされたものであり、ドライバが車線変更の判断を適切に行うことが可能な画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus that allows a driver to appropriately determine lane change.

上記課題を解決するため、請求項1の発明は、画像を処理する画像処理装置であって、自車両に搭載されたカメラの撮影画像を取得する画像取得手段と、前記撮影画像に基づいて、前記自車両のサイドミラーに映る領域を含む前記自車両の周辺領域を示す周辺画像を生成する生成手段と、前記自車両の後方を走行する他車両の前記自車両に対する相対速度を導出する導出手段と、前記相対速度に基づいて指定距離を決定する決定手段と、前記自車両から後方に前記指定距離の位置を示すガイド指標を前記周辺画像に重畳する重畳手段と、前記ガイド指標が重畳された前記周辺画像を表示装置に出力して前記表示装置に表示させる出力手段と、を備えている。   In order to solve the above-mentioned problem, the invention of claim 1 is an image processing device for processing an image, based on image acquisition means for acquiring a captured image of a camera mounted on the own vehicle, and the captured image, Generating means for generating a peripheral image indicating a peripheral area of the host vehicle including an area reflected in a side mirror of the host vehicle, and deriving means for deriving a relative speed of the other vehicle traveling behind the host vehicle with respect to the host vehicle. Determining means for determining a specified distance based on the relative speed, superimposing means for superimposing a guide index indicating the position of the specified distance behind the host vehicle on the peripheral image, and the guide index superimposed Output means for outputting the peripheral image to a display device and displaying the peripheral image on the display device.

また、請求項2の発明は、請求項1に記載の画像処理装置において、前記自車両の走行速度を取得する速度取得手段、をさらに備え、前記決定手段は、前記走行速度と前記相対速度とに基づいて前記指定距離を決定する。   The invention of claim 2 is the image processing apparatus according to claim 1, further comprising speed acquisition means for acquiring a travel speed of the host vehicle, wherein the determination means includes the travel speed and the relative speed. The designated distance is determined based on

また、請求項3の発明は、請求項1または2に記載の画像処理装置において、前記決定手段は、前記相対速度が大きいほど前記指定距離を大きくする。   According to a third aspect of the present invention, in the image processing apparatus according to the first or second aspect, the determining unit increases the specified distance as the relative speed increases.

また、請求項4の発明は、請求項1ないし3のいずれかに記載の画像処理装置において、前記相対速度に応じて、前記ガイド指標の態様を変更する変更手段、をさらに備えている。   According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the image processing apparatus further includes a changing unit that changes a mode of the guide index according to the relative speed.

また、請求項5の発明は、請求項1ないし4のいずれかに記載の画像処理装置において、前記決定手段は、前記相対速度に基づいて複数の前記指定距離を決定し、前記重畳手段は、前記自車両から後方に前記複数の指定距離それぞれの位置を示す複数の前記ガイド指標を前記周辺画像に重畳する。   According to a fifth aspect of the present invention, in the image processing apparatus according to any one of the first to fourth aspects, the determining unit determines a plurality of the designated distances based on the relative speed, and the superimposing unit includes: A plurality of the guide indices indicating the positions of the plurality of designated distances behind the host vehicle are superimposed on the peripheral image.

また、請求項6の発明は、請求項1ないし5のいずれかに記載の画像処理装置において、前記自車両の方向指示器が示す方向を取得する方向取得手段、をさらに備え、前記出力手段は、前記方向指示器が方向を示す場合に、該方向指示器が示す方向の前記サイドミラーに映る領域を示す前記周辺画像を、前記表示装置に出力する。   The invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5, further comprising direction acquisition means for acquiring a direction indicated by the direction indicator of the host vehicle, wherein the output means is When the direction indicator indicates a direction, the peripheral image indicating the area reflected on the side mirror in the direction indicated by the direction indicator is output to the display device.

また、請求項7の発明は、請求項1ないし5のいずれかに記載の画像処理装置において、前記出力手段は、前記他車両が前記自車両に対して接近している場合に、該他車両が存在する方向の前記サイドミラーに映る領域を示す前記周辺画像を、前記表示装置に出力する。   The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 5, wherein the output means is configured such that when the other vehicle approaches the host vehicle, the other vehicle The peripheral image indicating the area reflected on the side mirror in the direction in which the image exists is output to the display device.

また、請求項8の発明は、画像を処理する画像処理装置であって、自車両に搭載されたカメラの撮影画像を取得する画像取得手段と、前記撮影画像に基づいて、前記自車両のサイドミラーに映る領域を含む前記自車両の周辺領域を示す周辺画像を生成する生成手段と、前記自車両の走行速度を取得する速度取得手段と、前記走行速度に基づいて指定距離を決定する決定手段と、前記自車両から後方に前記指定距離の位置を示すガイド指標を前記周辺画像に重畳する重畳手段と、前記ガイド指標が重畳された前記周辺画像を表示装置に出力して前記表示装置に表示させる出力手段と、を備えている。   The invention according to claim 8 is an image processing apparatus for processing an image, wherein an image acquisition means for acquiring a captured image of a camera mounted on the own vehicle, and a side of the own vehicle based on the captured image. A generating unit configured to generate a peripheral image indicating a peripheral region of the host vehicle including a region reflected in a mirror; a speed acquiring unit configured to acquire a traveling speed of the host vehicle; and a determining unit configured to determine a specified distance based on the traveling speed. Superimposing means for superimposing a guide index indicating the position of the specified distance behind the host vehicle on the peripheral image, and outputting the peripheral image on which the guide index is superimposed to a display device for display on the display device Output means.

また、請求項9の発明は、画像表示システムであって、請求項1ないし8のいずれかに記載の画像処理装置と、前記画像処理装置から出力された前記周辺画像を表示する表示装置と、を備えている。   The invention of claim 9 is an image display system, wherein the image processing device according to any one of claims 1 to 8, a display device for displaying the peripheral image output from the image processing device, It has.

また、請求項10の発明は、画像を処理する画像処理方法であって、(a)自車両に搭載されたカメラの撮影画像を取得する工程と、(b)前記撮影画像に基づいて、前記自車両のサイドミラーに映る領域を含む前記自車両の周辺領域を示す周辺画像を生成する工程と、(c)前記自車両の後方を走行する他車両の前記自車両に対する相対速度を導出する工程と、(d)前記相対速度に基づいて指定距離を決定する工程と、(e)前記自車両から後方に前記指定距離の位置を示すガイド指標を前記周辺画像に重畳する工程と、(f)前記ガイド指標が重畳された前記周辺画像を表示する工程と、を備えている。   The invention of claim 10 is an image processing method for processing an image, wherein (a) a step of acquiring a photographed image of a camera mounted on the host vehicle, and (b) based on the photographed image, A step of generating a peripheral image showing a peripheral region of the host vehicle including a region reflected in a side mirror of the host vehicle, and (c) a step of deriving a relative speed of the other vehicle traveling behind the host vehicle with respect to the host vehicle. (D) determining a specified distance based on the relative speed; (e) superimposing a guide index indicating the position of the specified distance behind the host vehicle on the surrounding image; and (f) Displaying the peripheral image on which the guide index is superimposed.

また、請求項11の発明は、画像を処理する画像処理方法であって、(a)自車両に搭載されたカメラの撮影画像を取得する工程と、(b)前記撮影画像に基づいて、前記自車両のサイドミラーに映る領域を含む前記自車両の周辺領域を示す周辺画像を生成する工程と、(c)前記自車両の前記自車両の走行速度を取得する工程と、(d)前記走行速度に基づいて指定距離を決定する工程と、(e)前記自車両から後方に前記指定距離の位置を示すガイド指標を前記周辺画像に重畳する工程と、(f)前記ガイド指標が重畳された前記周辺画像を表示する工程と、を備えている。   The invention of claim 11 is an image processing method for processing an image, wherein (a) obtaining a photographed image of a camera mounted on the host vehicle, and (b) based on the photographed image, A step of generating a peripheral image showing a peripheral region of the host vehicle including a region reflected in a side mirror of the host vehicle, (c) acquiring a travel speed of the host vehicle of the host vehicle, and (d) the travel Determining a designated distance based on speed; (e) superimposing a guide index indicating a position of the designated distance behind the host vehicle on the peripheral image; and (f) superimposing the guide index. Displaying the peripheral image.

請求項1ないし7及び10の発明によれば、他車両の自車両に対する相対速度に応じた指定距離の位置を示すガイド指標が周辺画像に重畳される。このため、ドライバは、他車両の相対速度に応じて安全な自車両と他車両との位置関係を把握できるため、車線変更の判断を適切に行うことができる。   According to the first to seventh and tenth aspects of the present invention, the guide index indicating the position of the designated distance according to the relative speed of the other vehicle with respect to the host vehicle is superimposed on the peripheral image. For this reason, since the driver can grasp the positional relationship between the safe own vehicle and the other vehicle according to the relative speed of the other vehicle, the driver can appropriately determine the lane change.

また、特に請求項2の発明によれば、走行速度と相対速度とに応じた指定距離の位置を示すガイド指標が周辺画像に重畳される。このため、ドライバは、走行速度及び相対速度に応じて安全な自車両と他車両との位置関係を把握できるため、車線変更の判断を適切に行うことができる。   In particular, according to the second aspect of the invention, the guide index indicating the position of the designated distance according to the traveling speed and the relative speed is superimposed on the peripheral image. For this reason, since the driver can grasp the safe positional relationship between the host vehicle and the other vehicle according to the traveling speed and the relative speed, the driver can appropriately determine the lane change.

また、特に請求項3の発明によれば、相対速度が大きいほど指定距離を大きくするため、ドライバは相対速度の大きさを直感的に把握でき、運転における安全性を向上できる。   In particular, according to the invention of claim 3, since the specified distance is increased as the relative speed is increased, the driver can intuitively grasp the magnitude of the relative speed and can improve the safety in driving.

また、特に請求項4の発明によれば、相対速度に応じてガイド指標の態様が変更されるため、ドライバは相対速度の大きさを直感的に把握でき、運転における安全性を向上できる。   In particular, according to the fourth aspect of the present invention, since the mode of the guide index is changed according to the relative speed, the driver can intuitively grasp the magnitude of the relative speed, and the driving safety can be improved.

また、特に請求項5の発明によれば、相対速度に基づく複数の指定距離それぞれの位置を示すガイド指標が周辺画像に重畳される。このため、ドライバは、他車両の相対速度に応じてより安全な自車両と他車両との位置関係を把握できるため、運転における安全性を向上できる。   In particular, according to the fifth aspect of the present invention, the guide index indicating the position of each of the plurality of designated distances based on the relative speed is superimposed on the peripheral image. For this reason, since the driver can grasp the safer positional relationship between the own vehicle and the other vehicle according to the relative speed of the other vehicle, the safety in driving can be improved.

また、特に請求項6の発明によれば、方向指示器が方向を示す場合に、方向指示器が示す方向のサイドミラーに映る領域を示す周辺領域が表示装置に表示される。このため、ドライバは、車両の進路変更を行う場合に、安全な自車両と他車両との位置関係を把握できる。   In particular, according to the invention of claim 6, when the direction indicator indicates the direction, the peripheral region indicating the region reflected in the side mirror in the direction indicated by the direction indicator is displayed on the display device. For this reason, the driver can grasp the positional relationship between the safe host vehicle and the other vehicle when changing the course of the vehicle.

また、特に請求項7の発明によれば、他車両が自車両に接近している場合に、その他車両が存在する方向のサイドミラーに映る領域を示す周辺領域が表示装置に表示される。このため、ドライバは、自車両に接近する他車両が存在する場合に、安全な自車両と接近車両との位置関係を把握できる。   Further, according to the invention of claim 7, when the other vehicle is approaching the host vehicle, the peripheral region indicating the region reflected on the side mirror in the direction in which the other vehicle exists is displayed on the display device. For this reason, the driver can grasp the positional relationship between the safe own vehicle and the approaching vehicle when there is another vehicle approaching the own vehicle.

また、請求項8及び11の発明によれば、自車両の走行速度に応じた指定距離の位置を示すガイド指標が周辺画像に重畳される。このため、ドライバは、走行速度に応じて安全な自車両と他車両との位置関係を把握できるため、車線変更の判断を適切に行うことができる。   According to the eighth and eleventh aspects of the present invention, the guide index indicating the position of the specified distance according to the traveling speed of the host vehicle is superimposed on the peripheral image. For this reason, since the driver can grasp the positional relationship between the own vehicle and the other vehicle that is safe according to the traveling speed, the driver can appropriately determine the lane change.

図1は、画像表示システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of the image display system. 図2は、4つのカメラが撮影する方向を示す図である。FIG. 2 is a diagram illustrating directions in which four cameras capture images. 図3は、自車両の車室内の様子を示す図である。FIG. 3 is a diagram illustrating a state in the passenger compartment of the host vehicle. 図4は、合成画像を生成する手法を説明する図である。FIG. 4 is a diagram illustrating a method for generating a composite image. 図5は、周辺画像を生成するための仮想視点を示す図である。FIG. 5 is a diagram illustrating a virtual viewpoint for generating a peripheral image. 図6は、周辺画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of a peripheral image. 図7は、周辺画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a peripheral image. 図8は、ガイド線が重畳された周辺画像の例を示す図である。FIG. 8 is a diagram illustrating an example of a peripheral image on which guide lines are superimposed. 図9は、指定距離の変化を示す図である。FIG. 9 is a diagram illustrating changes in the designated distance. 図10は、ガイド線が重畳された周辺画像の例を示す図である。FIG. 10 is a diagram illustrating an example of a peripheral image on which guide lines are superimposed. 図11は、ガイド線が重畳された周辺画像の例を示す図である。FIG. 11 is a diagram illustrating an example of a peripheral image on which guide lines are superimposed. 図12は、ガイド線が重畳された周辺画像の例を示す図である。FIG. 12 is a diagram illustrating an example of a peripheral image on which guide lines are superimposed. 図13は、画像処理装置の処理の流れを示す図である。FIG. 13 is a diagram illustrating a processing flow of the image processing apparatus. 図14は、ガイド線が重畳された周辺画像の例を示す図である。FIG. 14 is a diagram illustrating an example of a peripheral image on which guide lines are superimposed. 図15は、ガイド線が重畳された周辺画像の例を示す図である。FIG. 15 is a diagram illustrating an example of a peripheral image on which guide lines are superimposed. 図16は、1つの画面に2つの周辺画像を表示した様子を示す図である。FIG. 16 is a diagram illustrating a state in which two peripheral images are displayed on one screen.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.構成>
図1は、第1の実施の形態の画像表示システム10の構成を示すブロック図である。この画像表示システム10は、車両(本実施の形態では、自動車)に搭載されるものであり、サイドミラーに映る領域を示す画像を生成して車室内に表示する機能を有している。画像表示システム10のユーザとなるドライバは、この画像表示システム10を利用することにより、車両の後方を走行する他車両を確認して、車線変更を行うか否かなどの判断を行うことができる。また、画像表示システム10は、目的地までの経路を案内するナビゲーション機能も有している。以下、この画像表示システム10が搭載される車両を「自車両」という。
<1. First Embodiment>
<1-1. Configuration>
FIG. 1 is a block diagram illustrating a configuration of an image display system 10 according to the first embodiment. This image display system 10 is mounted on a vehicle (in this embodiment, an automobile), and has a function of generating an image showing an area shown in a side mirror and displaying the image in a vehicle interior. A driver who is a user of the image display system 10 can use this image display system 10 to check other vehicles traveling behind the vehicle and determine whether or not to change lanes. . The image display system 10 also has a navigation function for guiding a route to the destination. Hereinafter, a vehicle on which the image display system 10 is mounted is referred to as “own vehicle”.

図に示すように、画像表示システム10は、複数のカメラ5、画像処理装置2、及び、複数の表示装置3を主に備えている。複数のカメラ5は、自車両の周辺を撮影して自車両の周辺を示す撮影画像を取得し、取得した撮影画像を画像処理装置2に入力する。画像処理装置2は、撮影画像などを用いて各種の画像処理を実行し、複数の表示装置3に表示するための画像を生成する。また、複数の表示装置3は、画像処理装置2から出力された画像を表示する。   As shown in the figure, the image display system 10 mainly includes a plurality of cameras 5, an image processing device 2, and a plurality of display devices 3. The plurality of cameras 5 captures the periphery of the host vehicle, acquires captured images indicating the periphery of the host vehicle, and inputs the acquired captured images to the image processing device 2. The image processing device 2 executes various image processing using a captured image or the like, and generates images to be displayed on the plurality of display devices 3. The plurality of display devices 3 display images output from the image processing device 2.

複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、自車両の周辺を示す撮影画像を電子的に取得する。複数のカメラ5は、フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rを含んでいる。これら4つのカメラ5F,5B,5L,5Rは、自車両9において互いに異なる位置に配置され、自車両9の周辺の異なる方向を撮影する。   Each of the plurality of cameras 5 includes a lens and an image sensor, and electronically obtains a photographed image showing the periphery of the host vehicle. The multiple cameras 5 include a front camera 5F, a rear camera 5B, a left side camera 5L, and a right side camera 5R. These four cameras 5F, 5B, 5L, and 5R are arranged at different positions in the own vehicle 9 and photograph different directions around the own vehicle 9.

図2は、4つのカメラ5F,5B,5L,5Rがそれぞれ撮影する方向を示す図である。フロントカメラ5Fは、自車両9の前端に設けられ、その光軸5Faは自車両9の直進方向に向けられる。リアカメラ5Bは、自車両9の後端に設けられ、その光軸5Baは自車両9の直進方向の逆方向に向けられる。左サイドカメラ5Lは左側の左サイドミラー93Lに設けられ、その光軸5Laは自車両9の左側方(直進方向の直交方向)に向けられる。また、右サイドカメラ5Rは右側の右サイドミラー93Rに設けられ、その光軸5Raは自車両9の右側方(直進方向の直交方向)に向けられる。   FIG. 2 is a diagram illustrating directions in which the four cameras 5F, 5B, 5L, and 5R are respectively photographed. The front camera 5F is provided at the front end of the host vehicle 9, and the optical axis 5Fa is directed in the straight traveling direction of the host vehicle 9. The rear camera 5 </ b> B is provided at the rear end of the host vehicle 9, and the optical axis 5 </ b> Ba is directed in the direction opposite to the straight traveling direction of the host vehicle 9. The left side camera 5L is provided on the left side mirror 93L on the left side, and its optical axis 5La is directed to the left side of the host vehicle 9 (a direction orthogonal to the straight traveling direction). Further, the right side camera 5R is provided on the right side mirror 93R on the right side, and its optical axis 5Ra is directed to the right side of the host vehicle 9 (a direction orthogonal to the straight traveling direction).

これらのカメラ5F,5B,5L,5Rのレンズには魚眼レンズなどの広角レンズが採用され、各カメラ5F,5B,5L,5Rは180度以上の画角θを有している。このため、4つのカメラ5F,5B,5L,5Rを利用することで、自車両9の全周囲を撮影することが可能である。   A wide-angle lens such as a fisheye lens is adopted as the lens of these cameras 5F, 5B, 5L, 5R, and each camera 5F, 5B, 5L, 5R has an angle of view θ of 180 degrees or more. For this reason, it is possible to photograph the entire periphery of the host vehicle 9 by using the four cameras 5F, 5B, 5L, and 5R.

図1に戻り、複数の表示装置3はそれぞれ、例えば、液晶などの薄型の表示パネルを備えており、各種の情報や画像を表示する。複数の表示装置3は、メインディスプレイ31、左サブディスプレイ32及び右サブディスプレイ33を含んでいる。これらの3つの表示装置3は、ドライバが自車両9の運転席に着座した状態でその画面を視認できるように、車室内に配置される。   Returning to FIG. 1, each of the plurality of display devices 3 includes a thin display panel such as a liquid crystal display, and displays various types of information and images. The plurality of display devices 3 include a main display 31, a left sub display 32, and a right sub display 33. These three display devices 3 are arranged in the passenger compartment so that the driver can visually recognize the screen while sitting in the driver's seat of the host vehicle 9.

図3は、自車両9の車室内の様子を示す図である。メインディスプレイ31は、車室内の左右中央のセンターコンソール96に設けられている。また、左サブディスプレイ32及び右サブディスプレイ33は、自車両9のメーターパネル94の左側及び右側にそれぞれ設けられている。2つのサブディスプレイ32,33の画面のサイズは、メインディスプレイ31よりも小さくなっている。   FIG. 3 is a view showing a state of the interior of the own vehicle 9. The main display 31 is provided on the center console 96 at the center of the left and right sides of the vehicle interior. The left sub-display 32 and the right sub-display 33 are provided on the left side and the right side of the meter panel 94 of the host vehicle 9, respectively. The screen sizes of the two sub-displays 32 and 33 are smaller than the main display 31.

また、図に示すように、自車両9のステアリングホイール95の左側及び右側に、画像表示システム10が備える操作ボタン4がそれぞれ設けられている。これら左右2つの操作ボタン4は、ドライバの操作を受け付ける操作部材である。いずれかの操作ボタン4がドライバに操作された場合は、その操作内容を示す信号が画像処理装置2に入力される(図1参照。)。   Further, as shown in the figure, the operation buttons 4 included in the image display system 10 are provided on the left side and the right side of the steering wheel 95 of the host vehicle 9, respectively. These left and right operation buttons 4 are operation members that receive the operation of the driver. When any one of the operation buttons 4 is operated by the driver, a signal indicating the operation content is input to the image processing apparatus 2 (see FIG. 1).

図1に戻り、画像処理装置2は、各種の画像処理が可能な電子装置であり、画像取得部21と、画像生成部22と、情報重畳部23と、画像出力部24とを備えている。   Returning to FIG. 1, the image processing apparatus 2 is an electronic apparatus that can perform various types of image processing, and includes an image acquisition unit 21, an image generation unit 22, an information superimposition unit 23, and an image output unit 24. .

画像取得部21は、4つのカメラ5F,5B,5L,5Rでそれぞれ得られた撮影画像を取得する。画像取得部21は、アナログの撮影画像をデジタルの撮影画像に変換する機能などの画像処理機能を有している。画像取得部21は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像生成部22に入力する。   The image acquisition unit 21 acquires captured images respectively obtained by the four cameras 5F, 5B, 5L, and 5R. The image acquisition unit 21 has an image processing function such as a function of converting an analog captured image into a digital captured image. The image acquisition unit 21 performs predetermined image processing on the acquired captured image and inputs the processed captured image to the image generation unit 22.

画像生成部22は、合成画像を生成するための画像処理を行うハードウェア回路である。画像生成部22は、複数のカメラ5で取得された複数の撮影画像を合成して、仮想視点からみた自車両9の周辺の様子を示す合成画像を生成する機能を有している。画像生成部22は、この合成画像を生成する機能により、サイドミラー93L,93Rに映る領域を示す周辺画像を生成する。画像生成部22が周辺画像を生成する手法については後述する。   The image generation unit 22 is a hardware circuit that performs image processing for generating a composite image. The image generation unit 22 has a function of combining a plurality of captured images acquired by the plurality of cameras 5 to generate a combined image that shows the surroundings of the host vehicle 9 viewed from a virtual viewpoint. The image generation unit 22 generates a peripheral image indicating a region reflected on the side mirrors 93L and 93R by the function of generating the composite image. A method by which the image generation unit 22 generates a peripheral image will be described later.

情報重畳部23は、画像生成部22で生成された周辺画像に対して、ドライバに必要となる各種の情報を重畳する。情報重畳部23は、例えば、自車両9の後端からの距離の目安となるガイド線などを周辺画像に重畳する。   The information superimposing unit 23 superimposes various information necessary for the driver on the peripheral image generated by the image generating unit 22. For example, the information superimposing unit 23 superimposes a guide line or the like serving as a guide for the distance from the rear end of the host vehicle 9 on the peripheral image.

画像出力部24は、周辺画像などの表示すべき画像を、3つの表示装置3のいずれかに選択的に出力する。これにより、画像が出力された表示装置3において当該画像が表示される。   The image output unit 24 selectively outputs an image to be displayed such as a peripheral image to one of the three display devices 3. Thus, the image is displayed on the display device 3 from which the image has been output.

また、画像処理装置2は、制御部20と、記憶部25と、信号受信部26と、ナビゲーション部27とをさらに備えている。制御部20は、例えば、マイクロコンピュータであり、画像処理装置2の全体を統括的に制御する。   The image processing apparatus 2 further includes a control unit 20, a storage unit 25, a signal reception unit 26, and a navigation unit 27. The control unit 20 is, for example, a microcomputer, and comprehensively controls the entire image processing apparatus 2.

記憶部25は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部25は、ファームウェアとしてのプログラムや、制御部20の制御に用いる各種のデータを記憶する。   The storage unit 25 is a non-volatile memory such as a flash memory, for example, and stores various types of information. The storage unit 25 stores a program as firmware and various data used for control by the control unit 20.

信号受信部26は、自車両9に設けられる他の装置からの信号を受信する。信号受信部26は、受信した信号を制御部20に入力する。信号受信部26は、車速センサ91及び方向指示器92からの信号を受信する。信号受信部26は、自車両9が走行する絶対速度である走行速度(km/h)を示す信号を、車速センサ91から受信する。また、信号受信部26は、ドライバが進路変更の意思を示した方向である方向指示器92が示す方向を示す信号を、方向指示器92から受信する。すなわち、信号受信部26は、自車両9の走行速度、及び、方向指示器92が示す方向を取得する。   The signal receiving unit 26 receives signals from other devices provided in the host vehicle 9. The signal receiving unit 26 inputs the received signal to the control unit 20. The signal receiving unit 26 receives signals from the vehicle speed sensor 91 and the direction indicator 92. The signal receiving unit 26 receives a signal indicating a traveling speed (km / h) that is an absolute speed at which the host vehicle 9 travels from the vehicle speed sensor 91. Further, the signal receiving unit 26 receives from the direction indicator 92 a signal indicating the direction indicated by the direction indicator 92, which is the direction in which the driver indicates the intention to change the course. That is, the signal receiving unit 26 acquires the traveling speed of the host vehicle 9 and the direction indicated by the direction indicator 92.

ナビゲーション部27は、目的地までの経路を案内するナビゲーション機能を実現する電子部品である。ナビゲーション部27は、目的地までのルート等を示す地図画像を画像出力部24を介してメインディスプレイ31に表示させる。これにより、メインディスプレイ31には、通常、ナビゲーション用の地図画像が表示される。   The navigation unit 27 is an electronic component that realizes a navigation function for guiding a route to a destination. The navigation unit 27 displays a map image indicating a route to the destination on the main display 31 via the image output unit 24. Thereby, a map image for navigation is usually displayed on the main display 31.

制御部20は、CPU、RAM及びROMなどを備えている。制御部20の各種の機能は、記憶部25に記憶されたプログラムに従ってCPUが演算処理を行うことで実現される。図中に示す車両検出部20a、相対速度導出部20b、ガイド線設定部20c及び表示制御部20dは、プログラムに従ってCPUが演算処理を行うことで実現される機能部の一部である。   The control unit 20 includes a CPU, a RAM, a ROM, and the like. Various functions of the control unit 20 are realized by the CPU performing arithmetic processing according to a program stored in the storage unit 25. A vehicle detection unit 20a, a relative speed deriving unit 20b, a guide line setting unit 20c, and a display control unit 20d shown in the drawing are a part of functional units realized by the CPU performing arithmetic processing according to a program.

車両検出部20aは、画像取得部21が取得した撮影画像に基づいて、自車両9の後方を走行する他車両を検出する。なお、本実施の形態において、自車両9の後方とは、自車両9の後端より後側の領域であればよく、自車両9が走行する車線と同一の車線のみならず、自車両9が走行する車線に隣接する隣接車線などの他の車線も含む領域である。   The vehicle detection unit 20 a detects another vehicle that travels behind the host vehicle 9 based on the captured image acquired by the image acquisition unit 21. In the present embodiment, the rear side of the host vehicle 9 may be a region behind the rear end of the host vehicle 9, and not only the same lane as the lane in which the host vehicle 9 travels but also the host vehicle 9. This is a region including other lanes such as adjacent lanes adjacent to the lane where the vehicle travels.

相対速度導出部20bは、自車両9の後方を走行する他車両の自車両9に対する相対速度を導出する。ガイド線設定部20cは、周辺画像に重畳するガイド線の位置や態様を設定する。また、表示制御部20dは、表示すべき周辺画像を選択するとともに、その周辺画像を表示すべき表示装置3を選択する。そして、表示制御部20dは、画像出力部24を制御して、選択した周辺画像を選択した表示装置3に出力させる。   The relative speed deriving unit 20 b derives the relative speed of the other vehicle traveling behind the host vehicle 9 with respect to the host vehicle 9. The guide line setting unit 20c sets the position and mode of the guide line to be superimposed on the peripheral image. In addition, the display control unit 20d selects a peripheral image to be displayed, and selects the display device 3 to display the peripheral image. Then, the display control unit 20d controls the image output unit 24 to output the selected peripheral image to the selected display device 3.

これら制御部20で実現される機能部20a〜20dの処理の詳細については後述する。   Details of the processing of the functional units 20a to 20d realized by the control unit 20 will be described later.

<1−2.周辺画像の生成>
次に、画像生成部22が、サイドミラー93L,93Rに映る領域を示す周辺画像を生成する手法について説明する。まず、仮想視点からみた自車両9の周辺の様子を示す合成画像を生成する手法について説明する。図4は、画像生成部22が合成画像を生成する手法を説明する図である。
<1-2. Generation of peripheral images>
Next, a method in which the image generation unit 22 generates a peripheral image indicating an area reflected on the side mirrors 93L and 93R will be described. First, a method for generating a composite image showing the surroundings of the host vehicle 9 viewed from a virtual viewpoint will be described. FIG. 4 is a diagram illustrating a method in which the image generation unit 22 generates a composite image.

フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rのそれぞれで撮影が行われると、自車両9の前方、後方、左側方及び右側方をそれぞれ示す4つの画像PF,PB,PL,PRが取得される。これら4つの画像PF,PB,PL,PRには、自車両9の全周囲のデータが含まれている。   When shooting is performed with each of the front camera 5F, the rear camera 5B, the left side camera 5L, and the right side camera 5R, four images PF and PB showing the front, rear, left side, and right side of the host vehicle 9, respectively. , PL, PR are acquired. These four images PF, PB, PL, and PR include data around the entire vehicle 9.

画像生成部22は、まず、これら4つの画像PF,PB,PL,PRに含まれるデータ(各画素の値)を、仮想的な三次元空間における立体曲面である投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)をしている。この投影面TSの中心部分(お椀の底部分)は、自車両9の位置として定められている。また、投影面TSの中心以外の部分は、画像PF,PB,PL,PRのいずれかと対応付けられている。   First, the image generation unit 22 projects data (values of each pixel) included in these four images PF, PB, PL, and PR onto a projection surface TS that is a three-dimensional curved surface in a virtual three-dimensional space. The projection surface TS has, for example, a substantially hemispherical shape (a bowl shape). The center part (bottom part of the bowl) of the projection surface TS is determined as the position of the host vehicle 9. Further, the portion other than the center of the projection surface TS is associated with any one of the images PF, PB, PL, and PR.

画像生成部22は、この投影面TSの中心以外の部分に、画像PF,PB,PL,PRに含まれるデータを投影する。画像生成部22は、投影面TSにおいて自車両9の前方に相当する領域に、フロントカメラ5Fの画像PFのデータを投影する。また、画像生成部22は、投影面TSにおいて自車両9の後方に相当する領域に、リアカメラ5Bの画像PBのデータを投影する。さらに、画像生成部22は、投影面TSにおいて自車両9の左側方に相当する領域に左サイドカメラ5Lの画像PLのデータを投影し、投影面TSにおいて自車両9の右側方に相当する領域に右サイドカメラ5Rの画像PRのデータを投影する。   The image generation unit 22 projects the data included in the images PF, PB, PL, PR on a portion other than the center of the projection surface TS. The image generation unit 22 projects the data of the image PF of the front camera 5F onto an area corresponding to the front of the host vehicle 9 on the projection surface TS. Further, the image generation unit 22 projects the data of the image PB of the rear camera 5B on an area corresponding to the rear of the host vehicle 9 on the projection surface TS. Furthermore, the image generation unit 22 projects the data of the image PL of the left side camera 5L on the projection surface TS in the region corresponding to the left side of the host vehicle 9, and the region corresponding to the right side of the host vehicle 9 in the projection surface TS. The data of the image PR of the right side camera 5R is projected onto.

このように投影面TSの各部分にデータを投影すると、次に、画像生成部22は、自車両9の三次元形状を示すポリゴンのモデルを仮想的に構成する。この自車両9のモデルは、投影面TSが設定される三次元空間において、自車両9の位置と定められた投影面TSの中心部分に配置される。   When data is thus projected onto each part of the projection surface TS, the image generation unit 22 then virtually constructs a polygon model indicating the three-dimensional shape of the host vehicle 9. The model of the host vehicle 9 is arranged at the center of the projection plane TS that is determined as the position of the host vehicle 9 in the three-dimensional space where the projection plane TS is set.

次に、画像生成部22は、三次元空間に対して仮想視点VPを設定する。画像生成部22は、三次元空間における任意の視点位置に任意の視野方向に向けて仮想視点VPを設定できる。そして、画像生成部22は、投影面TSのうち、設定した仮想視点VPからみて所定の視野角に含まれる領域を画像として切り出す。また、画像生成部22は、設定した仮想視点VPに応じてポリゴンのモデルに関してレンダリングを行い、その結果となる二次元の車両像90を、切り出した画像に対して重畳する。これにより、画像生成部22は、仮想視点VPからみた自車両9及び自車両9の周辺の領域を示す合成画像CPを生成する。   Next, the image generation unit 22 sets a virtual viewpoint VP for the three-dimensional space. The image generation unit 22 can set the virtual viewpoint VP at an arbitrary viewpoint position in the three-dimensional space in an arbitrary visual field direction. Then, the image generation unit 22 cuts out, as an image, an area included in the predetermined viewing angle from the set virtual viewpoint VP in the projection surface TS. Further, the image generation unit 22 performs rendering on the polygon model according to the set virtual viewpoint VP, and superimposes the two-dimensional vehicle image 90 as a result on the cut-out image. Thereby, the image generation part 22 produces | generates the synthetic | combination image CP which shows the area | region around the own vehicle 9 and the own vehicle 9 seen from the virtual viewpoint VP.

例えば図に示すように、視点位置を自車両9の直上、視野方向を直下とした仮想視点VPaを設定した場合には、自車両9及び自車両9の周辺の領域を俯瞰する合成画像CPaが生成される。また、視点位置を自車両9の左後方、視野方向を自車両9の前方とした仮想視点VPbを設定した場合には、自車両9の左後方からその周辺全体を見渡すように、自車両9及び自車両9の周辺の領域を示す合成画像CPbが生成される。   For example, as shown in the figure, when a virtual viewpoint VPa is set with the viewpoint position directly above the host vehicle 9 and the view direction directly below, a composite image CPa overlooking the host vehicle 9 and the area around the host vehicle 9 is obtained. Generated. When the virtual viewpoint VPb is set with the viewpoint position at the left rear of the host vehicle 9 and the visual field direction at the front of the host vehicle 9, the host vehicle 9 can be seen from the left rear of the host vehicle 9. And the synthetic | combination image CPb which shows the area | region of the periphery of the own vehicle 9 is produced | generated.

画像生成部22は、このような合成画像を生成する機能を利用して、サイドミラー93L,93Rに映る領域を示す周辺画像を生成する。画像生成部22は、この周辺画像を生成するために、仮想視点VPの視点位置及び視野方向を調整する。図5は、周辺画像を生成するために設定される仮想視点を示す図である。   The image generation unit 22 uses the function of generating such a composite image to generate a peripheral image that indicates an area shown on the side mirrors 93L and 93R. The image generation unit 22 adjusts the viewpoint position and visual field direction of the virtual viewpoint VP in order to generate this peripheral image. FIG. 5 is a diagram illustrating a virtual viewpoint set for generating a peripheral image.

図5に示すように、画像生成部22は、視点位置を右サイドミラー93Rの位置、視野方向を右サイドミラー93Rに映る領域の中央とした仮想視点VPRを設定する。画像生成部22は、この仮想視点VPRを設定することにより、ドライバからみて右サイドミラー93Rに映る領域を含む自車両9の周辺領域を示す周辺画像を生成できる。この周辺画像に含まれる像は、左右反転され、右サイドミラー93Rに映る像と同様の向きとされる。   As illustrated in FIG. 5, the image generation unit 22 sets a virtual viewpoint VPR with the viewpoint position as the position of the right side mirror 93R and the visual field direction as the center of the region reflected in the right side mirror 93R. By setting this virtual viewpoint VPR, the image generation unit 22 can generate a peripheral image indicating a peripheral region of the host vehicle 9 including a region reflected on the right side mirror 93R when viewed from the driver. The image included in this peripheral image is reversed left and right and has the same orientation as the image reflected on the right side mirror 93R.

図6は、右サイドミラー93Rに対応する周辺画像SPの一例を示す図である。図6に示すように、この周辺画像SPは、右サイドミラー93Rに映る領域Maを含む自車両9の周辺領域を示してる。周辺画像SP中において、右サイドミラー93Rに映る領域Maに対応する部分は、右サイドミラー93Rと同様の形状の枠Mfで囲まれている。   FIG. 6 is a diagram illustrating an example of the peripheral image SP corresponding to the right side mirror 93R. As shown in FIG. 6, this peripheral image SP shows a peripheral region of the host vehicle 9 including a region Ma reflected on the right side mirror 93R. In the peripheral image SP, a portion corresponding to the region Ma reflected on the right side mirror 93R is surrounded by a frame Mf having the same shape as that of the right side mirror 93R.

また、周辺画像SPには、自車両9の後方を走行する他車両8の像や、自車両9の車体の一部を示す車両像90が含まれている。したがって、ユーザは、この周辺画像SPを、右サイドミラー93Rと同様の感覚で確認することができる。   Further, the peripheral image SP includes an image of the other vehicle 8 that travels behind the host vehicle 9 and a vehicle image 90 that shows a part of the vehicle body of the host vehicle 9. Therefore, the user can confirm the peripheral image SP with the same feeling as that of the right side mirror 93R.

また、図5に示すように、画像生成部22は、視点位置を左サイドミラー93Lの位置、視野方向を左サイドミラー93Lに映る領域の中央とした仮想視点VPLも設定する。画像生成部22は、この仮想視点VPLを設定することにより、ドライバからみて左サイドミラー93Lに映る領域を含む自車両9の周辺領域を示す周辺画像を生成できる。この周辺画像に含まれる像は、左右反転され、左サイドミラー93Lに映る像と同様の向きとされる。   Further, as illustrated in FIG. 5, the image generation unit 22 also sets a virtual viewpoint VPL in which the viewpoint position is the position of the left side mirror 93L and the visual field direction is the center of the region reflected in the left side mirror 93L. By setting this virtual viewpoint VPL, the image generation unit 22 can generate a peripheral image indicating the peripheral region of the host vehicle 9 including the region reflected on the left side mirror 93L when viewed from the driver. The image included in the peripheral image is reversed left and right and has the same orientation as the image reflected on the left side mirror 93L.

図7は、左サイドミラー93Lに対応する周辺画像SPの一例を示す図である。図7に示すように、この周辺画像SPは、左サイドミラー93Lに映る領域Maを含む自車両9の周辺領域を示してる。周辺画像SP中において、左サイドミラー93Lに映る領域Maに対応する部分は、左サイドミラー93Lと同様の形状の枠Mfで囲まれている。ユーザは、この周辺画像SPを、左サイドミラー93Lと同様の感覚で確認することができる。   FIG. 7 is a diagram illustrating an example of the peripheral image SP corresponding to the left side mirror 93L. As shown in FIG. 7, the peripheral image SP shows a peripheral region of the host vehicle 9 including a region Ma reflected on the left side mirror 93L. In the peripheral image SP, a portion corresponding to the region Ma reflected on the left side mirror 93L is surrounded by a frame Mf having the same shape as the left side mirror 93L. The user can confirm the peripheral image SP with the same feeling as that of the left side mirror 93L.

<1−3.ガイド線>
情報重畳部23は、このように生成された周辺画像に対してガイド線を重畳する。また、ガイド線設定部20cは、周辺画像に重畳するガイド線の位置や態様を決定する。以下、このガイド線について説明する。図8は、ガイド線が重畳された周辺画像SPの例を示している。図8に示すように周辺画像SPには2つのガイド線L0,L1が重畳される。
<1-3. Guide line>
The information superimposing unit 23 superimposes a guide line on the peripheral image generated in this way. In addition, the guide line setting unit 20c determines the position and mode of the guide line to be superimposed on the peripheral image. Hereinafter, this guide line will be described. FIG. 8 shows an example of the peripheral image SP on which guide lines are superimposed. As shown in FIG. 8, two guide lines L0 and L1 are superimposed on the peripheral image SP.

一方のガイド線L0は、周辺画像SP中における自車両9の後端の位置(すなわち、後端から後方に0mとなる位置)を示している。このガイド線L0の位置は、周辺画像SP中において固定される。以下、このガイド線L0を「基準ガイド線」という。   One guide line L0 indicates the position of the rear end of the host vehicle 9 in the peripheral image SP (that is, the position that is 0 m backward from the rear end). The position of the guide line L0 is fixed in the peripheral image SP. Hereinafter, the guide line L0 is referred to as a “reference guide line”.

また、他方のガイド線L1は、周辺画像SP中における自車両9の後端から後方に指定距離となる位置を示している。図8の例では、ガイド線L1は、自車両9の後端から後方に20m離れた位置を示している。ガイド線設定部20cは、このガイド線L1が示す指定距離(自車両9の後端から後方への距離)を変更することができる。したがって、周辺画像SP中におけるガイド線L1の位置は、指定距離に応じて変動する。以下、このガイド線L1を「変動ガイド線」という。   The other guide line L1 indicates a position that is a specified distance backward from the rear end of the host vehicle 9 in the peripheral image SP. In the example of FIG. 8, the guide line L <b> 1 indicates a position 20 m away from the rear end of the host vehicle 9. The guide line setting part 20c can change the designated distance (distance from the rear end to the rear of the host vehicle 9) indicated by the guide line L1. Accordingly, the position of the guide line L1 in the peripheral image SP varies according to the specified distance. Hereinafter, the guide line L1 is referred to as a “variable guide line”.

変動ガイド線L1は、車線変更を行う場合における安全な自車両9と他車両8との位置関係の目安となる。すなわち、ドライバは、車線変更を行うか否かを判断する際に変動ガイド線L1を利用することができる。具体的には、ドライバは、周辺画像SPにおいて、自車両9の後方の隣接車線を走行する他車両8の像が、変動ガイド線L1よりも後方にある場合は、比較的安全に車線変更を行うことができると判断する。すなわち、ガイド線L1が示す指定距離は、車線変更を比較的安全に行うことができる自車両9と他車両8との車間距離(以下、「安全車間距離」という。)に相当する。   The fluctuation guide line L1 is a measure of the positional relationship between the safe host vehicle 9 and the other vehicle 8 when changing the lane. That is, the driver can use the fluctuation guide line L1 when determining whether or not to change the lane. Specifically, the driver changes the lane relatively safely when the image of the other vehicle 8 traveling in the adjacent lane behind the host vehicle 9 is behind the fluctuation guide line L1 in the surrounding image SP. Judge that it can be done. In other words, the specified distance indicated by the guide line L1 corresponds to the inter-vehicle distance between the host vehicle 9 and the other vehicle 8 (hereinafter referred to as “safe inter-vehicle distance”) that can change the lane relatively safely.

安全車間距離は、自車両9の走行速度、及び、自車両9に対する他車両8の相対速度に応じて変動する。例えば、自車両9が比較的高速に走行している場合は、比較的低速に走行している場合よりも、安全車間距離として大きな距離が必要となる。また、他車両8が自車両9に急接近している場合に車線変更を行った場合、車線変更後に自車両9と他車両8との車間距離が非常に小さくなる可能性がある。このため、他車両8が接近する場合には、自車両9に対する他車両8の相対速度の絶対値が大きいほど、安全車間距離を大きくする必要がある。   The safe inter-vehicle distance varies according to the traveling speed of the host vehicle 9 and the relative speed of the other vehicle 8 with respect to the host vehicle 9. For example, when the host vehicle 9 is traveling at a relatively high speed, a larger distance is required as the safe inter-vehicle distance than when the host vehicle 9 is traveling at a relatively low speed. In addition, when the lane change is performed when the other vehicle 8 is approaching the own vehicle 9, the inter-vehicle distance between the own vehicle 9 and the other vehicle 8 may become very small after the lane change. For this reason, when the other vehicle 8 approaches, the safe inter-vehicle distance needs to be increased as the absolute value of the relative speed of the other vehicle 8 with respect to the own vehicle 9 is increased.

このため、ガイド線設定部20cは、自車両9の走行速度、及び、自車両9に対する他車両8の相対速度に基づいて、指定距離を決定する。指定距離をD(m)、自車両9の走行速度をV1(km/h)、自車両9に対する他車両8の相対速度をV2(km/h)とすると、指定距離Dは例えば次の式(1)で決定される。   For this reason, the guide line setting unit 20 c determines the designated distance based on the traveling speed of the host vehicle 9 and the relative speed of the other vehicle 8 with respect to the host vehicle 9. When the designated distance is D (m), the traveling speed of the own vehicle 9 is V1 (km / h), and the relative speed of the other vehicle 8 with respect to the own vehicle 9 is V2 (km / h), the designated distance D is, for example, Determined in (1).

D = V1/2 + V2×0.75 …(1)
なお、本実施の形態において相対速度V2は、自車両9に対して他車両8が接近する場合(自車両9よりも他車両8が早い場合)は正(+)の値、他車両8が離間する場合(自車両9よりも他車両8が遅い場合)は負(−)の値であるとする。
D = V1 / 2 + V2 × 0.75 (1)
In the present embodiment, the relative speed V2 is a positive (+) value when the other vehicle 8 approaches the own vehicle 9 (when the other vehicle 8 is earlier than the own vehicle 9). When the vehicle is separated (when the other vehicle 8 is slower than the host vehicle 9), the value is negative (−).

図9は、式(1)に基づく指定距離Dの変化を示す図である。図中の縦軸は指定距離Dを示し、図中の横軸は相対速度V2を示している。また、グラフ線FL1は走行速度V1が40(km/h)の場合の指定距離Dを示し、グラフ線FL2は走行速度V1が60(km/h)の場合の指定距離Dを示している。   FIG. 9 is a diagram illustrating a change in the designated distance D based on Expression (1). The vertical axis in the figure indicates the designated distance D, and the horizontal axis in the figure indicates the relative speed V2. The graph line FL1 indicates the specified distance D when the traveling speed V1 is 40 (km / h), and the graph line FL2 indicates the specified distance D when the traveling speed V1 is 60 (km / h).

図に示すように、指定距離Dは、走行速度V1及び相対速度V2に応じて変化する。グラフ線FL1,L2に示すように、走行速度V1が一定の場合には、指定距離Dは相対速度V2が大きいほど大きくなる。また、相対速度V2が一定の場合を想定すると、指定距離Dは走行速度V1が大きいほど大きくなる。なお、相対速度V2が負(−)の場合(他車両8が離間する場合)、または、他車両8が検出できない場合は、相対速度V2を0として指定距離Dが決定される。   As shown in the figure, the designated distance D changes according to the traveling speed V1 and the relative speed V2. As indicated by the graph lines FL1, L2, when the traveling speed V1 is constant, the specified distance D increases as the relative speed V2 increases. Assuming that the relative speed V2 is constant, the designated distance D increases as the traveling speed V1 increases. When the relative speed V2 is negative (−) (when the other vehicle 8 is separated) or when the other vehicle 8 cannot be detected, the relative speed V2 is set to 0 and the specified distance D is determined.

ガイド線設定部20cは、このようにして走行速度V1及び相対速度V2に基づいて指定距離Dを決定する。そして、ガイド線設定部20cは、情報重畳部23を制御して、指定距離に対応する周辺画像SP中の座標位置に変動ガイド線L1を重畳させる。指定距離Dと周辺画像SP中の座標位置との対応関係はテーブルによって定められている。この対応関係を示すテーブルは記憶部25などに予め記憶されている。   The guide line setting unit 20c thus determines the designated distance D based on the traveling speed V1 and the relative speed V2. Then, the guide line setting unit 20c controls the information superimposing unit 23 to superimpose the variation guide line L1 on the coordinate position in the peripheral image SP corresponding to the specified distance. The correspondence between the designated distance D and the coordinate position in the peripheral image SP is determined by a table. A table indicating this correspondence relationship is stored in advance in the storage unit 25 or the like.

前述した図8は、走行速度V1が40(km/h)、相対速度V2が0(km/h)の場合における周辺画像SPを示している。この場合は、指定距離Dは20(m)となる。このため、周辺画像SPには、自車両9の後端から後方に20(m)の位置を示す変動ガイド線L1が含まれている。   FIG. 8 described above shows the peripheral image SP when the traveling speed V1 is 40 (km / h) and the relative speed V2 is 0 (km / h). In this case, the designated distance D is 20 (m). For this reason, the surrounding image SP includes a fluctuation guide line L1 indicating a position of 20 (m) rearward from the rear end of the host vehicle 9.

また、図10は、走行速度V1が40(km/h)、相対速度V2が20(km/h)の場合における周辺画像SPを示す図である。この場合は、指定距離Dは35(m)となる。このため、周辺画像SPには、自車両9の後端から後方に35(m)の位置を示す変動ガイド線L1が含まれている。図8の場合と図10の場合とでは、走行速度V1は同一であるが、相対速度V2が図10の場合の方が大きい。このため、図10の場合の方が指定距離Dが大きくなっている。   FIG. 10 is a diagram showing the peripheral image SP when the traveling speed V1 is 40 (km / h) and the relative speed V2 is 20 (km / h). In this case, the designated distance D is 35 (m). For this reason, the surrounding image SP includes a fluctuation guide line L1 indicating a position of 35 (m) behind the rear end of the host vehicle 9. In the case of FIG. 8 and FIG. 10, the traveling speed V1 is the same, but the relative speed V2 is larger in the case of FIG. For this reason, the designated distance D is larger in the case of FIG.

また、図11は、走行速度V1が60(km/h)、相対速度V2が20(km/h)の場合における周辺画像SPを示す図である。この場合は、指定距離Dは45(m)となる。このため、周辺画像SPには、自車両9の後端から後方に45(m)の位置を示す変動ガイド線L1が含まれている。図10の場合と図11の場合とでは、相対速度V2は同一であるが、走行速度V1が図11の場合の方が大きい。このため、図11の場合の方が指定距離Dが大きくなっている。   FIG. 11 is a diagram illustrating the peripheral image SP when the traveling speed V1 is 60 (km / h) and the relative speed V2 is 20 (km / h). In this case, the designated distance D is 45 (m). For this reason, the surrounding image SP includes a fluctuation guide line L1 indicating a position of 45 (m) behind the rear end of the host vehicle 9. In the case of FIG. 10 and FIG. 11, the relative speed V2 is the same, but the traveling speed V1 is larger in the case of FIG. For this reason, the designated distance D is larger in the case of FIG.

このように周辺画像SPには、走行速度V1と相対速度V2とに応じた指定距離Dの位置を示す変動ガイド線L1が重畳される。このため、ドライバは、この周辺画像SPを視認することにより、走行速度V1及び相対速度V2に応じて安全な自車両9と他車両8との位置関係を把握できるため、車線変更の判断を適切に行うことができる。   Thus, the fluctuation guide line L1 indicating the position of the designated distance D corresponding to the traveling speed V1 and the relative speed V2 is superimposed on the peripheral image SP. For this reason, the driver can grasp the positional relationship between the own vehicle 9 and the other vehicle 8 safely according to the traveling speed V1 and the relative speed V2 by visually recognizing the surrounding image SP. Can be done.

また、図8、図10及び図11に示すように、周辺画像SPには、2つのガイド線L0,L1とともに、それら2つのガイド線L0,L1が示す距離の文字情報も重畳される。固定ガイド線L0の端部近傍には「0m」という文字情報が重畳されている。また、変動ガイド線L1の端部近傍には、その変動ガイド線L1が示す指定距離Dの文字情報が重畳されている。例えば、図10の場合は指定距離Dは35(m)であるため「35m」という文字情報が重畳され、図11の場合は指定距離Dは45(m)であるため「45m」という文字情報が重畳されている。ガイド線設定部20cは、情報重畳部23を制御して、これらの文字情報を周辺画像SPに重畳させる。自車両9のドライバは、これらの文字情報を視認することで、ガイド線L0,L1が示す距離を明確に把握することができる。   Further, as shown in FIGS. 8, 10 and 11, the peripheral image SP is superimposed with character information of distances indicated by the two guide lines L0 and L1 together with the two guide lines L0 and L1. Character information “0 m” is superimposed in the vicinity of the end of the fixed guide line L0. In addition, the character information of the designated distance D indicated by the variation guide line L1 is superimposed in the vicinity of the end portion of the variation guide line L1. For example, in the case of FIG. 10, since the designated distance D is 35 (m), the character information “35 m” is superimposed, and in the case of FIG. 11, the designated distance D is 45 (m), so that the character information “45 m”. Are superimposed. The guide line setting unit 20c controls the information superimposing unit 23 to superimpose such character information on the peripheral image SP. The driver of the host vehicle 9 can clearly grasp the distances indicated by the guide lines L0 and L1 by visually recognizing the character information.

また、図8、図10及び図11を比較して分かるように、周辺画像SPにおける変動ガイド線L1の水平方向の長さは、変動ガイド線L1が示す指定距離Dに応じて変更されている。具体的には、変動ガイド線L1が示す指定距離Dが小さいほど、変動ガイド線L1の長さが大きくなっている。また、自車両9の後端を示す固定ガイド線L0の長さは、変動ガイド線L1よりも大きくなっている。このようにガイド線設定部20cは、ガイド線L1,L0が示す距離が小さいほど、ガイド線L1,L0の長さを大きく設定する。このようにガイド線L1,L0の長さを調整することで、周辺画像SP中においてガイド線L1,L0が遠近法と同様の表現で示されることとなる。これにより、周辺画像SPを視認するドライバに、ガイド線L1,L0に関して被写体の像と同様の遠近感を与えることができる。その結果、ドライバは、変動ガイド線L1が示す指定距離Dを直感的に把握することができる。   Further, as can be seen by comparing FIG. 8, FIG. 10, and FIG. 11, the horizontal length of the fluctuation guide line L1 in the peripheral image SP is changed according to the designated distance D indicated by the fluctuation guide line L1. . Specifically, the length of the variation guide line L1 increases as the designated distance D indicated by the variation guide line L1 decreases. In addition, the length of the fixed guide line L0 indicating the rear end of the host vehicle 9 is larger than the fluctuation guide line L1. As described above, the guide line setting unit 20c sets the lengths of the guide lines L1 and L0 to be larger as the distance indicated by the guide lines L1 and L0 is smaller. By adjusting the lengths of the guide lines L1 and L0 in this way, the guide lines L1 and L0 are represented in the same manner as the perspective method in the peripheral image SP. Thereby, it is possible to give the driver who visually recognizes the peripheral image SP a perspective similar to the image of the subject with respect to the guide lines L1 and L0. As a result, the driver can intuitively grasp the designated distance D indicated by the variation guide line L1.

また、ガイド線設定部20cは、相対速度V2に応じて、変動ガイド線L1の態様を変更するようになっている。ガイド線設定部20cは、車線変更を行った場合の危険度を相対速度V2に基づいて判定し、危険度が高いほど注意喚起効果を高めるよう変動ガイド線L1の態様を変更する。   Further, the guide line setting unit 20c changes the mode of the fluctuation guide line L1 according to the relative speed V2. The guide line setting unit 20c determines the risk level when the lane is changed based on the relative speed V2, and changes the mode of the variable guide line L1 so as to increase the alerting effect as the risk level increases.

具体的には、ガイド線設定部20cは、相対速度V2が所定の閾値(本実施の形態では、例えば20km/h)以下の場合は変動ガイド線L1の色を「黄色」とし、相対速度V2が閾値を超える場合は変動ガイド線L1の色を「赤色」とする。また、相対速度V2が0以下の場合(他車両8が離間、または、他車両8が自車両9と同一の速度で走行する場合)、または、他車両8が検出できない場合は、車線変更しても他車両8に接触する危険度が低い。このためこの場合は、ガイド線設定部20cは、変動ガイド線L1の色を安全を示す「青色」とする。また、ガイド線設定部20cは、相対速度V2が閾値を超える場合は、相対速度V2が閾値以下の場合と比較して、変動ガイド線L1の太さを太くする。   Specifically, the guide line setting unit 20c sets the color of the variation guide line L1 to “yellow” and the relative speed V2 when the relative speed V2 is equal to or lower than a predetermined threshold (for example, 20 km / h in the present embodiment). When the value exceeds the threshold, the color of the variation guide line L1 is set to “red”. If the relative speed V2 is 0 or less (when the other vehicle 8 is separated or the other vehicle 8 travels at the same speed as the host vehicle 9) or when the other vehicle 8 cannot be detected, the lane is changed. However, the risk of contact with the other vehicle 8 is low. Therefore, in this case, the guide line setting unit 20c sets the color of the variable guide line L1 to “blue” indicating safety. In addition, when the relative speed V2 exceeds the threshold, the guide line setting unit 20c increases the thickness of the variable guide line L1 as compared with the case where the relative speed V2 is equal to or less than the threshold.

図12は、走行速度V1が40(km/h)、相対速度V2が40(km/h)の場合における周辺画像SPを示す図である。この場合は、指定距離Dは50(m)となる。このため、周辺画像SPには、自車両9の後端から後方に50(m)の位置を示す変動ガイド線L1が含まれている。この図12の場合は、相対速度V2が閾値である20(km/h)を超えている。このため、変動ガイド線L1の色は、図8、図10及び図11の場合は「黄色」であるのに対して、図12の場合は「赤色」となっている。また、図12の場合は、変動ガイド線L1の太さは、図8、図10及び図11の場合と比較して太くなっている。   FIG. 12 is a diagram illustrating the peripheral image SP when the traveling speed V1 is 40 (km / h) and the relative speed V2 is 40 (km / h). In this case, the designated distance D is 50 (m). For this reason, the surrounding image SP includes a fluctuation guide line L1 indicating a position of 50 (m) behind the rear end of the host vehicle 9. In the case of FIG. 12, the relative speed V2 exceeds the threshold value of 20 (km / h). For this reason, the color of the variation guide line L1 is “yellow” in the case of FIGS. 8, 10, and 11, whereas it is “red” in the case of FIG. In the case of FIG. 12, the thickness of the variation guide line L1 is thicker than that of the cases of FIGS.

このように、ガイド線設定部20cは、相対速度V2に応じて車線変更を行った場合の危険度を判定し、危険度に応じて注意喚起効果を高めるように変動ガイド線L1の態様を変更する。これにより、ドライバは、相対速度V2が比較的大きく、車線変更したときの危険度が高いことを直感的に把握できる。その結果、運転における安全性を向上できる。   As described above, the guide line setting unit 20c determines the degree of danger when the lane is changed according to the relative speed V2, and changes the mode of the variable guide line L1 so as to enhance the alerting effect according to the degree of danger. To do. Thereby, the driver can intuitively grasp that the relative speed V2 is relatively large and the degree of danger when the lane is changed is high. As a result, driving safety can be improved.

<1−4.画像処理装置の処理>
次に、このような周辺画像を生成する画像処理装置2の処理の流れについて説明する。。図13は、画像処理装置2の処理の流れを示す図である。この図13に示す処理は、所定の周期(例えば、1/30秒周期)で繰り返される。
<1-4. Processing of Image Processing Device>
Next, a processing flow of the image processing apparatus 2 that generates such a peripheral image will be described. . FIG. 13 is a diagram illustrating a flow of processing of the image processing apparatus 2. The processing shown in FIG. 13 is repeated at a predetermined cycle (for example, 1/30 second cycle).

まず、4つのカメラ5でそれぞれ撮影がなされ、画像取得部21が、これら4つのカメラ5から4つの撮影画像を取得する。画像取得部21は、取得した4つの撮影画像を画像生成部22、及び、制御部20に入力する(ステップS11)。   First, each of the four cameras 5 captures images, and the image acquisition unit 21 acquires four captured images from these four cameras 5. The image acquisition unit 21 inputs the acquired four captured images to the image generation unit 22 and the control unit 20 (step S11).

次に、画像生成部22が、4つの撮影画像を用いて、前述した手法により、右サイドミラー93Rに映る領域を示す周辺画像(以下、「右周辺画像」という。)SPと、左サイドミラー93Lに映る領域を示す周辺画像(以下、「左周辺画像」という。)SPとをそれぞれ生成する(ステップS12)。   Next, the image generation unit 22 uses the four captured images to perform a peripheral image (hereinafter referred to as “right peripheral image”) SP indicating a region reflected on the right side mirror 93R and a left side mirror by the above-described method. Peripheral images (hereinafter, referred to as “left peripheral images”) SP indicating the area shown in 93L are respectively generated (step S12).

次に、信号受信部26が、車速センサ91からの信号を受信して、自車両9の走行速度V1を取得する。信号受信部26は、取得した走行速度V1を制御部20に入力する(ステップS13)。   Next, the signal receiving unit 26 receives a signal from the vehicle speed sensor 91 and acquires the traveling speed V1 of the host vehicle 9. The signal receiving unit 26 inputs the acquired traveling speed V1 to the control unit 20 (step S13).

次に、車両検出部20aは、画像取得部21が取得した撮影画像のうちのリアカメラ5Bの撮影画像に基づいて、自車両9の後方を走行する他車両8を検出する(ステップS14)。なお、車両検出部20aは、サイドカメラ5L、5Rの撮影画像に基づいて他車両8を検出してもよい。ただし、リアカメラ5Bの方が他車両8の像の歪が少なく、また、像のサイズも大きくなるため、検出精度の点でリアカメラ5Bの撮影画像を用いることが望ましい。   Next, the vehicle detection unit 20a detects the other vehicle 8 traveling behind the host vehicle 9 based on the captured image of the rear camera 5B among the captured images acquired by the image acquisition unit 21 (step S14). The vehicle detection unit 20a may detect the other vehicle 8 based on the captured images of the side cameras 5L and 5R. However, since the rear camera 5B has less distortion of the image of the other vehicle 8 and the size of the image becomes larger, it is desirable to use the captured image of the rear camera 5B in terms of detection accuracy.

車両検出部20aは、例えば、オプティカルフロー方式などの周知の手法を用いて他車両8を検出することができる。オプティカルフロー方式は、時間的に連続する複数の撮影画像(フレーム)のそれぞれから特徴点を抽出し、それら複数の撮影画像間での特徴点の動きを示すオプティカルフローに基づいて物体を検出する手法である。本実施の形態の場合は、背景の像のオプティカルフローは消失点の方向へ一定の長さで延びるため、このようなオプティカルフロー以外のオプティカルフローを、他車両8の像のオプティカルフローと判断することができる。   The vehicle detection unit 20a can detect the other vehicle 8 by using a known method such as an optical flow method, for example. In the optical flow method, a feature point is extracted from each of a plurality of time-sequential captured images (frames), and an object is detected based on an optical flow indicating the movement of the feature points between the plurality of captured images. It is. In the case of the present embodiment, the optical flow of the background image extends with a certain length in the direction of the vanishing point. Therefore, an optical flow other than such an optical flow is determined as the optical flow of the image of the other vehicle 8. be able to.

また、車両検出部20aは、検出した他車両8の像の撮影画像中における水平方向の座標位置から、検出された他車両8が、自車両9の右側後方、左側後方、及び、同一車線の後方のいずれに存在しているかを判断する。   Further, the vehicle detection unit 20a detects that the detected other vehicle 8 is located on the right rear side, the left rear side, and the same lane of the own vehicle 9 from the horizontal coordinate position in the captured image of the detected image of the other vehicle 8. Determine where it is behind.

次に、相対速度導出部20bは、検出された他車両8の自車両9に対する相対速度V2を導出する(ステップS15)。相対速度導出部20bは、まず、他車両8の像の撮影画像中における垂直方向の座標位置から、自車両9に対する他車両8の相対距離を導出する。撮影画像中の座標位置と相対距離との対応関係はテーブルによって定められている。この対応関係を示すテーブルは記憶部25などに予め記憶されている。   Next, the relative speed deriving unit 20b derives the detected relative speed V2 of the other vehicle 8 with respect to the host vehicle 9 (step S15). First, the relative speed deriving unit 20b derives the relative distance of the other vehicle 8 with respect to the host vehicle 9 from the vertical coordinate position in the captured image of the image of the other vehicle 8. The correspondence between the coordinate position in the captured image and the relative distance is determined by a table. A table indicating this correspondence relationship is stored in advance in the storage unit 25 or the like.

そして、相対速度導出部20bは、過去の処理において導出した他車両8の相対距離と、今回の処理において導出した他車両8の相対距離と、処理の周期とに基づいて、他車両8の自車両9に対する相対速度V2を導出する。前述のように、相対速度導出部20bは、自車両9に対して他車両8が接近している場合は正(+)の値の相対速度V2を導出し、自車両9に対して他車両8が離間している場合は負(−)の値の相対速度V2を導出する。   Then, the relative speed deriving unit 20b determines the own speed of the other vehicle 8 based on the relative distance of the other vehicle 8 derived in the past process, the relative distance of the other vehicle 8 derived in the current process, and the processing cycle. A relative speed V2 with respect to the vehicle 9 is derived. As described above, the relative speed deriving unit 20b derives a positive (+) relative speed V2 when the other vehicle 8 is approaching the host vehicle 9, and the other vehicle 8 is compared with the host vehicle 9. When 8 is separated, a relative speed V2 having a negative (−) value is derived.

次に、ガイド線設定部20cが、前述の式(1)を用いて、自車両9の走行速度V1、及び、自車両9に対する他車両8の相対速度V2に基づいて指定距離Dを決定する(ステップS16)。さらに、ガイド線設定部20cは、決定した指定距離Dに基づいて変動ガイド線L1の位置を決定するとともに、相対速度V2に基づいて変動ガイド線L1の態様(色、太さ等)を設定する(ステップS17)。   Next, the guide line setting unit 20c determines the designated distance D based on the traveling speed V1 of the host vehicle 9 and the relative speed V2 of the other vehicle 8 with respect to the host vehicle 9 using the above-described equation (1). (Step S16). Furthermore, the guide line setting unit 20c determines the position of the variation guide line L1 based on the determined designated distance D, and sets the mode (color, thickness, etc.) of the variation guide line L1 based on the relative speed V2. (Step S17).

自車両9の右側後方、及び、左側後方のそれぞれに他車両8が存在する場合は、ガイド線設定部20cは、右側の他車両8及び左側の他車両8のそれぞれに関して指定距離Dを決定する。そして、ガイド線設定部20cは、自車両9の右側及び左側のそれぞれに関して変動ガイド線L1の位置及び態様を設定する。   When there are other vehicles 8 on the right rear side and the left rear side of the host vehicle 9, the guide line setting unit 20c determines the designated distance D for each of the right other vehicle 8 and the left other vehicle 8. . And the guide line setting part 20c sets the position and aspect of the fluctuation | variation guide line L1 regarding each of the right side and the left side of the own vehicle 9. FIG.

次に、情報重畳部23が、2つのガイド線L0,L1及び距離の文字情報などの情報を周辺画像SPに重畳する(ステップS18)。情報重畳部23は、自車両9の右側に関する変動ガイド線L1を右周辺画像SPに重畳し、自車両9の左側に関する変動ガイド線L1を左周辺画像SPに重畳する。   Next, the information superimposing unit 23 superimposes information such as the two guide lines L0 and L1 and the distance character information on the peripheral image SP (step S18). The information superimposing unit 23 superimposes the variation guide line L1 related to the right side of the host vehicle 9 on the right peripheral image SP, and superimposes the variation guide line L1 related to the left side of the host vehicle 9 to the left peripheral image SP.

次に、表示制御部20dが、上記のように生成された周辺画像SPを表示するための3つの表示条件のいずれかを満足するか否かを判定する(ステップS19,S20,S21)。いずれの表示条件も満足しない場合は(ステップS19,S20,S21の全てにおいてNo)、処理はそのまま終了する。   Next, the display control unit 20d determines whether any of the three display conditions for displaying the peripheral image SP generated as described above is satisfied (steps S19, S20, and S21). If none of the display conditions is satisfied (No in all of Steps S19, S20, and S21), the process ends as it is.

表示制御部20dは、まず、方向指示器92がオンである(ドライバが進路変更の意思を示している)という表示条件を満足するか否かを判定する(ステップS19)。表示制御部20dは、信号受信部26が取得した方向指示器92からの信号に基づいて、この表示条件を判定する。   The display control unit 20d first determines whether or not the display condition that the direction indicator 92 is ON (the driver indicates the intention to change the course) is satisfied (step S19). The display control unit 20d determines this display condition based on the signal from the direction indicator 92 acquired by the signal receiving unit 26.

方向指示器92がオンの場合は(ステップS19にてYes)、表示制御部20dは、生成された左右2つの周辺画像SPのうち、方向指示器92が示す方向のサイドミラーに映る領域を示す周辺画像SPを選択する(ステップS22)。さらに、表示制御部20dは、左右2つのサブディスプレイ32,33のうち、方向指示器92が示す方向のサブディスプレイを選択する。そして、表示制御部20dは、画像出力部24を制御して、選択した周辺画像SPを、選択したサブディスプレイに出力させる(ステップS23)。これにより、方向指示器92が示す方向の周辺画像SPが、方向指示器92が示す方向のサブディスプレイに表示されることになる。   When the direction indicator 92 is on (Yes in step S19), the display control unit 20d indicates an area reflected on the side mirror in the direction indicated by the direction indicator 92, of the two generated left and right peripheral images SP. A peripheral image SP is selected (step S22). Further, the display control unit 20d selects a sub-display in the direction indicated by the direction indicator 92 from the two left and right sub-displays 32 and 33. Then, the display control unit 20d controls the image output unit 24 to output the selected peripheral image SP to the selected sub display (step S23). As a result, the peripheral image SP in the direction indicated by the direction indicator 92 is displayed on the sub-display in the direction indicated by the direction indicator 92.

例えば、方向指示器92が示す方向が「左」の場合は、左周辺画像SPが左サブディスプレイ32に表示される。また、方向指示器92が示す方向が「右」の場合は、右周辺画像SPが右サブディスプレイ33に表示される。   For example, when the direction indicated by the direction indicator 92 is “left”, the left peripheral image SP is displayed on the left sub-display 32. Further, when the direction indicated by the direction indicator 92 is “right”, the right peripheral image SP is displayed on the right sub-display 33.

このように方向指示器92がオンである場合に、方向指示器92が示す方向のサイドミラーに映る領域を示す周辺画像SPが表示される。このため、ドライバは、自車両9の車線変更を行う場合に、安全な自車両9と他車両8との位置関係を把握することができる。その結果、ドライバは、車線変更を行なって良いか否かの判断を適切に行うことができる。   In this way, when the direction indicator 92 is on, the peripheral image SP indicating the area reflected on the side mirror in the direction indicated by the direction indicator 92 is displayed. Therefore, the driver can grasp the safe positional relationship between the host vehicle 9 and the other vehicle 8 when changing the lane of the host vehicle 9. As a result, the driver can appropriately determine whether or not to change the lane.

また、表示制御部20dは、他車両8が自車両9に対して接近しているという表示条件を満足するか否かを判定する(ステップS20)。表示制御部20dは、自車両9に対する他車両8の相対速度V2の正負に基づいて、この表示条件を判定する。   The display control unit 20d determines whether or not the display condition that the other vehicle 8 is approaching the host vehicle 9 is satisfied (step S20). The display control unit 20d determines this display condition based on the sign of the relative speed V2 of the other vehicle 8 with respect to the host vehicle 9.

他車両8が自車両9に対して接近している場合は(ステップS20にてYes)、表示制御部20dは、生成された左右2つの周辺画像SPのうち、接近する他車両8が存在する方向のサイドミラーに映る領域を示す周辺画像SPを選択する(ステップS22)。さらに、表示制御部20dは、左右2つのサブディスプレイ32,33のうち、接近する他車両8が存在する方向のサブディスプレイを選択する。そして、表示制御部20dは、画像出力部24を制御して、選択した周辺画像SPを、選択したサブディスプレイに出力させる(ステップS23)。これにより、接近する他車両8が存在する方向の周辺画像SPが、接近する他車両8が存在する方向のサブディスプレイに表示されることになる。   When the other vehicle 8 is approaching the host vehicle 9 (Yes in step S20), the display control unit 20d includes the approaching other vehicle 8 among the generated two left and right peripheral images SP. A peripheral image SP indicating a region reflected in the direction side mirror is selected (step S22). Furthermore, the display control unit 20d selects a sub-display in the direction in which the approaching other vehicle 8 exists, from the left and right sub-displays 32 and 33. Then, the display control unit 20d controls the image output unit 24 to output the selected peripheral image SP to the selected sub display (step S23). As a result, the peripheral image SP in the direction in which the approaching other vehicle 8 exists is displayed on the sub-display in the direction in which the approaching other vehicle 8 exists.

例えば、接近する他車両8が存在する方向が「左側」の場合は、左周辺画像SPが左サブディスプレイ32に表示される。また、接近する他車両8が存在する方向が「右側」の場合は、右周辺画像SPが右サブディスプレイ33に表示される。   For example, when the direction in which the approaching other vehicle 8 exists is “left side”, the left peripheral image SP is displayed on the left sub-display 32. When the direction in which the approaching other vehicle 8 exists is “right side”, the right peripheral image SP is displayed on the right sub-display 33.

このように他車両8が自車両9に接近している場合に、他車両8が存在する方向のサイドミラーに映る領域を示す周辺画像SPが表示される。このため、ドライバは、自車両9に接近する他車両8が存在する場合において、接近する他車両8の存在を把握できるとともに、安全な自車両9と他車両8との位置関係を把握することができる。   As described above, when the other vehicle 8 is approaching the host vehicle 9, the peripheral image SP indicating the region shown in the side mirror in the direction in which the other vehicle 8 exists is displayed. For this reason, the driver can grasp the existence of the approaching other vehicle 8 and the safe positional relationship between the own vehicle 9 and the other vehicle 8 when the other vehicle 8 approaching the own vehicle 9 exists. Can do.

また、表示制御部20dは、操作ボタン4がドライバに操作されたという表示条件を満足するか否かを判定する(ステップS21)。表示制御部20dは、操作ボタン4からの信号に基づいて、この表示条件を判定する。   The display control unit 20d determines whether or not the display condition that the operation button 4 is operated by the driver is satisfied (step S21). The display control unit 20d determines this display condition based on the signal from the operation button 4.

操作ボタン4がドライバに操作された場合は(ステップS21にてYes)、表示制御部20dは、生成された左右2つの周辺画像SPのうち、操作された操作ボタン4が配置された方向のサイドミラーに映る領域を示す周辺画像SPを選択する(ステップS22)。さらに、表示制御部20dは、左右2つのサブディスプレイ32,33のうち、操作された操作ボタン4が配置された方向のサブディスプレイを選択する。そして、表示制御部20dは、画像出力部24を制御して、選択した周辺画像SPを、選択したサブディスプレイに出力させる(ステップS23)。これにより、操作された操作ボタン4が配置された方向の周辺画像SPが、操作された操作ボタン4が配置された方向のサブディスプレイに表示されることになる。   When the operation button 4 is operated by the driver (Yes in Step S21), the display control unit 20d displays the side in the direction in which the operated operation button 4 is arranged among the two generated left and right peripheral images SP. A peripheral image SP indicating a region reflected in the mirror is selected (step S22). Furthermore, the display control unit 20d selects a sub-display in the direction in which the operated operation button 4 is arranged, from the left and right sub-displays 32 and 33. Then, the display control unit 20d controls the image output unit 24 to output the selected peripheral image SP to the selected sub display (step S23). As a result, the peripheral image SP in the direction in which the operated operation button 4 is arranged is displayed on the sub-display in the direction in which the operated operation button 4 is arranged.

例えば、「左側」の操作ボタン4が操作された場合は、左周辺画像SPが左サブディスプレイ32に表示される。また、「右側」の操作ボタン4が操作された場合は、右周辺画像SPが右サブディスプレイ33に表示される。   For example, when the “left” operation button 4 is operated, the left peripheral image SP is displayed on the left sub-display 32. Further, when the “right” operation button 4 is operated, the right peripheral image SP is displayed on the right sub-display 33.

このように操作ボタン4がドライバに操作された場合に、他車両8が存在する方向のサイドミラーに映る領域を示す周辺画像SPが表示される。このため、ドライバは、所望のタイミングにおいて、安全な自車両9と他車両8との位置関係を把握することができる。   In this way, when the operation button 4 is operated by the driver, the peripheral image SP indicating the area reflected on the side mirror in the direction in which the other vehicle 8 exists is displayed. For this reason, the driver can grasp the positional relationship between the safe host vehicle 9 and the other vehicle 8 at a desired timing.

なお、ステップS19、S20、S21の各表示条件については、必ずしも全て有効とする必要はなく、いずれの表示条件を有効とするかをユーザが任意に選択できるようにしてもよい。例えば、ユーザは、他車両8が接近するごとに周辺画像SPが表示されるのがわずらわしいと感じる場合は、ステップS20の表示条件を無効とし、ステップS19及びステップS21の表示条件のみを有効とすることができる。   Note that the display conditions in steps S19, S20, and S21 do not necessarily need to be valid, and the user may arbitrarily select which display condition is valid. For example, when the user feels that it is troublesome to display the surrounding image SP each time the other vehicle 8 approaches, the display condition of step S20 is invalidated and only the display condition of step S19 and step S21 is valid. be able to.

以上のように、画像処理装置2においては、画像取得部21が自車両9に搭載されたカメラ5の撮影画像を取得し、画像生成部22が撮影画像に基づいて自車両9のサイドミラーに映る領域を含む自車両9の周辺領域を示す周辺画像SPを生成する。また、相対速度導出部20bが自車両9の後方を走行する他車両8の自車両9に対する相対速度V2を導出し、ガイド線設定部20cが相対速度V2に基づいて指定距離Dを決定し、情報重畳部23が自車両9から後方に指定距離Dの位置を示す変動ガイド線L1を周辺画像SPに重畳する。そして、画像出力部24が変動ガイド線L1が重畳された周辺画像SPを表示装置3に出力して表示装置3に表示させる。このため、自車両9のドライバは、表示された周辺画像SPに基づいて、他車両8の相対速度V2に応じて安全な自車両9と他車両8との位置関係を把握できるため、車線変更の判断を適切に行うことができる。   As described above, in the image processing apparatus 2, the image acquisition unit 21 acquires a captured image of the camera 5 mounted on the host vehicle 9, and the image generation unit 22 uses the captured image as a side mirror of the host vehicle 9. A peripheral image SP indicating a peripheral region of the host vehicle 9 including the region to be reflected is generated. Further, the relative speed deriving unit 20b derives the relative speed V2 of the other vehicle 8 traveling behind the own vehicle 9 with respect to the own vehicle 9, and the guide line setting unit 20c determines the designated distance D based on the relative speed V2, The information superimposing unit 23 superimposes the fluctuation guide line L1 indicating the position of the designated distance D behind the host vehicle 9 on the peripheral image SP. Then, the image output unit 24 outputs the peripheral image SP on which the variation guide line L1 is superimposed to the display device 3 and causes the display device 3 to display it. For this reason, since the driver of the own vehicle 9 can grasp the safe positional relationship between the own vehicle 9 and the other vehicle 8 according to the relative speed V2 of the other vehicle 8 based on the displayed peripheral image SP, the lane change is performed. Can be made appropriately.

また、画像処理装置2においては、信号受信部26が自車両9の走行速度V1を取得し、ガイド線設定部20cが走行速度V1及び相対速度V2に基づいて指定距離Dを決定する。したがって、走行速度V1と相対速度V2とに応じた指定距離Dの位置を示す変動ガイド線L1が周辺画像SPに重畳される。このため、ドライバは、走行速度V1及び相対速度V2に応じて安全な自車両と他車両との位置関係を把握できるため、車線変更の判断を適切に行うことができる。   In the image processing device 2, the signal receiving unit 26 acquires the traveling speed V1 of the host vehicle 9, and the guide line setting unit 20c determines the designated distance D based on the traveling speed V1 and the relative speed V2. Therefore, the fluctuation guide line L1 indicating the position of the designated distance D according to the traveling speed V1 and the relative speed V2 is superimposed on the peripheral image SP. For this reason, the driver can grasp the safe positional relationship between the host vehicle and the other vehicle according to the traveling speed V1 and the relative speed V2, and therefore can appropriately determine the lane change.

また、ガイド線設定部20cは、他車両8が接近する場合には、自車両9に対する他車両8の相対速度V2が大きいほど指定距離Dを大きくする。このため、ドライバは相対速度V2の大きさを直感的に把握でき、運転における安全性を向上できる。   In addition, when the other vehicle 8 approaches, the guide line setting unit 20c increases the specified distance D as the relative speed V2 of the other vehicle 8 with respect to the host vehicle 9 increases. For this reason, the driver can intuitively grasp the magnitude of the relative speed V2, and can improve the safety in driving.

また、ガイド線設定部20cは、相対速度V2に応じて変動ガイド線L1の態様を変更する。このため、ドライバは、相対速度V2の大きさ、すなわち、車線変更を行った場合の危険度を直感的に把握でき、運転における安全性を向上できる。   Further, the guide line setting unit 20c changes the aspect of the fluctuation guide line L1 according to the relative speed V2. For this reason, the driver can intuitively grasp the magnitude of the relative speed V2, that is, the degree of danger when the lane is changed, and can improve the safety in driving.

<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の画像表示システム10の構成や処理は第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。第1の実施の形態においては、走行速度V1及び相対速度V2に基づいて位置が変動する変動ガイド線は一つだけであったが、複数であってもよい。第2の実施の形態では、図14に示すように、2つの変動ガイド線L1,L2が周辺画像SPに重畳される。
<2. Second Embodiment>
Next, a second embodiment will be described. Since the configuration and processing of the image display system 10 of the second embodiment are substantially the same as those of the first embodiment, the following description will be focused on differences from the first embodiment. In the first embodiment, there is only one variation guide line whose position varies based on the traveling speed V1 and the relative speed V2, but a plurality of variation guide lines may be used. In the second embodiment, as shown in FIG. 14, two fluctuation guide lines L1, L2 are superimposed on the peripheral image SP.

第2の実施の形態のガイド線設定部20cは、走行速度V1及び相対速度V2に基づいて2つの指定距離D1,D2を決定する。一方の第1指定距離D1は、例えば、上述した式(1)と同様の次の式(2)で決定される。   The guide line setting unit 20c of the second embodiment determines two specified distances D1 and D2 based on the traveling speed V1 and the relative speed V2. One first designated distance D1 is determined by, for example, the following equation (2) similar to equation (1) described above.

D1 = V1/2 + V2×0.75 …(2)
また、他方の第2指定距離D2は、例えば、次の式(3)で決定される。
D1 = V1 / 2 + V2 × 0.75 (2)
The other second designated distance D2 is determined by the following equation (3), for example.

D2= D1 + 10 …(3)
したがって、第2指定距離D2は、第1指定距離D1よりもさらに安全度の高い距離となる。ガイド線設定部20cは、このように決定した2つの指定距離D1,D2それぞれに基づいて、2つの変動ガイド線L1,L2の位置を設定する。そして、情報重畳部23が、固定ガイド線L0とともに、これら2つの変動ガイド線L1,L2を周辺画像SPに重畳する。周辺画像SPにおいて、第1変動ガイド線L1は自車両9の後端から後方に第1指定距離D1の位置を示し、第2変動ガイド線L2は自車両9の後端から後方に第2指定距離D2の位置を示すことになる。
D2 = D1 + 10 (3)
Therefore, the second designated distance D2 is a distance with a higher degree of safety than the first designated distance D1. The guide line setting unit 20c sets the positions of the two variable guide lines L1 and L2 based on the two specified distances D1 and D2 determined as described above. Then, the information superimposing unit 23 superimposes these two variation guide lines L1 and L2 on the peripheral image SP together with the fixed guide line L0. In the surrounding image SP, the first variation guide line L1 indicates the position of the first designated distance D1 from the rear end of the host vehicle 9, and the second variation guide line L2 is second designated from the rear end of the host vehicle 9 to the rear. This indicates the position of the distance D2.

図14は、走行速度V1が40(km/h)、相対速度V2が20(km/h)の場合における周辺画像SPを示している。この図14の場合は、第1指定距離D1は35(m)となり、第2指定距離D2は45(m)となる。このため、周辺画像SPには、自車両9の後端から後方に35(m)の位置を示す第1変動ガイド線L1と、45(m)の位置を示す第2変動ガイド線L2とが含まれている。   FIG. 14 shows a peripheral image SP when the traveling speed V1 is 40 (km / h) and the relative speed V2 is 20 (km / h). In the case of FIG. 14, the first designated distance D1 is 35 (m), and the second designated distance D2 is 45 (m). For this reason, the surrounding image SP includes a first variation guide line L1 indicating the position of 35 (m) rearward from the rear end of the host vehicle 9, and a second variation guide line L2 indicating the position of 45 (m). include.

このように、第2の実施の形態においては、ガイド線設定部20cが走行速度V1及び相対速度V2に基づいて2つの指定距離D1,D2を決定し、情報重畳部23が2つの指定距離D1,D2それぞれの位置を示す変動ガイド線L1,L2を周辺画像SPに重畳する。このため、ドライバは、より安全な自車両9と他車両8との位置関係を把握できるため、運転における安全性をさらに向上できる。なお、本実施の形態では、2つの変動ガイド線L1,L2を周辺画像SPに重畳するものとしたが、3本以上の変動ガイド線L1,L2を重畳してもよい。   Thus, in the second embodiment, the guide line setting unit 20c determines the two specified distances D1 and D2 based on the traveling speed V1 and the relative speed V2, and the information superimposing unit 23 sets the two specified distances D1. , D2 are respectively superimposed on the surrounding image SP. For this reason, since the driver can grasp the safer positional relationship between the host vehicle 9 and the other vehicle 8, the driving safety can be further improved. In this embodiment, two fluctuation guide lines L1 and L2 are superimposed on the peripheral image SP, but three or more fluctuation guide lines L1 and L2 may be superimposed.

<3.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<3. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.

上記実施の形態の周辺画像SPは、サイドミラーに映る領域Maの外部領域も示していたが、図15に示すように、サイドミラーに映る領域Maのみを示すようにしてもよい。このようにすれば、周辺画像SPに含まれる被写体の像を大きくできるとともに、周辺画像SPをサイドミラーと同一感覚で確認することができる。   The peripheral image SP of the above embodiment also shows the external area of the area Ma reflected on the side mirror, but as shown in FIG. 15, only the area Ma reflected on the side mirror may be shown. In this way, the image of the subject included in the peripheral image SP can be enlarged, and the peripheral image SP can be confirmed in the same sense as the side mirror.

また、上記実施の形態においては、左サイドミラー93Lに映る領域を示す左周辺画像と、右サイドミラー93Rに映る領域を示す右周辺画像とを異なる表示装置3に表示していたが、例えばメインディスプレイ31などの一つの表示装置3に表示してもよい。図16は、メインディスプレイ31の画面に、左右の周辺画像SPL,SPRの双方を表示した様子を示す図である。このような場合、図に示すように、左周辺画像SPLは画面の左側、右周辺画像SPRは画面の右側に表示することが望ましい。   Further, in the above embodiment, the left peripheral image indicating the area reflected on the left side mirror 93L and the right peripheral image indicating the area reflected on the right side mirror 93R are displayed on different display devices 3, but for example, the main You may display on one display apparatuses 3, such as the display 31. FIG. FIG. 16 is a diagram illustrating a state in which both the left and right peripheral images SPL and SPR are displayed on the screen of the main display 31. In such a case, as shown in the figure, it is desirable to display the left peripheral image SPL on the left side of the screen and the right peripheral image SPR on the right side of the screen.

また、上記実施の形態では、相対速度V2に基づいて変更する変動ガイド線の態様として色及び太さが変更されていたが、他の態様を変更するようにしてもよい。例えば、変動ガイド線の種類(実線、破線、及び、一点鎖線等)を変更してもよい。また、相対速度V2が比較的大きい場合は、変動ガイド線を点滅させてもよい。   Moreover, in the said embodiment, although the color and thickness were changed as the aspect of the fluctuation | variation guide line changed based on relative speed V2, you may make it change another aspect. For example, the type of the variation guide line (a solid line, a broken line, a one-dot chain line, or the like) may be changed. Further, when the relative speed V2 is relatively large, the fluctuation guide line may be blinked.

また、上記実施の形態においては相対速度V2と閾値との関係に応じて変動ガイド線の態様を変更していたが、相対速度V2の大きさに応じて変動ガイド線の態様を変更してもよい。例えば、相対速度V2の大きさが大きいほど、変動ガイド線の太さを太くするようにしてもよい。   In the above-described embodiment, the mode of the fluctuation guide line is changed according to the relationship between the relative speed V2 and the threshold value. However, even if the mode of the fluctuation guide line is changed according to the magnitude of the relative speed V2. Good. For example, the thickness of the variation guide line may be increased as the relative speed V2 is increased.

また、上記実施の形態では、自車両9に対して他車両8が接近している場合は正(+)の値の相対速度V2を導出していたが、逆に、他車両8が接近している場合に負(−)の値の相対速度V2を導出してもよい。この場合は、上記における「相対速度V2の大きさ」に関する説明を、「相対速度V2の絶対値の大きさ」として読み替えればよい。   In the above embodiment, when the other vehicle 8 is approaching the host vehicle 9, the positive (+) relative speed V <b> 2 is derived, but conversely, the other vehicle 8 approaches. In this case, a negative (−) relative speed V2 may be derived. In this case, the description regarding “the magnitude of the relative speed V2” may be read as “the magnitude of the absolute value of the relative speed V2”.

また、上記実施の形態では、変動ガイド線L1が示す指定距離Dの文字情報をその変動ガイド線L1の端部近傍に示していたが、枠Mfの外部に示すようにしてもよい。このようにすることで、サイドミラーに映る領域に存在する被写体の像に文字情報が重なることを防止できる。   In the above embodiment, the character information of the designated distance D indicated by the fluctuation guide line L1 is shown near the end of the fluctuation guide line L1, but may be shown outside the frame Mf. By doing in this way, it can prevent that character information overlaps with the image of the subject existing in the area reflected on the side mirror.

また、上記実施の形態では、合成画像を生成する機能によりサイドミラーに映る領域を示す周辺画像を生成していた。これに対して、サイドカメラ5L,5Rで得られた撮影画像のみに基づいて周辺画像を生成するようにしてもよい。この場合は、例えば、撮影画像における自車両9の後方となる領域を切り出し、被写体の像の歪みを補正することで周辺画像を生成することができる。また、光軸を自車両9の後方に向けて設置したサイドカメラの撮影画像の中央領域を切り出して、周辺画像を生成してもよい。   Further, in the above embodiment, the peripheral image indicating the region shown in the side mirror is generated by the function of generating the composite image. On the other hand, the peripheral image may be generated based only on the captured image obtained by the side cameras 5L and 5R. In this case, for example, a peripheral image can be generated by cutting out a region behind the host vehicle 9 in the captured image and correcting the distortion of the subject image. Alternatively, a peripheral image may be generated by cutting out a central region of a captured image of a side camera installed with the optical axis directed toward the rear of the host vehicle 9.

また、上記実施の形態では、他車両8の自車両9に対する相対速度V2を撮影画像に基づいて導出していたが、他の手法によって導出してもよい。例えば、自車両9の後端に他車両8を検出するレーダを設置し、レーダが検出する信号に基づいて他車両8の相対距離を求め、この相対距離に基づいて相対速度V2を導出してもよい。また、リアカメラ5Bとサイドカメラ5L,5Rの一方とをステレオカメラとして用いて他車両8の相対距離を求め、この相対距離に基づいて相対速度V2を導出してもよい。   Moreover, in the said embodiment, although the relative speed V2 with respect to the own vehicle 9 of the other vehicle 8 was derived | led-out based on the picked-up image, you may derive | lead-out by another method. For example, the radar which detects the other vehicle 8 is installed in the rear end of the own vehicle 9, the relative distance of the other vehicle 8 is calculated | required based on the signal which a radar detects, and relative speed V2 is derived | led-out based on this relative distance. Also good. Alternatively, the rear camera 5B and one of the side cameras 5L and 5R may be used as a stereo camera to determine the relative distance of the other vehicle 8, and the relative speed V2 may be derived based on this relative distance.

また、上記実施の形態では、自車両9から後方に指定距離の位置を示すガイド指標はガイド線であったが、水平方向に連続して配置した記号など他の指標であってもよい。   Moreover, in the said embodiment, although the guide parameter | index which shows the position of designation | designated distance back from the own vehicle 9 was a guide line, other indicators, such as the symbol continuously arranged in the horizontal direction, may be sufficient.

また、上記実施の形態の式(1)〜(3)の具体的数値は一例であり、自車両9の性能やドライバのスキル等に応じて他の数値を用いてよい。   Moreover, the specific numerical values of the formulas (1) to (3) in the above embodiment are merely examples, and other numerical values may be used according to the performance of the host vehicle 9, the skill of the driver, and the like.

また、上記実施の形態においては、走行速度V1が一定の場合には、指定距離Dは相対速度V2に関して線形的に変化していたが、非線形に変化してもよい。   In the above embodiment, when the traveling speed V1 is constant, the designated distance D changes linearly with respect to the relative speed V2, but may change nonlinearly.

また、上記実施の形態では、オプティカルフロー方式を用いて他車両8を検出すると説明したが、フレーム間差分法やテンプレートマッチングなど他の手法を用いて他車両8を検出してもよい。   Moreover, although the said embodiment demonstrated that the other vehicle 8 was detected using an optical flow system, you may detect the other vehicle 8 using other methods, such as a frame difference method and a template matching.

また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。   Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good. Conversely, some of the functions realized by the hardware circuit may be realized by software.

10 画像表示システム
2 画像処理装置
3 表示装置
4 操作ボタン
5 カメラ
8 他車両
9 自車両
20b 相対速度導出部
20c ガイド線設定部
23 情報重畳部
DESCRIPTION OF SYMBOLS 10 Image display system 2 Image processing apparatus 3 Display apparatus 4 Operation button 5 Camera 8 Other vehicle 9 Own vehicle 20b Relative speed deriving part 20c Guide line setting part 23 Information superimposition part

Claims (11)

画像を処理する画像処理装置であって、
自車両に搭載されたカメラの撮影画像を取得する画像取得手段と、
前記撮影画像に基づいて、前記自車両のサイドミラーに映る領域を含む前記自車両の周辺領域を示す周辺画像を生成する生成手段と、
前記自車両の後方を走行する他車両の前記自車両に対する相対速度を導出する導出手段と、
前記相対速度に基づいて指定距離を決定する決定手段と、
前記自車両から後方に前記指定距離の位置を示すガイド指標を前記周辺画像に重畳する重畳手段と、
前記ガイド指標が重畳された前記周辺画像を表示装置に出力して前記表示装置に表示させる出力手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for processing an image,
Image acquisition means for acquiring a captured image of a camera mounted on the host vehicle;
Generating means for generating a peripheral image indicating a peripheral region of the host vehicle including a region reflected in a side mirror of the host vehicle based on the captured image;
Derivation means for deriving a relative speed of the other vehicle traveling behind the host vehicle with respect to the host vehicle;
Determining means for determining a specified distance based on the relative speed;
Superimposing means for superimposing a guide index indicating the position of the specified distance behind the host vehicle on the peripheral image;
Output means for outputting the peripheral image on which the guide index is superimposed to a display device to display on the display device;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記自車両の走行速度を取得する速度取得手段、
をさらに備え、
前記決定手段は、前記走行速度と前記相対速度とに基づいて前記指定距離を決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
Speed acquisition means for acquiring the traveling speed of the host vehicle;
Further comprising
The image processing apparatus according to claim 1, wherein the determining unit determines the designated distance based on the traveling speed and the relative speed.
請求項1または2に記載の画像処理装置において、
前記決定手段は、前記相対速度が大きいほど前記指定距離を大きくすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The determination means increases the specified distance as the relative speed increases.
請求項1ないし3のいずれかに記載の画像処理装置において、
前記相対速度に応じて、前記ガイド指標の態様を変更する変更手段、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
Changing means for changing the mode of the guide index according to the relative speed,
An image processing apparatus further comprising:
請求項1ないし4のいずれかに記載の画像処理装置において、
前記決定手段は、前記相対速度に基づいて複数の前記指定距離を決定し、
前記重畳手段は、前記自車両から後方に前記複数の指定距離それぞれの位置を示す複数の前記ガイド指標を前記周辺画像に重畳することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The determining means determines a plurality of the designated distances based on the relative speed,
The image processing apparatus, wherein the superimposing unit superimposes a plurality of the guide indexes indicating positions of the plurality of designated distances behind the host vehicle on the peripheral image.
請求項1ないし5のいずれかに記載の画像処理装置において、
前記自車両の方向指示器が示す方向を取得する方向取得手段、
をさらに備え、
前記出力手段は、前記方向指示器が方向を示す場合に、該方向指示器が示す方向の前記サイドミラーに映る領域を示す前記周辺画像を、前記表示装置に出力することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5,
Direction acquisition means for acquiring the direction indicated by the direction indicator of the host vehicle;
Further comprising
The output means outputs, when the direction indicator indicates a direction, the peripheral image indicating an area reflected on the side mirror in the direction indicated by the direction indicator to the display device. apparatus.
請求項1ないし5のいずれかに記載の画像処理装置において、
前記出力手段は、前記他車両が前記自車両に対して接近している場合に、該他車両が存在する方向の前記サイドミラーに映る領域を示す前記周辺画像を、前記表示装置に出力することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5,
The output means outputs, when the other vehicle is approaching the host vehicle, the peripheral image showing an area reflected on the side mirror in a direction in which the other vehicle exists, to the display device. An image processing apparatus.
画像を処理する画像処理装置であって、
自車両に搭載されたカメラの撮影画像を取得する画像取得手段と、
前記撮影画像に基づいて、前記自車両のサイドミラーに映る領域を含む前記自車両の周辺領域を示す周辺画像を生成する生成手段と、
前記自車両の走行速度を取得する速度取得手段と、
前記走行速度に基づいて指定距離を決定する決定手段と、
前記自車両から後方に前記指定距離の位置を示すガイド指標を前記周辺画像に重畳する重畳手段と、
前記ガイド指標が重畳された前記周辺画像を表示装置に出力して前記表示装置に表示させる出力手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for processing an image,
Image acquisition means for acquiring a captured image of a camera mounted on the host vehicle;
Generating means for generating a peripheral image indicating a peripheral region of the host vehicle including a region reflected in a side mirror of the host vehicle based on the captured image;
Speed acquisition means for acquiring the traveling speed of the host vehicle;
Determining means for determining a specified distance based on the traveling speed;
Superimposing means for superimposing a guide index indicating the position of the specified distance behind the host vehicle on the peripheral image;
Output means for outputting the peripheral image on which the guide index is superimposed to a display device to display on the display device;
An image processing apparatus comprising:
画像表示システムであって、
請求項1ないし8のいずれかに記載の画像処理装置と、
前記画像処理装置から出力された前記周辺画像を表示する表示装置と、
を備えることを特徴とする画像表示システム。
An image display system,
An image processing apparatus according to any one of claims 1 to 8,
A display device for displaying the peripheral image output from the image processing device;
An image display system comprising:
画像を処理する画像処理方法であって、
(a)自車両に搭載されたカメラの撮影画像を取得する工程と、
(b)前記撮影画像に基づいて、前記自車両のサイドミラーに映る領域を含む前記自車両の周辺領域を示す周辺画像を生成する工程と、
(c)前記自車両の後方を走行する他車両の前記自車両に対する相対速度を導出する工程と、
(d)前記相対速度に基づいて指定距離を決定する工程と、
(e)前記自車両から後方に前記指定距離の位置を示すガイド指標を前記周辺画像に重畳する工程と、
(f)前記ガイド指標が重畳された前記周辺画像を表示する工程と、
を備えることを特徴とする画像処理方法。
An image processing method for processing an image,
(A) acquiring a photographed image of a camera mounted on the host vehicle;
(B) generating a peripheral image indicating a peripheral region of the host vehicle including a region reflected in a side mirror of the host vehicle based on the captured image;
(C) deriving a relative speed of another vehicle traveling behind the host vehicle with respect to the host vehicle;
(D) determining a designated distance based on the relative speed;
(E) superimposing a guide index indicating the position of the specified distance behind the host vehicle on the peripheral image;
(F) displaying the peripheral image on which the guide index is superimposed;
An image processing method comprising:
画像を処理する画像処理方法であって、
(a)自車両に搭載されたカメラの撮影画像を取得する工程と、
(b)前記撮影画像に基づいて、前記自車両のサイドミラーに映る領域を含む前記自車両の周辺領域を示す周辺画像を生成する工程と、
(c)前記自車両の前記自車両の走行速度を取得する工程と、
(d)前記走行速度に基づいて指定距離を決定する工程と、
(e)前記自車両から後方に前記指定距離の位置を示すガイド指標を前記周辺画像に重畳する工程と、
(f)前記ガイド指標が重畳された前記周辺画像を表示する工程と、
を備えることを特徴とする画像処理方法。
An image processing method for processing an image,
(A) acquiring a photographed image of a camera mounted on the host vehicle;
(B) generating a peripheral image indicating a peripheral region of the host vehicle including a region reflected in a side mirror of the host vehicle based on the captured image;
(C) obtaining a travel speed of the host vehicle of the host vehicle;
(D) determining a designated distance based on the travel speed;
(E) superimposing a guide index indicating the position of the specified distance behind the host vehicle on the peripheral image;
(F) displaying the peripheral image on which the guide index is superimposed;
An image processing method comprising:
JP2012031628A 2012-02-16 2012-02-16 Image processing device, image display system, and image processing method Pending JP2013168063A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012031628A JP2013168063A (en) 2012-02-16 2012-02-16 Image processing device, image display system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012031628A JP2013168063A (en) 2012-02-16 2012-02-16 Image processing device, image display system, and image processing method

Publications (1)

Publication Number Publication Date
JP2013168063A true JP2013168063A (en) 2013-08-29

Family

ID=49178406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012031628A Pending JP2013168063A (en) 2012-02-16 2012-02-16 Image processing device, image display system, and image processing method

Country Status (1)

Country Link
JP (1) JP2013168063A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015140068A (en) * 2014-01-28 2015-08-03 アイシン・エィ・ダブリュ株式会社 Rearview mirror angle setting system, rearview mirror angle setting method, and rearview mirror angle setting program
JP2015172876A (en) * 2014-03-12 2015-10-01 株式会社デンソーアイティーラボラトリ Vehicle periphery monitoring device, vehicle periphery monitoring system, and program
WO2016059765A1 (en) * 2014-10-14 2016-04-21 株式会社デンソー Video processing device and in-vehicle video processing system
JP2016057490A (en) * 2014-09-10 2016-04-21 スズキ株式会社 Driving support system
WO2016084149A1 (en) * 2014-11-26 2016-06-02 三菱電機株式会社 Driving support device and driving support method
WO2016088151A1 (en) * 2014-12-01 2016-06-09 日産自動車株式会社 Vehicle-mounted display device, vehicle, and display method
JP2016172526A (en) * 2015-03-18 2016-09-29 マツダ株式会社 Display device for vehicle
JP2017016200A (en) * 2015-06-26 2017-01-19 富士通テン株式会社 Image processing apparatus, image display system, and image processing method
CN107891811A (en) * 2016-10-04 2018-04-10 法可镜子股份公司 Vehicle drive assist system
WO2018155280A1 (en) * 2017-02-24 2018-08-30 京セラ株式会社 Surroundings monitoring system
JP2018169667A (en) * 2017-03-29 2018-11-01 株式会社デンソー Driving information recording system, driving information recording method, and program
US10173593B2 (en) 2016-10-06 2019-01-08 Hyundai Motor Company Lane display device using outside mirror and method thereof
CN115811652A (en) * 2021-09-14 2023-03-17 本田技研工业株式会社 Image acquisition device, image acquisition system, image acquisition method, and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11283198A (en) * 1998-03-31 1999-10-15 Mazda Motor Corp Traveling environment reporting device for vehicle
JP2004326576A (en) * 2003-04-25 2004-11-18 Nissan Motor Co Ltd Operation supporting device
JP2005125835A (en) * 2003-10-21 2005-05-19 Nippon Seiki Co Ltd Monitoring device for vehicle
JP2007334566A (en) * 2006-06-14 2007-12-27 Honda Motor Co Ltd Driving support device
JP2008123215A (en) * 2006-11-10 2008-05-29 Aisin Seiki Co Ltd Driving support device, method and program
JP2009075988A (en) * 2007-09-24 2009-04-09 Denso Corp Vehicle periphery monitoring device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11283198A (en) * 1998-03-31 1999-10-15 Mazda Motor Corp Traveling environment reporting device for vehicle
JP2004326576A (en) * 2003-04-25 2004-11-18 Nissan Motor Co Ltd Operation supporting device
JP2005125835A (en) * 2003-10-21 2005-05-19 Nippon Seiki Co Ltd Monitoring device for vehicle
JP2007334566A (en) * 2006-06-14 2007-12-27 Honda Motor Co Ltd Driving support device
JP2008123215A (en) * 2006-11-10 2008-05-29 Aisin Seiki Co Ltd Driving support device, method and program
JP2009075988A (en) * 2007-09-24 2009-04-09 Denso Corp Vehicle periphery monitoring device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105793111A (en) * 2014-01-28 2016-07-20 爱信艾达株式会社 Rearview mirror angle setting system, method, and program
WO2015115185A1 (en) * 2014-01-28 2015-08-06 アイシン・エィ・ダブリュ株式会社 Rearview mirror angle setting system, method, and program
US10059267B2 (en) 2014-01-28 2018-08-28 Aisin Aw Co., Ltd. Rearview mirror angle setting system, method, and program
JP2015140068A (en) * 2014-01-28 2015-08-03 アイシン・エィ・ダブリュ株式会社 Rearview mirror angle setting system, rearview mirror angle setting method, and rearview mirror angle setting program
JP2015172876A (en) * 2014-03-12 2015-10-01 株式会社デンソーアイティーラボラトリ Vehicle periphery monitoring device, vehicle periphery monitoring system, and program
JP2016057490A (en) * 2014-09-10 2016-04-21 スズキ株式会社 Driving support system
JP2016082329A (en) * 2014-10-14 2016-05-16 株式会社デンソー Video processing apparatus, and on-vehicle video processing system
WO2016059765A1 (en) * 2014-10-14 2016-04-21 株式会社デンソー Video processing device and in-vehicle video processing system
US9965957B2 (en) 2014-11-26 2018-05-08 Mitsubishi Electric Corporation Driving support apparatus and driving support method
WO2016084149A1 (en) * 2014-11-26 2016-06-02 三菱電機株式会社 Driving support device and driving support method
JPWO2016084149A1 (en) * 2014-11-26 2017-04-27 三菱電機株式会社 Driving support device and driving support method
WO2016088151A1 (en) * 2014-12-01 2016-06-09 日産自動車株式会社 Vehicle-mounted display device, vehicle, and display method
JP2016172526A (en) * 2015-03-18 2016-09-29 マツダ株式会社 Display device for vehicle
JP2017016200A (en) * 2015-06-26 2017-01-19 富士通テン株式会社 Image processing apparatus, image display system, and image processing method
JP2018061253A (en) * 2016-10-04 2018-04-12 フィコミロース, エセ. ア. ウ.Ficomirrors, S.A.U. Vehicle operation support system
CN107891811A (en) * 2016-10-04 2018-04-10 法可镜子股份公司 Vehicle drive assist system
US10173593B2 (en) 2016-10-06 2019-01-08 Hyundai Motor Company Lane display device using outside mirror and method thereof
WO2018155280A1 (en) * 2017-02-24 2018-08-30 京セラ株式会社 Surroundings monitoring system
JP2018169667A (en) * 2017-03-29 2018-11-01 株式会社デンソー Driving information recording system, driving information recording method, and program
CN115811652A (en) * 2021-09-14 2023-03-17 本田技研工业株式会社 Image acquisition device, image acquisition system, image acquisition method, and storage medium

Similar Documents

Publication Publication Date Title
JP2013168063A (en) Image processing device, image display system, and image processing method
JP6014442B2 (en) Image generation apparatus, image display system, and image generation method
US10183621B2 (en) Vehicular image processing apparatus and vehicular image processing system
US8514282B2 (en) Vehicle periphery display device and method for vehicle periphery image
US8559675B2 (en) Driving support device, driving support method, and program
WO2016002163A1 (en) Image display device and image display method
US10166922B2 (en) On-vehicle image display device, on-vehicle image display method for vehicle, and on-vehicle image setting device
JP6548900B2 (en) Image generation apparatus, image generation method and program
JP5874920B2 (en) Monitoring device for vehicle surroundings
KR20190047027A (en) How to provide a rearview mirror view of the vehicle&#39;s surroundings in the vehicle
US10609337B2 (en) Image processing apparatus
JP6736268B2 (en) Image processing apparatus, image display system, and image processing method
CN105793909B (en) The method and apparatus for generating warning for two images acquired by video camera by vehicle-periphery
JP6084048B2 (en) Object detection apparatus, object detection system, and object detection method
JP2008213647A (en) Parking assist method and parking assist system
JP2019102936A (en) Display device, electronic mirror, control method of display device, and display control program
US20190166358A1 (en) Display device, electronic mirror and method for controlling display device
JP2015088942A (en) Image display system, image display method, and program
JP2017154613A (en) Display device for vehicle
JP6178580B2 (en) Object detection apparatus, object detection system, and object detection method
JP2013132976A (en) Obstacle alarm device
JP5704416B2 (en) Obstacle alarm device
JP2015009676A (en) Information provision device and information provision method
JP2013211035A (en) Vehicle periphery display device
JP2013131177A (en) Obstacle alarm device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150909

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160216