JP2010173342A - Information providing device and information providing method - Google Patents

Information providing device and information providing method Download PDF

Info

Publication number
JP2010173342A
JP2010173342A JP2009015102A JP2009015102A JP2010173342A JP 2010173342 A JP2010173342 A JP 2010173342A JP 2009015102 A JP2009015102 A JP 2009015102A JP 2009015102 A JP2009015102 A JP 2009015102A JP 2010173342 A JP2010173342 A JP 2010173342A
Authority
JP
Japan
Prior art keywords
robot
sensor
information
vehicle
detection range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009015102A
Other languages
Japanese (ja)
Inventor
Hideaki Hoizumi
秀明 保泉
Masao Yamane
雅夫 山根
Hiromasa Sakai
宏征 堺
Takeshi Mitamura
健 三田村
Katsumi Ota
克己 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2009015102A priority Critical patent/JP2010173342A/en
Publication of JP2010173342A publication Critical patent/JP2010173342A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a user precisely understand contents of information when the information is transmitted by the action of a robot. <P>SOLUTION: This information providing device comprises: the robot 100 for providing information to an occupant of a vehicle; a sensor 300 for detecting a change of a status around a display body vehicle; an information creation function which creates notification information for notifying a user of a change of the status when the change of the status of the sensor 300 is detected; and a control device 200 for executing the information creation function for controlling the function of the action of the robot 100 which provides the occupant of the vehicle with the created notification information. When the control device makes the robot 100 provide the notification information, the control device 200 specifies a sensor which detects the status change causing the creation of the notification information as an objective sensor so as to make the robot 100 execute action for indicating a predetermined direction according to a detection range of the specified objective sensor. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ロボット等の表示体を用いて、車両の乗員に情報を提供する情報提供装置及び情報提供方法に関する。   The present invention relates to an information providing apparatus and an information providing method for providing information to a vehicle occupant using a display body such as a robot.

報知用立体物を車内に配置し、その身振り等の動作によって情報を乗員に報知するものが知られている(特許文献1参照)。 There is known a system in which a notification three-dimensional object is arranged in a vehicle and information is notified to an occupant by an operation such as gesture (see Patent Document 1).

特開2002−104103号公報JP 2002-104103 A

しかしながら、報知用立体物の動作によって情報を伝達する際に、情報の内容をユーザに正確に伝達できない場合があるという問題があった。   However, when information is transmitted by the operation of the notification three-dimensional object, there is a problem that the content of the information may not be accurately transmitted to the user.

本発明は、車両に搭載された表示体に、車両周囲の状況の変化が検出された対象センサーの検出範囲に応じた所定の方向を指し示す動作を実行させることにより上記課題を解決する。 The present invention solves the above problem by causing a display mounted on a vehicle to execute an operation indicating a predetermined direction according to a detection range of a target sensor in which a change in the situation around the vehicle is detected.

本発明によれば、車両周囲の状況の変化に係る物体の所在方向を指し示す動作を実行させるよりも、表示体の動作量を大きくすることができるので、情報の内容をユーザに正確に伝達することができる。 According to the present invention, it is possible to increase the amount of movement of the display body rather than executing the movement indicating the location direction of the object related to the change in the situation around the vehicle, so that the content of information is accurately transmitted to the user. be able to.

本実施形態の情報提供装置の構成の概要を示す図である。It is a figure which shows the outline | summary of a structure of the information provision apparatus of this embodiment. 本実施形態の情報提供装置の設置例を示す図である。It is a figure which shows the example of installation of the information provision apparatus of this embodiment. 本実施形態の情報提供装置の設置例を示す他の図である。It is another figure which shows the example of installation of the information provision apparatus of this embodiment. 図4(A)及び(B)は、車両に搭載するロボット100の一例を示す図である。4A and 4B are diagrams illustrating an example of the robot 100 mounted on the vehicle. 車両に搭載されるセンサーの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the sensor mounted in a vehicle. 車両に搭載されたロボット100とソナー1〜7との位置関係、及びソナー1〜7の検出範囲を示す図である。It is a figure which shows the positional relationship of the robot 100 mounted in the vehicle, and the sonars 1-7, and the detection range of the sonars 1-7. ロボット100が行う動作であって、対象センサーの検出範囲に応じた所定の方向を指し示す動作を説明するための第1の図である。It is the 1st figure for explaining operation which robot 100 performs, and points out the predetermined direction according to the detection range of a target sensor. ロボット100が行う動作であって、対象センサーの検出範囲に応じた所定の方向を指し示す動作を説明するための第2の図である。It is the 2nd figure for explaining operation which robot 100 performs, and points out a predetermined direction according to the detection range of an object sensor. ロボット100が行う動作であって、対象センサーの検出範囲に応じた所定の方向を指し示す動作を説明するための第3の図である。FIG. 11 is a third diagram for explaining an operation performed by the robot 100 and indicating a predetermined direction according to a detection range of the target sensor. センサーの識別情報とセンサーの検出範囲に応じた方向及びセンサーの設置位置とが対応づけられたセンサー情報の一例を示す図である。It is a figure which shows an example of the sensor information with which the identification information of a sensor, the direction according to the detection range of a sensor, and the installation position of a sensor were matched. 追い越し車両を検出した際のロボット100の動作を説明するための図である。It is a figure for demonstrating operation | movement of the robot 100 at the time of detecting an overtaking vehicle. 駐車後退時に車両後方の障害物を検出した際のロボット100の動作を説明するための図である。It is a figure for demonstrating operation | movement of the robot 100 at the time of detecting the obstruction of a vehicle back at the time of parking reverse. 本実施形態の情報提供装置1000の処理を説明するためのフローチャート図である。It is a flowchart figure for demonstrating the process of the information provision apparatus 1000 of this embodiment. 図14(A)は立体ディスプレイ3100の構成の概要図であり、図14(B)は立体ディスプレイ3100の平面図である。14A is a schematic diagram of a configuration of the stereoscopic display 3100, and FIG. 14B is a plan view of the stereoscopic display 3100. ホログラフィック表示装置の構成概要を説明するためのブロック図である。It is a block diagram for demonstrating the structure outline | summary of a holographic display device.

本実施形態に係る情報提供システム1000を図面に基づいて説明する。   An information providing system 1000 according to the present embodiment will be described with reference to the drawings.

本実施形態に係る情報提供システム1000は、車両周囲における障害物の存在及びその存在位置などを知らせる報知情報を、ロボットなどの立体物の動作により提供させる装置である。 The information providing system 1000 according to the present embodiment is a device that provides notification information that informs the presence and location of an obstacle around a vehicle by the action of a three-dimensional object such as a robot.

図1は、本実施形態に係る情報提供システム1000の構成の概要を示す図である。   FIG. 1 is a diagram illustrating an outline of a configuration of an information providing system 1000 according to the present embodiment.

図1に示すように、本実施形態の情報提供システム1000は、車両周辺の状況の変化を検出するセンサー300と、この車両周辺の状況の変化を知らせる報知情報を提供する表示ユニットQと、この表示ユニットQの動作を制御する制御装置200とを備える。 As shown in FIG. 1, the information providing system 1000 according to the present embodiment includes a sensor 300 that detects a change in the situation around the vehicle, a display unit Q that provides notification information that notifies the change in the situation around the vehicle, And a control device 200 that controls the operation of the display unit Q.

本実施形態の表示ユニットQは、報知情報をそのものの動作により表現するロボット100と第2出力装置101を備え、車両周囲における状況の変化を知らせる報知情報を車両の乗員に提供する。 The display unit Q of the present embodiment includes the robot 100 that expresses the notification information by its own operation and the second output device 101, and provides the vehicle occupant with the notification information that notifies the change of the situation around the vehicle.

このロボット100は、動物を模した立体物、人間または擬人体を模した立体物、手や指などの体の部分を模した立体物、又は矢印形状の立体物などであり、報知情報の内容を、振り向く・見つめる・しゃべる・うなずく等の人の動きと似た動作を行うことによりユーザに知らせる機能を備える。つまり、ロボット100は、障害物その他の報知対象の存在する位置や方向を、ロボット100自身の身振り(動作)により知らせることができる。 The robot 100 is a three-dimensional object imitating an animal, a three-dimensional object imitating a human or anthropomorphic body, a three-dimensional object imitating a body part such as a hand or a finger, or an arrow-shaped three-dimensional object. Is provided to the user by performing actions similar to human movements such as turning around, staring, talking, and nodding. That is, the robot 100 can notify the position or direction where an obstacle or other notification target exists by gesture (operation) of the robot 100 itself.

たとえば、ロボット100は、その回転動作により任意の方向を指し示すことができる。具体的に、ロボット100は、回転によりその正面側(顔)を任意の方向に向けることにより、報知する対象が存在する方向を示すことができる。また、ロボット100は、その手足、指、尾などを任意の方向に向けることにより、報知する対象が存在する方向を示すことができる。 For example, the robot 100 can point in an arbitrary direction by its rotational movement. Specifically, the robot 100 can indicate a direction in which a target to be notified exists by turning its front side (face) in an arbitrary direction by rotation. Also, the robot 100 can indicate the direction in which the target to be notified exists by directing its limbs, fingers, tail, etc. in an arbitrary direction.

図2及び図3は、ロボット100を車両に搭載した場合の例を示す図である。図2及び図3に示すように、本実施形態のロボット100は、車両のダッシュボードの上面に設置される。なお、ロボット100の動作を制御する制御装置200はダッシュボード内部に収納される。 2 and 3 are diagrams illustrating an example in which the robot 100 is mounted on a vehicle. As shown in FIGS. 2 and 3, the robot 100 of the present embodiment is installed on the upper surface of the dashboard of the vehicle. A control device 200 that controls the operation of the robot 100 is housed inside the dashboard.

図2及び図3に示すロボット100は、回転軸G廻りに回転し、その正面側fを所定の方向に向けることにより所定の方向を示すことができる。なお、ロボット100の設置位置は乗員の視界領域内であれば良く、例えばフロントピラーなどでも良い。 The robot 100 shown in FIGS. 2 and 3 rotates around the rotation axis G and can indicate a predetermined direction by directing its front side f in a predetermined direction. Note that the installation position of the robot 100 may be in the occupant's field of view, and may be a front pillar, for example.

ここでロボット100の具体的な構成について説明する。 Here, a specific configuration of the robot 100 will be described.

図1に示すように、本実施形態のロボット100は、動作制御装置110と、ロボット回転駆動機構120と、第1スピーカ130と、第1ランプ140とを有する。 As shown in FIG. 1, the robot 100 of this embodiment includes an operation control device 110, a robot rotation drive mechanism 120, a first speaker 130, and a first lamp 140.

ロボット100の動作制御装置110は、制御装置200の制御命令に従い、ロボット回転駆動機構120、第1スピーカ130、及び第1ランプ140を制御する。 The operation control device 110 of the robot 100 controls the robot rotation drive mechanism 120, the first speaker 130, and the first lamp 140 in accordance with the control command of the control device 200.

ロボット回転駆動機構120は、制御装置200から取得した命令に従い、動作制御装置110の制御の下、ロボット100の正面、ロボット100の手足、指、尾の向きなどが所定の方向に向くようにロボット100を回転させる。 The robot rotation drive mechanism 120 follows the command acquired from the control device 200, and controls the robot 100 so that the front of the robot 100, the limbs, fingers, tails, etc. of the robot 100 are directed in a predetermined direction under the control of the motion control device 110. Rotate 100.

図4(A)及び(B)は、車両に搭載するロボット100の一例を示す図である。図4に示すように、本実施形態のロボット100は、動物や人間のように顔を持つ立体物であり、人の目に似せた目部材e1,e2のある顔の面が正面側fである。 4A and 4B are diagrams illustrating an example of the robot 100 mounted on the vehicle. As shown in FIG. 4, the robot 100 according to the present embodiment is a three-dimensional object having a face like an animal or a human, and the face surface with the eye members e1 and e2 that resemble human eyes is the front side f. is there.

ロボット回転駆動機構120は、ロボット100を固定又は係合するベース部121と、ロボット100の回転軸Gと、回転G廻りにロボット本体101を任意の方向又は任意の回転速度で回転させるモータ機構122とを有する。モータ機構122を駆動させることにより、図4(B)に示すように、ロボット100は、回転軸G廻りに回転動作を行う。ロボット回転駆動機構120は、回転軸G廻りにロボット100を所定角度だけ回転させることにより、ロボット100の正面側fを任意の方向に向けることができる。また、ロボット回転駆動機構120は、回転軸G廻りにロボット100を所定の角速度で回転させることができる。 The robot rotation drive mechanism 120 includes a base portion 121 that fixes or engages the robot 100, a rotation axis G of the robot 100, and a motor mechanism 122 that rotates the robot body 101 around the rotation G at any direction or at any rotation speed. And have. Driving the motor mechanism 122 causes the robot 100 to rotate around the rotation axis G as shown in FIG. The robot rotation drive mechanism 120 can turn the front side f of the robot 100 in an arbitrary direction by rotating the robot 100 about the rotation axis G by a predetermined angle. Further, the robot rotation driving mechanism 120 can rotate the robot 100 around the rotation axis G at a predetermined angular velocity.

また、回転軸Gに直交する回転軸廻りにロボット100を回転させる構成をさらに備えてもよい。この機構によれば、ロボット100に人が頷くような動作をさせることができる。 Further, a configuration in which the robot 100 is rotated around a rotation axis orthogonal to the rotation axis G may be further provided. According to this mechanism, it is possible to cause the robot 100 to perform an operation that makes a person whisper.

また、図4(A)に示すように、ロボット100に、人の手に似せたハンド部材H1,H2と、これらハンド部材H1,H2の先端を、制御装置200からの表示命令に基づいて、上下、左右に動かすハンド駆動機構HK1を設けても良い。なお、ハンド部材H1,H2とともに又はこれに代えてロボット100の頭部に角部を設ける、又はロボット100の背面に尾部を設けることができる。   Further, as shown in FIG. 4 (A), the robot 100 is made to have hand members H1, H2 resembling human hands and the tips of these hand members H1, H2 based on display commands from the control device 200. A hand drive mechanism HK1 that moves up and down and left and right may be provided. A corner portion may be provided on the head of the robot 100 together with or instead of the hand members H1 and H2, or a tail portion may be provided on the back surface of the robot 100.

なお、ロボット100のロボット回転駆動機構120の構成は限定されず、公知の手段を用いることができる。 Note that the configuration of the robot rotation drive mechanism 120 of the robot 100 is not limited, and any known means can be used.

さらに、本実施形態では、ロボット100に、情報を音声で出力するための第1スピーカ130を設ける。ロボット100が備える第1スピーカ130は、制御装置200の命令に基づく動作制御装置110の制御の下、報知情報を提供(出力)する。本実施形態のスピーカ130は、テキスト読み上げ機能(TTS(Text To Speech)機能)1301を備え、報知情報に含まれるテキスト情報を読み上げる。ここで報知情報は、車両周囲の他車両、歩行者その他の障害物について、その存在やその存在位置・方向知らせる情報を含む。なお、スピーカ130は、それが備える再生機能により、予め状況の変化に応じて記憶された報知情報の音声情報を再生させてもよい。このように、ロボット100に第1スピーカを設けることにより、ロボット100にしゃべる動作を実行させることができる。   Furthermore, in this embodiment, the robot 100 is provided with a first speaker 130 for outputting information by voice. The first speaker 130 included in the robot 100 provides (outputs) notification information under the control of the operation control device 110 based on the command of the control device 200. The speaker 130 of this embodiment includes a text reading function (TTS (Text To Speech) function) 1301 and reads text information included in the notification information. Here, the notification information includes information that informs the existence, position, and direction of other vehicles, pedestrians, and other obstacles around the vehicle. Note that the speaker 130 may reproduce the sound information of the notification information stored in advance according to the change of the situation by a reproduction function provided therein. As described above, by providing the robot 100 with the first speaker, it is possible to execute an operation of talking to the robot 100.

さらにまた、本実施形態では、ロボット100に、照射光を点滅させる第1ランプ140を設ける。本実施形態において、第1ランプ140は、ロボット100の顔の目部材e1,e2の部分に埋め込まれる。ロボット100が備える第1ランプ140は、制御装置200の命令に基づく動作制御装置110の制御の下、報知情報を提供(出力)する。 Furthermore, in the present embodiment, the robot 100 is provided with a first lamp 140 that blinks irradiation light. In the present embodiment, the first lamp 140 is embedded in the face eye members e1 and e2 of the robot 100. The first lamp 140 provided in the robot 100 provides (outputs) notification information under the control of the motion control device 110 based on the command of the control device 200.

動作制御装置110は、制御装置200の命令に基づいて、第1ランプ140に点灯及び消灯を実行させる。例えば、動作制御装置110は、ロボット100を回転させて、その正面側(顔)を所定の方向に向けたタイミングで、目部材e1,e2の第1ランプ140を点灯させる。これにより、第1ランプ140は、ロボット100が向く方向を照射光により指し示すことができる。 The operation control device 110 causes the first lamp 140 to turn on and off based on a command from the control device 200. For example, the motion control device 110 rotates the robot 100 and lights the first lamps 140 of the eye members e1 and e2 at the timing when the front side (face) is directed in a predetermined direction. Thereby, the 1st lamp | ramp 140 can point the direction which the robot 100 faces with irradiation light.

また、表示ユニットQは、このロボット100とは物理的に分離して設置される第2出力装置101を備える。この第2出力装置101は、第2スピーカ131としてのブザー131nと第2ランプ141nを含む。これらブザー131nと第2ランプ141nは、後述するセンサー300のそれぞれの近傍に設置される。近傍とは、ブザー131n及び/又は第2ランプ141nとセンサー300との距離が所定値未満である位置関係をいう。また、一のセンサー300と一のブザー131n及び/又は第2ランプ141nとの距離が最も短い位置関係にあるセンサー300とブザー131n及び/又は第2ランプ141nとは、近傍位置にある。 In addition, the display unit Q includes a second output device 101 that is physically separated from the robot 100. The second output device 101 includes a buzzer 131n as a second speaker 131 and a second lamp 141n. The buzzer 131n and the second lamp 141n are installed in the vicinity of each sensor 300 described later. The vicinity means a positional relationship in which the distance between the buzzer 131n and / or the second lamp 141n and the sensor 300 is less than a predetermined value. In addition, the sensor 300 and the buzzer 131n and / or the second lamp 141n that are in the shortest positional relationship between the one sensor 300 and the one buzzer 131n and / or the second lamp 141n are in the vicinity.

このブザー131nと第2ランプ141nは、ロボット100とは物理的に一体として構成されるものではないが、ロボット100と同様に、制御装置200の命令に従い動作する。つまり、制御装置200は、ロボット100と第2出力装置101は、制御装置200の命令に従い連携して動作させる。たとえば、制御装置200は、第2スピーカ131としてのブザー131nや第2ランプ141nを、ロボット100の動作に呼応して動作させる。 The buzzer 131n and the second lamp 141n are not physically integrated with the robot 100, but operate according to instructions from the control device 200, as with the robot 100. That is, the control device 200 causes the robot 100 and the second output device 101 to operate in cooperation according to a command from the control device 200. For example, the control device 200 operates the buzzer 131n or the second lamp 141n as the second speaker 131 in response to the operation of the robot 100.

その他、ロボット100に、マイク、カメラ、接触センサーなど、主にユーザの入力情報を取得する入力デバイスを設けてもよい。 In addition, the robot 100 may be provided with an input device that mainly acquires user input information, such as a microphone, a camera, and a contact sensor.

次に、センサー300について説明する。 Next, the sensor 300 will be described.

本実施形態のセンサー300は、車両の周囲における状況の変化を検出する機能を備える。このセンサー300は、車両周囲における状況の変化として、自車両が移動することにより自車両の周囲(所定距離範囲)に存在しなかった障害物が存在するようになる変化、他車両、歩行者などの他の物体が移動することにより自車両の周囲(所定距離範囲)に存在しなかった障害物が存在するようになる変化その他の状況の変化を検出する。 The sensor 300 of the present embodiment has a function of detecting a change in the situation around the vehicle. This sensor 300 is a change in the situation around the vehicle, such as a change in which an obstacle that does not exist around the vehicle (predetermined distance range) when the vehicle moves, other vehicles, pedestrians, etc. A change in which an obstacle that did not exist around the vehicle (predetermined distance range) due to the movement of another object is detected, and a change in other situations is detected.

例えば、センサー300は、隣接する車線を加速走行する他車両(追い越し車両)が自車両に接近することにより、自車両の周囲(所定距離範囲)に他車両が進入するとき、この変化を状況変化として検出する。また、センサー300は、駐車後退時に自車両が障害物に接近し、自車両の周囲(所定距離範囲)に障害物が存在する状態となるとき、この変化を状況変化として検出する。 For example, the sensor 300 changes the situation when another vehicle (passing vehicle) that accelerates in an adjacent lane approaches the own vehicle and the other vehicle enters the surroundings (predetermined distance range) of the own vehicle. Detect as. Further, the sensor 300 detects this change as a situation change when the host vehicle approaches an obstacle when the vehicle is parked backward and an obstacle exists around the host vehicle (predetermined distance range).

センサー300は、自車両の周囲の状況の変化を検出した場合は、その検出結果とそのセンサー300を識別するための識別情報を対応づけて制御装置200へ送出する。 When the sensor 300 detects a change in the situation around the host vehicle, the sensor 300 associates the detection result with identification information for identifying the sensor 300 and sends it to the control device 200.

なお、自車両の周囲、すなわち自車両の所定距離範囲は、検出対象の速度や検出場面に応じて適宜定義することができる。 In addition, the surroundings of the own vehicle, that is, the predetermined distance range of the own vehicle can be appropriately defined according to the speed of the detection target and the detection scene.

本実施形態のセンサー300は、図1に示すように、カメラ310と超音波センサー320とを有する。 The sensor 300 of the present embodiment includes a camera 310 and an ultrasonic sensor 320 as shown in FIG.

カメラ310としては、CCDイメージセンサー(Charge Coupled Device Image Sensor)などの半導体イメージセンサーを用いたもの、赤外線イメージセンサーを用いたもの、その他の画像に基づいて対象物の有無及び/または距離を検出するセンサーを用いることができる。 The camera 310 detects the presence / absence and / or distance of an object based on a semiconductor image sensor such as a CCD image sensor (Charge Coupled Device Image Sensor), an infrared image sensor, or other images. A sensor can be used.

また、超音波センサー320は、超音波信号を用いて物体を検出し、その距離を計測する機能を有するセンサーである。具体的に、センサヘッドから超音波を発信し、対象物体に当たって反射してくる超音波を再度センサヘッドで受信し、この音波の発信から受信までの時間を計測することで対象物の位置を検出する。本実施形態では、車両が備えるソナーシステム(車両の後進時・右左折時の接近防止の警報システム)のセンサーとしても機能するソナー321をセンサー300として使用する。 The ultrasonic sensor 320 is a sensor having a function of detecting an object using an ultrasonic signal and measuring the distance. Specifically, an ultrasonic wave is transmitted from the sensor head, the ultrasonic wave reflected by the target object is received again by the sensor head, and the position of the target object is detected by measuring the time from the transmission of the sound wave to the reception. To do. In this embodiment, a sonar 321 that also functions as a sensor of a sonar system (an alarm system for preventing an approach when the vehicle is moving backward or when turning left or right) is used as the sensor 300.

車両に設けられるソナー321(センサー300)の数は任意に設定できる。図5は、車両に搭載されたセンサー300としてのソナー1〜ソナー7の設置例を示す図である。図5に示すようにソナー1〜7は、車両の前方右側、前方左側、前方中央、運転席ドア、助手席ドア、後方右側、後方左側の位置に、それぞれ設けられる。 The number of sonar 321 (sensor 300) provided in the vehicle can be arbitrarily set. FIG. 5 is a diagram illustrating an installation example of sonar 1 to sonar 7 as the sensor 300 mounted on the vehicle. As shown in FIG. 5, the sonars 1 to 7 are provided at positions on the front right side, the front left side, the front center, the driver's seat door, the passenger seat door, the rear right side, and the rear left side, respectively.

また、図5に示すように、ソナー1〜7の近傍には、前述の第2出力装置101としてのブザー1〜7(131n)及び/又は第2ランプ1〜7)141nが設ける。センサー300としてのソナー1〜ソナー7の識別情報と、この各ソナー1〜ソナー7の近傍に設けられるブザー1〜7(131n)及び/又は第2ランプ1〜7)141nの識別情報とは予め対応づけられ、ROM201に記憶される。 Further, as shown in FIG. 5, buzzers 1 to 7 (131n) and / or second lamps 1 to 7) 141n as the second output device 101 are provided in the vicinity of the sonars 1 to 7. The identification information of the sonar 1 to the sonar 7 as the sensor 300 and the identification information of the buzzers 1 to 7 (131n) and / or the second lamps 1 to 7 141n provided in the vicinity of the sonar 1 to the sonar 7 are preliminarily described. Corresponding and stored in the ROM 201.

なお、ソナー1〜ソナー7のいずれか1つ以上をカメラ1〜カメラ7と置換してもよい。 Any one or more of sonar 1 to sonar 7 may be replaced with cameras 1 to 7.

また、図6は、車両に搭載されたロボット100とソナー1〜7との位置関係、及びソナー1〜7の模擬的な検出範囲を示す図である。図6に示すように、ソナー1〜7はそれぞれ固有の検出範囲を有する。 FIG. 6 is a diagram illustrating a positional relationship between the robot 100 mounted on the vehicle and the sonars 1 to 7 and a simulated detection range of the sonars 1 to 7. As shown in FIG. 6, sonars 1 to 7 each have a unique detection range.

続いて、制御装置200について説明する。制御装置200は、表示ユニットQが行う報知情報の提供処理を制御する。つまり、ロボット100の動作及びセンサー300の近傍に設けられたブザーn(第2スピーカ)と第2ランプ141の動作を制御する。 Next, the control device 200 will be described. The control device 200 controls notification information providing processing performed by the display unit Q. That is, the operation of the robot 100 and the operation of the buzzer n (second speaker) and the second lamp 141 provided in the vicinity of the sensor 300 are controlled.

図1に示すように、この制御装置200は、表示ユニットQの動作制御を実行するためのプログラムを格納したROM201と、このROM(Read Only Memory )201に格納されたプログラムを実行することで、ロボット制御装置として機能する動作回路としてのCPU(Central Processing Unit)202と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)203と備える。なお、動作回路としては、CPU(Central Processing Unit)に代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などの動作回路を用いることができる。 As shown in FIG. 1, the control device 200 executes a ROM 201 that stores a program for controlling the operation of the display unit Q and a program stored in the ROM (Read Only Memory) 201. A CPU (Central Processing Unit) 202 as an operation circuit that functions as a robot control device and a RAM (Random Access Memory) 203 that functions as an accessible storage device are provided. As an operation circuit, instead of or in addition to a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), etc. The operation circuit can be used.

また、図1に示すように、制御装置200は、自車両に搭載されたナビゲーション装置400、車両コントローラ500その他の車載装置とCAN(Controller Area Network)その他の車載LANによって接続され、相互に情報の授受を行う。   Further, as shown in FIG. 1, the control device 200 is connected to a navigation device 400, a vehicle controller 500 and other in-vehicle devices mounted on the host vehicle by a CAN (Controller Area Network) and other in-vehicle LANs, and mutually transmits information. Give and receive.

次に、制御装置200が備える処理機能について説明する。制御装置200は、報知情報を生成する情報生成機能と、ロボット100の動作を制御する動作制御機能を備える。この制御装置10は、各機能を実現するためのソフトウェアと、上述したハードウェアの協働により各機能を実行する。   Next, processing functions provided in the control device 200 will be described. The control device 200 includes an information generation function for generating notification information and an operation control function for controlling the operation of the robot 100. The control device 10 executes each function by cooperation of software for realizing each function and the hardware described above.

以下、上述した情報提供システム1000の制御装置200が実現する機能についてそれぞれ説明する。   Hereinafter, functions realized by the control device 200 of the information providing system 1000 will be described.

まず、制御装置200の情報生成機能について説明する。制御装置200は、センサー300により車両周囲における状況の変化が検出された場合は、状況の変化をユーザに知らせる報知情報を生成する。具体的に、制御装置200は、状況の変化をユーザに知らせるために「障害物の接近」、「障害物の位置」などの伝達内容を含む報知情報を生成する。   First, the information generation function of the control device 200 will be described. When a change in the situation around the vehicle is detected by the sensor 300, the control device 200 generates notification information that notifies the user of the change in the situation. Specifically, the control device 200 generates notification information including transmission contents such as “approach of obstacle” and “position of obstacle” in order to notify the user of a change in the situation.

本実施形態の報知情報は、障害物(他車両、路上構造物、歩行者その他の物体)が存在することと、その存在方向の情報を含む。例えば、制御装置200は、センサー300が、隣接する車線を加速走行する他車両(追い越し車両)が自車両の所定距離範囲に他車両が進入したことを検出した場合、他車両が右後方又は左後方から接近しつつあることを知らせる報知情報を生成する。また、制御装置200は、センサー300が駐車後退時に自車両の所定距離範囲に障害物が存在することを検出した場合、右後方、左後方、又は後方中央に障害物があることを知らせる報知情報を生成する。制御装置200は、生成した報知情報をRAM203に記憶する。 The notification information of this embodiment includes the presence of an obstacle (another vehicle, a road structure, a pedestrian, or other object) and information on the direction in which the obstacle exists. For example, when the sensor 300 detects that another vehicle (passing vehicle) that accelerates in an adjacent lane has entered the predetermined distance range of the own vehicle, the control device 200 detects that the other vehicle Informing information for informing that the vehicle is approaching from behind is generated. In addition, when the sensor 300 detects that there is an obstacle within a predetermined distance range of the host vehicle when the vehicle is parked backward, the control device 200 informs that there is an obstacle at the right rear, left rear, or rear center. Is generated. The control device 200 stores the generated notification information in the RAM 203.

なお、この報知情報はセンサー300又はこのセンサー300の検出結果に基づいて走行支援処理を行う走行支援装置により生成されたもの用いて、表示ユニットQが提供する仕様に加工(生成)してもよい。 The notification information may be processed (generated) into specifications provided by the display unit Q using information generated by the sensor 300 or a driving support device that performs driving support processing based on the detection result of the sensor 300. .

続いて、制御装置200の動作制御機能について説明する。制御装置200は、生成された報知情報を車両の乗員に提供するため、ロボット100と第2出力装置101とを含む表示ユニットQの動作を制御する。 Next, the operation control function of the control device 200 will be described. The control device 200 controls the operation of the display unit Q including the robot 100 and the second output device 101 in order to provide the generated notification information to the vehicle occupant.

制御装置200は、表示ユニットQに報知情報を提供させる際に、情報提供の一手法として、報知情報を生成する起因となる状況の変化が検出されたセンサー300を対象センサー300nとして特定し、ロボット100に対象センサー300nの検出範囲に応じた所定の方向を指し示す動作を実行させる。 When the control device 200 causes the display unit Q to provide the notification information, as a method of providing information, the control device 200 identifies the sensor 300 in which the change in the situation that causes the generation of the notification information is detected as the target sensor 300n, and the robot 100 is caused to execute an operation indicating a predetermined direction according to the detection range of the target sensor 300n.

制御装置200は、センサー300から検出結果とともに取得したそのセンサー300の識別情報に基づいて、状況の変化を検出したセンサー300を対象センサー300nとして特定する。制御装置200は、その対象センサー300の識別情報に基づいて、その対象センサー300nの種別、設置位置、検出範囲(検出範囲の中心軸の方向、検出範囲に対応する角度)などを取得することができる。 Based on the identification information of the sensor 300 acquired from the sensor 300 together with the detection result, the control device 200 identifies the sensor 300 that has detected a change in the situation as the target sensor 300n. Based on the identification information of the target sensor 300, the control device 200 can acquire the type, installation position, detection range (the direction of the central axis of the detection range, the angle corresponding to the detection range), and the like. it can.

そして、制御装置200は、ロボット100に対象センサーの検出範囲に応じた所定の方向を指し示す動作を実行させる。 Then, the control device 200 causes the robot 100 to perform an operation indicating a predetermined direction according to the detection range of the target sensor.

ここで「対象センサー300nの検出範囲に応じた所定の方向」について、図7〜9に基づいて説明する。図7〜9は、ロボット100が対象センサーの検出範囲に応じた所定の方向を指し示す動作を説明するための図である。所定の方向を指し示す動作は、ロボット100の正面側をその所定方向に向ける動作、ロボット100の手部材H1、H2(図4参照)をその所定方向に向ける動作、ロボット100の第1スピーカ130に所定方向(後、前、右、左)を発話させる動作、ロボット100の第1ランプ140に、所定方向を照射させる動作などを含む。以下では、ロボット100の正面側をその所定方向に向ける動作を例に、制御装置200の制御手法を説明する。 Here, the “predetermined direction according to the detection range of the target sensor 300n” will be described with reference to FIGS. 7 to 9 are diagrams for explaining an operation in which the robot 100 indicates a predetermined direction according to the detection range of the target sensor. The operation pointing in a predetermined direction is an operation in which the front side of the robot 100 is directed in the predetermined direction, an operation in which the hand members H1 and H2 (see FIG. 4) of the robot 100 are directed in the predetermined direction, and the first speaker 130 of the robot 100. This includes an operation of speaking in a predetermined direction (back, front, right, left), an operation of irradiating the first lamp 140 of the robot 100 in a predetermined direction, and the like. Below, the control method of the control apparatus 200 is demonstrated to the operation | movement which orient | assigns the front side of the robot 100 to the predetermined direction as an example.

図7に示すように検出範囲に障害物が存在することが検出された際、制御装置200は、所定の回転基準方向にその正面側を向けた状態のロボット100を回転させ、ロボット100にその正面側を検出範囲に応じた所定の方向を向く動作を実行させる。 As shown in FIG. 7, when it is detected that an obstacle exists in the detection range, the control device 200 rotates the robot 100 with its front side facing a predetermined rotation reference direction, and causes the robot 100 to An operation is performed in which the front side faces a predetermined direction according to the detection range.

たとえば、制御装置200は、所定の回転基準方向にその正面側を向けた状態のロボット100を回転させ、ロボット100に、その正面側を対象センサー300nの検出範囲中心軸上であって、対象センサー300nから所定距離Kの位置にある基準点Aを向く動作を実行させる。つまり、制御装置200は、ロボット100に図7に示す角度b°分の回転動作を実行させる。また、制御装置200は、ロボット100に、図7に示す回転基準方向0°からb°まで回転する動作を実行させてもよいし、図7に示す回転基準方向0°からb°までの間を往復する動作を実行させてもよい。 For example, the control device 200 rotates the robot 100 with its front side facing a predetermined rotation reference direction, and causes the robot 100 to have its front side on the center axis of the detection range of the target sensor 300n. An operation of facing the reference point A located at a predetermined distance K from 300n is executed. That is, the control device 200 causes the robot 100 to perform a rotation operation for an angle b ° shown in FIG. Further, the control device 200 may cause the robot 100 to perform an operation of rotating from the rotation reference direction 0 ° to b ° shown in FIG. 7 or between the rotation reference direction 0 ° to b ° shown in FIG. You may perform the operation | movement which reciprocates.

また、制御装置200は、所定の回転基準方向にその正面側を向けた状態のロボット100を回転させ、ロボット100に、その正面側を対象センサー300nの設置位置の基準点Bを向く動作を実行させる。つまり、制御装置200は、ロボット100に図7に示す角度c°分の回転動作を実行させる。また、制御装置200は、ロボット100に、図7に示す回転基準方向0°からc°まで回転する動作を実行させてもよいし、図7に示す回転基準方向0°からc°までの間を往復する動作を実行させてもよい。 In addition, the control device 200 rotates the robot 100 with its front side directed in a predetermined rotation reference direction, and performs an operation of directing the front side of the robot 100 toward the reference point B of the installation position of the target sensor 300n. Let That is, the control device 200 causes the robot 100 to perform a rotation operation for the angle c ° shown in FIG. Further, the control device 200 may cause the robot 100 to perform an operation of rotating from the rotation reference direction 0 ° to c ° shown in FIG. 7 or between the rotation reference direction 0 ° to c ° shown in FIG. You may perform the operation | movement which reciprocates.

なお、距離Kは、センサー300の検出可能距離に対応させることが好ましい。 Note that the distance K preferably corresponds to the detectable distance of the sensor 300.

ちなみに、図7に示す例において、制御装置200が、所定の回転基準方向にその正面側を向けた状態のロボット100を回転させ、ロボット100に、その正面側を障害物の存在する地点Qを向く動作を実行させた場合、その動作角度はa°となる。上述した回転角度b°及びc°と、回転角度aとの大小関係は、a<b<cとなる。すなわち、本実施形態では、障害物が検出された場合に、ロボット100に、その正面側を検出範囲に応じた所定の方向を向く動作を実行させるので、ロボット100の正面側を障害物が存在する方向に向かせる動作の動作量よりも、ロボット100の動作量をより大きくすることができる。その結果、ロボット100を大きな回転角度で、つまり大きな動作量で動作させることができるので、ドライバにその障害物の存在する方向を正確に知らせることができる。 Incidentally, in the example shown in FIG. 7, the control device 200 rotates the robot 100 with its front side directed in a predetermined rotation reference direction, and sets the robot 100 to a point Q where an obstacle exists on the front side. When the facing operation is executed, the operation angle is a °. The magnitude relationship between the rotation angles b ° and c ° described above and the rotation angle a is a <b <c. That is, in this embodiment, when an obstacle is detected, the robot 100 is caused to perform an operation in which the front side is directed in a predetermined direction corresponding to the detection range. The amount of movement of the robot 100 can be made larger than the amount of movement of the movement directed to the direction of movement. As a result, since the robot 100 can be operated with a large rotation angle, that is, with a large amount of movement, it is possible to accurately inform the driver of the direction in which the obstacle exists.

また、図8に示すように、制御装置200は、ロボット100に、検出範囲中心軸上であって、対象センサー300nから所定距離Kの位置にある基準点Aから対象センサー300nの設置位置の基準点Bを向く動作を実行させる。また、制御装置200は、ロボット100に、図8に示すb°からc°までの間(S1)を往復する動作を実行させてもよい。 Further, as shown in FIG. 8, the control device 200 causes the robot 100 to set the reference of the installation position of the target sensor 300n from the reference point A on the center axis of the detection range and at a predetermined distance K from the target sensor 300n. The operation facing the point B is executed. Further, the control device 200 may cause the robot 100 to perform an operation of reciprocating between b ° and c ° (S1) shown in FIG.

また、図9に示すように、制御装置200は、ロボット100に、検出範囲の一方側の境界上であって、対象センサー300nから所定距離Kの位置にある基準点Cから、検出範囲の他方側の境界上であって対象センサー300nから所定距離Kの位置にある基準点Dまでの間(S2)を往復する動作を実行させてもよい。 Also, as shown in FIG. 9, the control device 200 causes the robot 100 to move from the reference point C on the one side boundary of the detection range and at a predetermined distance K from the target sensor 300n to the other of the detection ranges. An operation of reciprocating between the target sensor 300n and the reference point D located at a predetermined distance K (S2) on the side boundary may be executed.

本実施形態では、センサー300の識別情報と、ロボット100が配置される車室空間を含む座標系においてロボット100に対するセンサー300の検出範囲に応じた所定の方向とが予め対応づけられた「センサー情報」を予め定義し、ROM201に記憶する。 In the present embodiment, “sensor information” in which identification information of the sensor 300 is associated with a predetermined direction corresponding to a detection range of the sensor 300 with respect to the robot 100 in a coordinate system including a vehicle interior space in which the robot 100 is disposed. ”Is previously defined and stored in the ROM 201.

図10は、センサー情報の一例を示す図である。 FIG. 10 is a diagram illustrating an example of sensor information.

図10に示すように、センサー情報は、センサー300の識別情報と検出範囲に応じた方向とが対応づけて定義する。また、検出範囲に応じた方向に対応するロボット100の回転角度を定義してもよい。また、本実施形態では、センサー情報に、検出範囲に応じた所定の方向として、ロボット100に対するセンサー300の設置位置、つまりロボット100から見たセンサー300の設置方向を含ませる。 As shown in FIG. 10, the sensor information is defined by associating the identification information of the sensor 300 with the direction according to the detection range. Moreover, you may define the rotation angle of the robot 100 corresponding to the direction according to a detection range. In the present embodiment, the sensor information includes the installation position of the sensor 300 with respect to the robot 100, that is, the installation direction of the sensor 300 viewed from the robot 100, as the predetermined direction corresponding to the detection range.

制御装置200は、このセンサー情報を参照し、対象センサー300nの識別情報に基づいて、検出範囲に応じた所定の方向、つまりロボット100を回転させる角度を求めることができる。 The control device 200 can obtain a predetermined direction corresponding to the detection range, that is, an angle for rotating the robot 100 based on the identification information of the target sensor 300n with reference to the sensor information.

そして、制御装置200は、求められた対象センサー300nの検出範囲に応じる所在の方向を指し示す動作を、ロボット100に実行させる。 And the control apparatus 200 makes the robot 100 perform the operation | movement which points out the location according to the detection range of the calculated | required target sensor 300n.

さらに、図10に示すように、センサー情報は、ロボット100の位置から各センサー300又はセンサー300の検出範囲が見えるか否かの視認可否情報を含む。この情報は、後に説明する第2スピーカ131、第2ランプ141の制御に用いられる。 Furthermore, as shown in FIG. 10, the sensor information includes viewing approval / disapproval information indicating whether each sensor 300 or the detection range of the sensor 300 is visible from the position of the robot 100. This information is used for controlling the second speaker 131 and the second lamp 141, which will be described later.

続いて、第2スピーカ131、第2ランプ141の制御について説明する。 Subsequently, control of the second speaker 131 and the second lamp 141 will be described.

制御装置200は、ロボット100の正面側が対象センサー300nの検出範囲に応じた所在の方向を向くようにロボット100を動作させる際に、各センサー300の近傍に設けられた第2スピーカ131及び/又は第2ランプ141に報知情報を出力させる。つまり、制御装置200は、ロボット100の正面側が対象センサー300nの検出範囲に応じた所在の方向を向くようにロボット100を回転させるとともに、各センサー300の近傍に設けられた第2スピーカ131のブザー131nからブザー音を出力させ、及び/又は第2ランプ141に照射光を照射させる。これにより、障害物の存在を報知するにあたり、制御装置200は、ロボット100の正面を障害物が検出された対象センサーの方向を向かせ、その方向でブザーを鳴らし、ランプを点灯させる。ユーザは、ロボット100の動作の基となっているセンサー300の位置を正確に把握することができる。 When the robot 100 is operated so that the front side of the robot 100 faces a location corresponding to the detection range of the target sensor 300n, the control device 200 may include a second speaker 131 provided in the vicinity of each sensor 300 and / or The second lamp 141 is caused to output notification information. That is, the control device 200 rotates the robot 100 so that the front side of the robot 100 faces the direction corresponding to the detection range of the target sensor 300n, and the buzzer of the second speaker 131 provided in the vicinity of each sensor 300. A buzzer sound is output from 131n and / or the second lamp 141 is irradiated with irradiation light. Thus, when notifying the presence of an obstacle, the control device 200 turns the front of the robot 100 toward the target sensor where the obstacle is detected, sounds a buzzer in that direction, and turns on the lamp. The user can accurately grasp the position of the sensor 300 that is the basis of the operation of the robot 100.

また、制御装置200は、センサー情報に含まれる「ロボット100の位置から各センサー300又はセンサー300の検出範囲が見えるか否かの視認可否情報」を参照し、ロボット100の位置から対象センサー300n又は対象センサー300nの検出範囲が見えない場合は、ロボット100を動作させる際に、各センサー300の近傍に設けられた第2スピーカ131及び/又は第2ランプ141に報知情報を出力させる。 In addition, the control device 200 refers to the “visual approval / denial information on whether or not each sensor 300 or the detection range of the sensor 300 is visible from the position of the robot 100” included in the sensor information, and the target sensor 300n or the When the detection range of the target sensor 300n is not visible, when the robot 100 is operated, the notification information is output to the second speaker 131 and / or the second lamp 141 provided in the vicinity of each sensor 300.

ところで、ロボット100がその検出範囲に応じた所定方向を向くことにより障害物の存在方向をユーザに報知する場合、ロボット100からその検出範囲が見えていることが前提になる。つまり、ロボット100の目部材e1,e2を基準とする擬似視界に検出範囲が含まれていることが前提となる。ロボット100の目部材e1,e2の擬似視界に明らかに含まれない検出領域や、シートなどによりロボット100の目部材e1,e2の擬似視界が遮られる検出領域について、ロボット100の回転動作のみにより方向を知らせると、ユーザに違和感を与える。すなわち、ユーザがロボット100を擬人化された存在と認識した状態において、ロボット100から見えるはずのない検出領域を指示されても、ユーザはロボット100が何を報知しようとしているのか不明であり、情報を正確に理解することができない。 By the way, when the robot 100 notifies the user of the direction in which the obstacle exists by pointing in a predetermined direction according to the detection range, it is assumed that the detection range is visible from the robot 100. That is, it is assumed that the detection range is included in the pseudo field of view based on the eye members e1 and e2 of the robot 100. For detection areas that are not clearly included in the pseudo field of view of the eye members e1 and e2 of the robot 100, and detection areas where the pseudo field of view of the eye members e1 and e2 of the robot 100 is blocked by a sheet or the like, the direction is determined only by the rotation of the robot 100. Informing the user gives a sense of incongruity. That is, even when the user recognizes the robot 100 as an anthropomorphic presence and is instructed to detect a detection area that should not be seen by the robot 100, the user is not sure what the robot 100 is trying to report. Cannot be understood accurately.

このため、本実施形態では、センサー情報に、ロボット100の位置から各センサー300又はセンサー300の検出範囲が見えるか否かの視認可否情報を含ませ、ロボット100の位置から対象センサー300n又は対象センサー300nの検出範囲が見えない場合に、対象センサー近傍のブザー131を鳴らし、第2ランプ141を点灯させる。なお、視認可否情報は、ロボット100の設置位置と車室内の設えに応じて予め定義することができる。 For this reason, in the present embodiment, the sensor information includes visual approval rejection information indicating whether each sensor 300 or the detection range of the sensor 300 is visible from the position of the robot 100, and the target sensor 300n or the target sensor is determined from the position of the robot 100. When the 300n detection range is not visible, the buzzer 131 near the target sensor is sounded and the second lamp 141 is turned on. The viewing approval / disapproval information can be defined in advance according to the installation position of the robot 100 and the setting in the passenger compartment.

次に、制御装置200の2つの処理の具体例を図11及び図12に基づいて説明する。 Next, specific examples of the two processes of the control device 200 will be described with reference to FIGS.

図11は、追い越し車両を検出した際のロボット100の動作を説明するための図である。ソナー4は、車両の左側に設けられ、左側の追い越し車両の存在を検出する。また、ソナー5は、車両の右側に設けられ、右側の追い越し車両の存在を検出する。 FIG. 11 is a diagram for explaining the operation of the robot 100 when an overtaking vehicle is detected. The sonar 4 is provided on the left side of the vehicle and detects the presence of the overtaking vehicle on the left side. The sonar 5 is provided on the right side of the vehicle and detects the presence of the overtaking vehicle on the right side.

ここでは、隣接するレーンを走行する他車両について、自車両のドライバに注意を喚起する報知情報を提供する場合を例に説明する。制御装置200は、ソナー4又はソナー5が追い越し車両を検出した場合は、このソナー4又はソナー5を対象センサーとして特定し、ロボット100の正面側を、ソナー4又はソナー5の検出範囲に応じた所定の方向に向かせる動作を実行させる。 Here, a case will be described as an example in which notification information for alerting the driver of the host vehicle is provided for other vehicles traveling in adjacent lanes. When the sonar 4 or the sonar 5 detects the overtaking vehicle, the control device 200 identifies the sonar 4 or the sonar 5 as a target sensor, and sets the front side of the robot 100 according to the detection range of the sonar 4 or the sonar 5. An operation of moving in a predetermined direction is executed.

本例において、ソナー5が追い越し車両を検出した場合、制御装置200は、ソナー5の検出した情報とソナー5の識別情報を取得し、状況の変化を検出したセンサー300はソナー5(対象センサー)であると特定する。 In this example, when the sonar 5 detects a passing vehicle, the control device 200 acquires the information detected by the sonar 5 and the identification information of the sonar 5, and the sensor 300 that detects the change in the situation is the sonar 5 (target sensor). To be identified.

そして、制御装置200は、ロボット100に、ソナー5の検出範囲に応じた所定の方向を指し示す動作をさせる。具体的に、制御装置200は、ロボット100の正面側を、ソナー5の検出領域の中心軸上であって、ソナー5の設置位置から所定距離にある基準点に向け、その後、ロボット100の正面側をソナーの設置位置に向けるように、ロボット100を回転させる。つまり、ロボット100は、基準方向を向く姿勢から回転し、矢印M1の方向を向いて一時停止又は回転速度を変更し、継続して矢印V1の方向を向く動作を行う。もちろん、制御装置200は、ロボット100の正面側を、ソナーの設置位置に向けるように、ロボット100を回転させてもよい。 Then, the control device 200 causes the robot 100 to perform an operation indicating a predetermined direction according to the detection range of the sonar 5. Specifically, the control device 200 directs the front side of the robot 100 toward a reference point on the central axis of the detection area of the sonar 5 and at a predetermined distance from the installation position of the sonar 5, and then the front of the robot 100 The robot 100 is rotated so that the side faces the sonar installation position. That is, the robot 100 rotates from a posture facing the reference direction, temporarily stops or changes the rotation speed in the direction of the arrow M1, and continuously performs the operation in the direction of the arrow V1. Of course, the control device 200 may rotate the robot 100 so that the front side of the robot 100 is directed to the installation position of the sonar.

このとき、制御装置200は、第1スピーカ130から報知情報に含まれる「追い越し車両に気をつけて」というテキスト音声データを発話出力させる。 At this time, the control device 200 causes the first speaker 130 to utter and output the text voice data “careful of the overtaking vehicle” included in the notification information.

このような場面において、自車両と追い越し他車両との距離が離れていればいるほど、自車両と他車両の角度差が付きにくく、ロボット100が追い越し他車両の方向を向いても、ロボット100の動作量(回転量)が小さいため、ユーザにはその動作が分かりにくい。これに対し、本実施形態では、ロボット100の正面を、実際の障害物ではなく、他車両を検出した対象センサー300nの方向に向かせることにより、その動作量(回転量)を大きくすることができるので、他車両(障害物)がどの方向に存在するのかを正確に伝達することができる。 In such a scene, as the distance between the own vehicle and the overtaking other vehicle increases, the difference in angle between the own vehicle and the other vehicle is less likely to occur, and even if the robot 100 is overtaking and faces the other vehicle. Since the amount of movement (the amount of rotation) is small, it is difficult for the user to understand the movement. On the other hand, in this embodiment, the amount of movement (the amount of rotation) can be increased by directing the front of the robot 100 to the direction of the target sensor 300n that has detected another vehicle, not an actual obstacle. Therefore, it is possible to accurately transmit in which direction the other vehicle (obstacle) exists.

ここで、ロボット100の擬似視界にソナー4又はソナー4の検出範囲は含まれるが、ソナー5又はソナー5の検出範囲は含まれない(図10参照)。つまり、ロボット100は、ソナー5により検出される追い越し車両を見る(擬似的に見る)ことはできない。このため、ロボット100がソナー5又はソナー5の検出範囲を向く動作だけでは、ドライバは、その動作の意味を正確に理解することができない。 Here, the sonar 4 or the detection range of the sonar 4 is included in the pseudo view of the robot 100, but the detection range of the sonar 5 or the sonar 5 is not included (see FIG. 10). That is, the robot 100 cannot see (pseudo-see) the overtaking vehicle detected by the sonar 5. For this reason, the driver cannot accurately understand the meaning of the operation only by the operation in which the robot 100 faces the sonar 5 or the detection range of the sonar 5.

このため、制御装置200は、ロボット100の正面側を矢印M1方向に向けるタイミングで、ソナー5の近傍に設置したブザー5を鳴らし及び/又はランプ5を点灯させる。このように、ロボット100がソナー5又はソナー5の検出領域を見るタイミングで、ソナー5近傍のブザー5を鳴らし及び/又はランプ5を点灯することにより、ロボット100の動作とブザー5及び/又はランプ5の動作を連携させることができ、ドライバに情報の内容(右後方から追い越し車両が接近している)ことを正確に伝達することができる。 For this reason, the control device 200 sounds the buzzer 5 installed in the vicinity of the sonar 5 and / or turns on the lamp 5 at the timing when the front side of the robot 100 is directed in the direction of the arrow M1. In this way, the operation of the robot 100 and the buzzer 5 and / or the lamp are activated by sounding the buzzer 5 near the sonar 5 and / or turning on the lamp 5 at the timing when the robot 100 views the sonar 5 or the detection region of the sonar 5. 5 can be linked to each other, and the content of the information (passing vehicle from the right rear side is approaching) can be accurately transmitted to the driver.

続いて、図12に基づいて、駐車後退時に車両後方の障害物を検出した際のロボット100の動作を説明する。ソナー6は、車両の左後方に設けられ、車両の左後方の障害物を検出する。また、ソナー7は、車両の右後方に設けられ、車両の右後方の障害物を検出する。 Next, based on FIG. 12, the operation of the robot 100 when an obstacle behind the vehicle is detected during parking reversal will be described. The sonar 6 is provided on the left rear side of the vehicle and detects an obstacle on the left rear side of the vehicle. The sonar 7 is provided on the right rear side of the vehicle and detects an obstacle on the right rear side of the vehicle.

ここでは、後方の障害物について、自車両のドライバに注意を喚起する報知情報を提供する場合を例に説明する。制御装置200は、ソナー6又はソナー7が追い越し車両を検出した場合は、このソナー6又はソナー7を対象センサーとして特定し、ロボット100の正面側を、ソナー6又はソナー7の検出範囲に応じた所定の方向に向かせる動作を実行させる。 Here, a case where notification information for alerting the driver of the host vehicle is provided for an obstacle behind the vehicle will be described as an example. When the sonar 6 or the sonar 7 detects the passing vehicle, the control device 200 identifies the sonar 6 or the sonar 7 as a target sensor, and the front side of the robot 100 is set according to the detection range of the sonar 6 or the sonar 7. An operation of moving in a predetermined direction is executed.

本例において、ソナー7が後方の障害物を検出した場合、制御装置200は、ソナー7の検出した情報とソナー7の識別情報を取得し、状況の変化を検出したセンサー300はソナー7(対象センサー)であると特定する。 In this example, when the sonar 7 detects a rear obstacle, the control device 200 acquires the information detected by the sonar 7 and the identification information of the sonar 7, and the sensor 300 that detects the change in the situation detects the sonar 7 (target Sensor).

そして、制御装置200は、ロボット100に、ソナー7の検出範囲に応じた所定の方向を指し示す動作をさせる。具体的に、制御装置200は、ロボット100の正面側を、ソナー7の検出領域の中心軸上であって、ソナー7の設置位置から所定距離にある基準点に向け、その後、ロボット100の正面側をソナーの設置位置に向けるように、ロボット100を回転させる。つまり、ロボット100は、基準方向を向く姿勢から回転し、矢印M2の方向を向いて一時停止又は回転速度を変更し、継続して矢印V2の方向を向く動作を行う。もちろん、制御装置200は、ロボット100の正面側を、ソナーの設置位置に向けるように、ロボット100を回転させてもよい。 Then, the control device 200 causes the robot 100 to perform an operation indicating a predetermined direction according to the detection range of the sonar 7. Specifically, the control device 200 directs the front side of the robot 100 toward a reference point on the center axis of the detection area of the sonar 7 and at a predetermined distance from the installation position of the sonar 7, and then the front of the robot 100 The robot 100 is rotated so that the side faces the sonar installation position. That is, the robot 100 rotates from a posture facing the reference direction, temporarily stops or changes the rotation speed in the direction of the arrow M2, and continuously performs the operation in the direction of the arrow V2. Of course, the control device 200 may rotate the robot 100 so that the front side of the robot 100 is directed to the installation position of the sonar.

このとき、制御装置200は、第1スピーカ130から報知情報に含まれる「後ろに気をつけて」というテキスト音声データを発話出力させる。 At this time, the control device 200 causes the first speaker 130 to utter and output the text voice data “Caution behind” included in the notification information.

車両後方に障害物がある場合、その障害物が若干右側又は左側に存在するとしても、ロボット100に対する角度が比較的小さいので、ロボット100の動作量(回転量)が小さいため、ユーザにはその動作が分かりにくい。これに対し、本実施形態では、ロボット100の正面を、実際の障害物ではなく、後方障害物を検出した対象センサー300nの方向に向かせることにより、その動作量(回転量)を大きくすることができるので、後方障害物がどの方向に存在するのかを正確に伝達することができる。   If there is an obstacle behind the vehicle, even if the obstacle is slightly on the right or left side, the angle with respect to the robot 100 is relatively small, so the amount of movement (rotation amount) of the robot 100 is small. Operation is difficult to understand. On the other hand, in the present embodiment, the movement amount (rotation amount) is increased by directing the front of the robot 100 toward the target sensor 300n that detects the rear obstacle instead of the actual obstacle. Therefore, it is possible to accurately communicate in which direction the rear obstacle exists.

ここで、ロボット100の擬似視界にソナー6又はソナー6の検出範囲は含まれるが、ソナー7又はソナー7の検出範囲は含まれない(図10参照)。つまり、ロボット100は、ソナー7により検出される追い越し車両を見る(擬似的に見る)ことはできない。このため、ロボット100がソナー7又はソナー7の検出範囲を向く動作だけでは、ドライバは、その動作の意味を正確に理解することができない。このため、制御装置200は、ロボット100の正面側を矢印M2方向に向けるタイミングで、ソナー7の近傍に設置したブザー7を鳴らし及び/又はランプ7を点灯させる。このように、ロボット100がソナー7又はソナー7の検出領域を見るタイミングで、ソナー7近傍のブザー7を鳴らし及び/又はランプ7を点灯することにより、ロボット100の動作とブザー7及び/又はランプ7の動作とを連携させることができ、ドライバに報知情報の内容(車両後方に障害物がある)ことを正確に伝達することができる。 Here, the sonar 6 or the detection range of the sonar 6 is included in the pseudo view of the robot 100, but the detection range of the sonar 7 or the sonar 7 is not included (see FIG. 10). That is, the robot 100 cannot see (pseudo-view) the overtaking vehicle detected by the sonar 7. Therefore, the driver cannot accurately understand the meaning of the operation only by the operation in which the robot 100 faces the sonar 7 or the detection range of the sonar 7. For this reason, the control device 200 sounds the buzzer 7 installed in the vicinity of the sonar 7 and / or turns on the lamp 7 at the timing when the front side of the robot 100 is directed in the direction of the arrow M2. In this way, the operation of the robot 100 and the buzzer 7 and / or lamp are activated by sounding the buzzer 7 near the sonar 7 and / or turning on the lamp 7 at the timing when the robot 100 views the sonar 7 or the detection region of the sonar 7. 7 can be linked with each other, and the content of the notification information (there is an obstacle behind the vehicle) can be accurately transmitted to the driver.

続いて、本実施形態の情報提供システム1000の制御手順を説明する。図13は、本実施形態の情報提供装置1000の処理を説明するためのフローチャート図である。 Subsequently, a control procedure of the information providing system 1000 according to the present embodiment will be described. FIG. 13 is a flowchart for explaining processing of the information providing apparatus 1000 according to the present embodiment.

制御装置200は、車両のエンジンがかけられ、車載装置及びロボット100が動作できる状態になったら、処理を開始する。 The control device 200 starts the process when the vehicle engine is started and the in-vehicle device and the robot 100 can operate.

ステップS101において、制御装置200は、センサー300が車両の周囲における状況の変化が検出されたか否かを監視する。特に検出情報の入力がない場合は、ループ(待機)する。ステップS101において、センサー300から検出情報及びセンサー300の識別情報の入力があった場合はステップS102へ進む。このとき、状況の変化を検出した対象センサー300nを識別情報により特定する。 In step S101, the control device 200 monitors whether the sensor 300 detects a change in the situation around the vehicle. When no detection information is input, a loop (standby) is performed. In step S101, when detection information and identification information of sensor 300 are input from sensor 300, the process proceeds to step S102. At this time, the target sensor 300n that has detected the change in the situation is specified by the identification information.

ステップS102において、制御装置200は、検出された情報に基づいて、ロボット100を動作させるか否かを判断する。本実施形態では、ロボット100を動作させる検出情報を予め定義する。つまり、すべての検出情報をロボット100に提供させるのではなく、ロボット100の動作により提供することが好ましい検出情報を予め定義する。ロボット100を動作させる必要がない場合は再び、次の検出情報を取得する待機する。ステップS102において、ロボット100を動作させるべき検出情報の入力があった場合はステップS103へ進む。 In step S <b> 102, the control device 200 determines whether to operate the robot 100 based on the detected information. In this embodiment, detection information for operating the robot 100 is defined in advance. That is, detection information that is preferably provided not by causing the robot 100 to provide all detection information but by the operation of the robot 100 is defined in advance. If it is not necessary to operate the robot 100, it waits again to acquire the next detection information. In step S102, when there is input of detection information for operating the robot 100, the process proceeds to step S103.

ステップS103において、制御装置200は、図10に例示するセンサー情報を参照し、ステップS101で取得したセンサー300の識別情報に基づいて、対象センサー300nの検出範囲に応じた所定の方向、及び/又は対象センサー300nの設置位置を取得する。このとき、予め定義された対象センサー300nに基づいて、ロボット100の基準方向に対する対象センサー300nの検出範囲に応じた所定の方向の角度、すなわちロボット100の回転角度を取得する。   In step S103, the control device 200 refers to the sensor information illustrated in FIG. 10, and based on the identification information of the sensor 300 acquired in step S101, a predetermined direction according to the detection range of the target sensor 300n, and / or The installation position of the target sensor 300n is acquired. At this time, an angle in a predetermined direction corresponding to the detection range of the target sensor 300n with respect to the reference direction of the robot 100, that is, the rotation angle of the robot 100 is acquired based on the target sensor 300n defined in advance.

続くステップS104において、制御装置200は、図10に例示するセンサー情報の視認可否情報を参照し、対象センサー300nが検出した車両周囲の状況の変化の対象がロボット100から見えるか否かを判断する。ロボット100がその状況の変化の対象を視認可能であると判断する場合はステップS106へ進み、視認不可能であると判断する場合はステップS105へ進む。   In subsequent step S104, the control device 200 refers to the viewing approval / denial information of the sensor information illustrated in FIG. 10 and determines whether or not the target of the change in the situation around the vehicle detected by the target sensor 300n is visible from the robot 100. . When the robot 100 determines that the subject of the change in the situation is visible, the process proceeds to step S106, and when it is determined that the robot 100 cannot visually recognize, the process proceeds to step S105.

ステップS106において、制御装置200は、ロボット100の正面側が対象センサー300nの検出範囲に応じた所定の方向を向くように、ロボット100を動作させる。ロボット100は、その顔を対象センサー300nの検出範囲に対応する方向又は対象センサー300nの設置位置の方向に向ける。 In step S106, the control device 200 operates the robot 100 so that the front side of the robot 100 faces a predetermined direction according to the detection range of the target sensor 300n. The robot 100 turns its face in the direction corresponding to the detection range of the target sensor 300n or the direction of the installation position of the target sensor 300n.

このステップS106に並行して、ステップS105において、制御装置200は、その対象センサー300nの近傍に設置したブザー131及び/又は第2ランプ141の動作命令を生成し、ブザー131及び/又は第2ランプ141へ送出する。 In parallel with step S106, in step S105, the control device 200 generates an operation command for the buzzer 131 and / or the second lamp 141 installed in the vicinity of the target sensor 300n, and the buzzer 131 and / or the second lamp. 141.

これにより、ロボット100がその顔を対象センサー300nの検出範囲に対応する方向又は対象センサー300nの設置位置の方向に向けると同時又はその直後に、センサー300の近傍に設置されたブザー131が鳴り及び/又は第2ランプ141が点灯する。ドライバは、ロボット100の動作と、ブザー131及び/又は第2ランプ141の動作により、報知情報の内容(どこで障害物が検出されたか)を正確に伝達することができる。 As a result, the buzzer 131 installed in the vicinity of the sensor 300 sounds at the same time or immediately after the robot 100 turns its face in the direction corresponding to the detection range of the target sensor 300n or the direction of the installation position of the target sensor 300n. / Or the second lamp 141 is turned on. The driver can accurately transmit the content of the notification information (where an obstacle has been detected) by the operation of the robot 100 and the operation of the buzzer 131 and / or the second lamp 141.

次に、本実施形態に係る3つの変形例を説明する。これらの変形例は、上述した表示体としてのロボット100に代えて、他のデバイスを用い他場合の例である。すなわち、所定の方向を指し示す動作を行う動作物を映像等で示す点のみが異なり、その他の制御処理及び制御処理に必要な構成は上述の情報提供装置1000と共通する。 Next, three modifications according to this embodiment will be described. These modified examples are examples in which other devices are used instead of the robot 100 as the display body described above. That is, the only difference is that an operation object that performs an operation pointing in a predetermined direction is indicated by an image or the like.

以下の説明では、異なる点を中心に説明する。 The following description will focus on the different points.

<第1変形例>
第1変形例に係る情報提供システムは、対象センサーの検出範囲に応じた所定の方向を提示する立体ディスプレイ3100と、その制御を行う立体ディスプレイ制御装置3200を備える。
<First Modification>
The information providing system according to the first modification includes a three-dimensional display 3100 that presents a predetermined direction according to the detection range of the target sensor, and a three-dimensional display control device 3200 that controls the three-dimensional display 3100.

立体ディスプレイ3100は、立体形状の表示画面に表示される動作体の向きにより所定の方向を示す情報を表示する。   The three-dimensional display 3100 displays information indicating a predetermined direction depending on the orientation of the operating body displayed on the three-dimensional display screen.

図14は、立体ディスプレイ3100の一例を示す図である。図14(A)は立体ディスプレイ3100の構成の概要図であり、図14(B)は立体ディスプレイ3100の平面図である。   FIG. 14 is a diagram illustrating an example of the three-dimensional display 3100. 14A is a schematic diagram of a configuration of the stereoscopic display 3100, and FIG. 14B is a plan view of the stereoscopic display 3100.

図14(A)に示すように、立体ディスプレイ3100は、中空の半球形状の投射面3102と、動作体の映像を再生する再生装置3103と、投射用の光源3104と、再生装置3103を回転させる回転駆動部3105とを有する。また、ベース部3106はこれらを支持するとともに、スピーカ、立体ディスプレイ制御装置3200として機能するCPU及びメモリを収納する。   As shown in FIG. 14A, the three-dimensional display 3100 rotates a hollow hemispherical projection surface 3102, a playback device 3103 that plays back an image of an operating body, a light source 3104 for projection, and a playback device 3103. A rotation drive unit 3105. The base unit 3106 supports them, and houses a speaker, a CPU that functions as the stereoscopic display control device 3200, and a memory.

投射面3102は光透過性を有し、再生装置3103により投射された動作体の映像は投射面3102の外側から視認できる。   The projection surface 3102 has light transmittance, and an image of the operating body projected by the playback device 3103 can be viewed from the outside of the projection surface 3102.

再生装置3103は、回転駆動部3105の駆動により、立体ディスプレイ3100の設置面に対して略垂直方向に沿う回転軸G廻りに回転する。再生装置3103が回転すると、投射面3120に投射された動作体の映像も回転する。   The playback device 3103 rotates around a rotation axis G along a substantially vertical direction with respect to the installation surface of the 3D display 3100 by driving the rotation driving unit 3105. When the playback device 3103 rotates, the image of the operating body projected on the projection surface 3120 also rotates.

再生装置3103の回転により、任意の方向を向く動物などの動作体を投射面3120に映し出すことができる。また、再生装置3103は、投射する映像を切り替える映像切換機能を有する。再生装置3103は、立体ディスプレイ制御装置3200の制御命令に従い、異なる態様の動作体の映像を再生する。   By the rotation of the playback device 3103, an action body such as an animal facing in an arbitrary direction can be displayed on the projection surface 3120. Further, the playback device 3103 has a video switching function for switching the video to be projected. The playback device 3103 plays back the video of the operating body in a different mode in accordance with the control command of the stereoscopic display control device 3200.

動作体の映像の態様は特に限定されないが、図14(B)に示すように、人の目に似せた目部材e1,e2を含ませることができる。目部材e1,e2を設けることにより、動作体の正面側を定義することができ、対象センサー300nの方向にその正面を向けることにより、対象センサーの300の検出範囲に応じた方向を示すことができる。   Although the mode of the moving body image is not particularly limited, as shown in FIG. 14B, eye members e1 and e2 resembling human eyes can be included. By providing the eye members e1 and e2, the front side of the operating body can be defined, and by directing the front side in the direction of the target sensor 300n, the direction corresponding to the detection range of the target sensor 300 can be indicated. it can.

立体ディスプレイ制御装置3200は、報知情報を提供する際に、予め定義されたセンサー情報に基づいて、報知情報を生成する起因となる状況の変化を検出した対象センサー300nの検出範囲に応じた方向を示す動作体の映像、たとえば、その正面側を対象センサー300nの検出範囲に応じた方向に向ける映像を投影面3102に表示することができる。 When the stereoscopic display control device 3200 provides the notification information, the stereoscopic display control device 3200 determines the direction according to the detection range of the target sensor 300n that detects the change in the situation that causes the generation of the notification information based on the predefined sensor information. An image of the moving body to be shown, for example, an image in which the front side thereof is directed in a direction corresponding to the detection range of the target sensor 300n can be displayed on the projection surface 3102.

本例の立体ディスプレイ制御装置3200は、上述した制御装置200と同じ機能を備え、同様の処理を行うため、同様の効果を奏する。 The stereoscopic display control device 3200 of the present example has the same functions as the control device 200 described above, and performs the same processing, and thus has the same effect.

<第2変形例>
第2変形例に係る情報提供システムは、対象センサーの検出範囲に応じた所定の方向を示す情報を三次元立体虚像で提示するホログラフィック表示装置4100と、その制御を行うホログラフィック表示制御装置4200を備える。
<Second Modification>
The information providing system according to the second modification includes a holographic display device 4100 that presents information indicating a predetermined direction according to the detection range of the target sensor as a three-dimensional virtual image, and a holographic display control device 4200 that controls the holographic display device 4200. Is provided.

ホログラフィック表示装置4100は、三次元立体虚像により表示される動作体の向きにより所定の方向を示す情報を表示する。   The holographic display device 4100 displays information indicating a predetermined direction according to the direction of the operating body displayed by the three-dimensional stereoscopic virtual image.

図15は、本変形例の情報提供システムのブロック構成図である。図15に示すように、本変形例の情報提供システムは、ホログラフィック表示装置4100と、ホログラフィック表示制御装置4200を有する。   FIG. 15 is a block diagram of an information providing system according to this modification. As illustrated in FIG. 15, the information providing system according to the present modification includes a holographic display device 4100 and a holographic display control device 4200.

さらに、ホログラフィック表示装置4100は、再生光照射装置4110と、ホログラム設定装置4120と、マスタホログラム4130とを有する。   Furthermore, the holographic display device 4100 includes a reproduction light irradiation device 4110, a hologram setting device 4120, and a master hologram 4130.

各構成を説明すると、再生光照射装置4110は、ホログラフィック表示制御装置4200の制御命令に基づいて、マスタホログラム4130を再生するための再生光を、予め準備したマスタホログラム4130へ照射する。再生光の光源としては、ハロゲンランプ、キセノンランプといったランプ、発光ダイオード、半導体レーザなどを用いることができる。   Explaining each configuration, the reproduction light irradiation device 4110 irradiates the master hologram 4130 prepared in advance with reproduction light for reproducing the master hologram 4130 based on a control command of the holographic display control device 4200. As a light source for reproducing light, a lamp such as a halogen lamp or a xenon lamp, a light emitting diode, a semiconductor laser, or the like can be used.

また、マスタホログラム4130は、情報を伝える伝達媒体としての動作体が動作を行う過程を、所定間隔ごとに記録した一又は複数のホログラムである。動作体を本実施形態において説明したロボット100とし、ホログラフィック表示装置4100は動作するロボット100の姿態を三次元虚像により表示してもよい。このマスタホログラムは、ロボット100がその正面側を所定の方向を向ける動作過程を所定間隔ごとに記録した一又は複数のホログラムを含む。   Further, the master hologram 4130 is one or a plurality of holograms in which a process in which an operating body serving as a transmission medium for transmitting information operates is recorded at predetermined intervals. The operating body may be the robot 100 described in the present embodiment, and the holographic display device 4100 may display the appearance of the operating robot 100 as a three-dimensional virtual image. The master hologram includes one or a plurality of holograms in which an operation process in which the robot 100 directs its front side in a predetermined direction is recorded at predetermined intervals.

なお、ホログラムの作成手法は特に限定されず、公知の手法を用いることができる。たとえば、レーザ光をビームスプリッタで2つに分け、一方のレーザ光を動作中の動作体に照射し、動作中の動作体に反射した物体光を得る。他方のレーザ光は参照光として直接記録材料に導く。これら物体光と参照光との干渉縞を記録材料に記録する。   Note that a method for creating a hologram is not particularly limited, and a known method can be used. For example, the laser light is divided into two by a beam splitter, and one of the laser beams is irradiated to the operating body that is operating, and object light reflected by the operating body that is operating is obtained. The other laser light is directly guided to the recording material as reference light. The interference fringes between the object light and the reference light are recorded on the recording material.

本例のマスタホログラム4130は、動作体の一連の動作の過程を所定時間ごとに区切り、各タイミングにおける動作体の静止姿態をマスタホログラム4130として記録する。マスタホログラム4130を、時間の経過に従い順次再生すると、動作体の動作をアニメーションのように表現することができる。動作過程を記録したマスタホログラム4130の数が多いほど、すなわち、各マスタホログラム同士の時間間隔が短いほど、連続した滑らかな動作を表現することができる。   The master hologram 4130 of this example divides a series of operation processes of the operating body at predetermined time intervals, and records the stationary state of the operating body at each timing as the master hologram 4130. When the master hologram 4130 is sequentially reproduced as time passes, the motion of the moving object can be expressed like an animation. The greater the number of master holograms 4130 that record the operation process, that is, the shorter the time interval between the master holograms, the more smooth operation can be expressed.

なお、マスタホログラム4130の記録材料は、ポリビニルカルバゾール、アクリル系等のフォトポリマー、重クロム酸ゼラチン、光レジスト材料などの感光材料を用いることができる。   Note that the recording material of the master hologram 4130 can be a photosensitive material such as polyvinyl carbazole, an acrylic photopolymer, gelatin dichromate, or a photoresist material.

ホログラム設定装置4120は、準備した一又は複数のマスタホログラム4130を、記録時の動作の時間軸に従い、再生光が照射される再生位置に順次設定する。ホログラム設定装置4120が順次設定したマスタホログラム4130に、再生光を順次照射することで、動作体の動きが再生され、所定の動作を行う動作体の三次元虚像を表示することができる。三次元虚像は、フロントガラス部分に表示することができる。また、専用のホログラフィク用表示ユニットをダッシュボード近傍に設けることができる。   The hologram setting device 4120 sequentially sets one or a plurality of prepared master holograms 4130 at the reproduction position where the reproduction light is irradiated according to the time axis of the operation during recording. By sequentially irradiating the reproduction light to the master holograms 4130 set sequentially by the hologram setting device 4120, the motion of the operating body is reproduced, and a three-dimensional virtual image of the operating body performing a predetermined operation can be displayed. The three-dimensional virtual image can be displayed on the windshield part. Also, a dedicated holographic display unit can be provided in the vicinity of the dashboard.

なお、三次元虚像の表示手法は特に限定されず、公知の技術を用いることができる。例えば、特開平9−113845に示される三次元画像表示装置を用いて、所定の方向を示す動作体の三次元虚像を表示することができる。 In addition, the display method of a three-dimensional virtual image is not specifically limited, A well-known technique can be used. For example, a three-dimensional virtual image of an operating body showing a predetermined direction can be displayed using a three-dimensional image display device disclosed in JP-A-9-11845.

ホログラフィック表示制御装置4200は、報知情報を提示する際に、予め定義されたセンサー情報に基づいて、報知情報を生成する起因となる状況の変化を検出した対象センサー300nの検出範囲に応じた方向を向く動作体のマスタホログラムを再生させ、対象センサの存在する方向を向く動作体の三次元虚像をホログラフィック表示装置4100に表示させる。 When the holographic display control device 4200 presents the notification information, the direction according to the detection range of the target sensor 300n that detects the change in the situation that causes the generation of the notification information based on the predefined sensor information. Is reproduced, and a three-dimensional virtual image of the moving object facing the direction in which the target sensor exists is displayed on the holographic display device 4100.

本例のホログラフィック表示制御装置4200は、上述した制御装置200と同じ機能を備え、同様の処理を行うため、同様の効果を奏する。 The holographic display control device 4200 of the present example has the same function as the control device 200 described above and performs the same processing, and thus has the same effect.

<第3変形例>
第3変形例に係る情報提供システムは、対象の存在する方向を示す情報を二次元画像で提示する表示ユニットQとしての二次元ディスプレイと、制御装置200としての画像表示制御装置を備える。この二次元ディスプレイは、二次元画像により表示される動作体の向きにより所定の方向を示す情報を表示する。本例では、ナビゲーション装置400のディスプレイ410を二次元ディスプレイとして用いる。
<Third Modification>
The information providing system according to the third modification includes a two-dimensional display as a display unit Q that presents information indicating the direction in which the target exists as a two-dimensional image, and an image display control device as the control device 200. This two-dimensional display displays information indicating a predetermined direction depending on the orientation of the operating body displayed by the two-dimensional image. In this example, the display 410 of the navigation device 400 is used as a two-dimensional display.

画像表示制御装置は、所定の方向を示す動作体の映像データを記憶し、表示命令に基づいて所定方向を示す動作物を表示する。二次元画像の出力制御手法は特に限定されず通常の手法を用いることができる。   The image display control apparatus stores video data of an operating body indicating a predetermined direction, and displays an operating object indicating the predetermined direction based on a display command. The output control method of the two-dimensional image is not particularly limited, and a normal method can be used.

ディスプレイ410は、報知情報を提示する際に、予め定義されたセンサー情報に基づいて、報知情報を生成する起因となる状況の変化を検出した対象センサー300nの検出範囲に応じた方向を向く動作体の映像を画面に表示する。 The display 410, when presenting the notification information, based on the sensor information defined in advance, the moving body that faces the direction according to the detection range of the target sensor 300n that detects the change in the situation that causes the generation of the notification information Is displayed on the screen.

なお、ここでは動作体の二次元画像をナビゲーション装置400のディスプレイ410に表示する一例を示したが、本発明はこれに限定されるものではない。例えば、フロントガラスに設けられたヘッドアップディスプレイ装置に動作体の二次元画像を投影しても良い。   Although an example in which a two-dimensional image of the moving object is displayed on the display 410 of the navigation device 400 is shown here, the present invention is not limited to this. For example, a two-dimensional image of the operating body may be projected on a head-up display device provided on the windshield.

本例の画像表示制御装置は、上述した制御装置200と同じ機能を備え、同様の処理を行うため、同様の効果を奏する。 The image display control device of the present example has the same functions as the control device 200 described above and performs the same processing, and thus has the same effects.

本実施形態の情報提供システム1000は、以上のように構成され、機能するので、以下の効果を奏する。   Since the information providing system 1000 according to the present embodiment is configured and functions as described above, the following effects can be obtained.

本実施形態の情報提供装置1000によれば、状況の変化を検出したセンサー300の検出範囲の方向をロボット100(表示体)の動作により示すことができるので、情報の内容をユーザに正確に伝達することができる。 According to the information providing apparatus 1000 of the present embodiment, the direction of the detection range of the sensor 300 that detects the change in the situation can be indicated by the operation of the robot 100 (display body), so that the information content can be accurately transmitted to the user. can do.

すなわち、本実施形態の情報提供装置1000は、車両に搭載されたロボット100に、車両周囲の状況の変化が検出された対象センサー300nの検出範囲に応じた所定の方向を指し示す動作を実行させるので、ロボット100を障害物の方向に向かせるよりもロボット100の動作量を大きくすることができ、情報の内容をユーザに正確に伝達することができる。 That is, the information providing apparatus 1000 according to the present embodiment causes the robot 100 mounted on the vehicle to execute an operation indicating a predetermined direction according to the detection range of the target sensor 300n in which a change in the situation around the vehicle is detected. The amount of movement of the robot 100 can be made larger than when the robot 100 is directed toward the obstacle, and the contents of information can be accurately transmitted to the user.

つまり、本実施形態の情報提供装置1000は、ロボット100に、障害物を検出したセンサー300の検出範囲に応じた方向を指示させることにより、センサー300が検出した障害物の位置を指示させる場合よりも、ユーザに障害物の方向を分かりやすく示すことができる。 That is, the information providing apparatus 1000 according to the present embodiment causes the robot 100 to instruct the position of the obstacle detected by the sensor 300 by instructing the direction corresponding to the detection range of the sensor 300 that detected the obstacle. In addition, the direction of the obstacle can be easily shown to the user.

また、本実施形態の情報提供装置1000は、ロボット100の正面側が対象センサー300nの検出範囲に応じた所定の方向を向くように、ロボット100を動作させるので、ロボット100の顔の向きにより、対象センサー300nの検出範囲に応じた所定の方向を指し示すことができ、情報の内容をユーザに正確に伝達することができる。 In addition, the information providing apparatus 1000 according to the present embodiment operates the robot 100 so that the front side of the robot 100 faces a predetermined direction corresponding to the detection range of the target sensor 300n. A predetermined direction corresponding to the detection range of the sensor 300n can be indicated, and the contents of information can be accurately transmitted to the user.

また、本実施形態の情報提供装置1000は、センサー300の識別情報と、所定の座標系におけるロボット100に対するセンサー300の検出範囲に応じた所定の方向とが予め対応づけられたセンサー情報を参照し、特定された対象センサー300nの識別情報に基づいてロボット100の位置を基準とする対象センサー300nの検出範囲に応じた所定の方向を求めて、その求められた対象センサーの検出範囲に応じた所在の方向を指し示す動作を実行させるので、上述した作用を奏し、同様の効果を奏する。 Further, the information providing apparatus 1000 according to the present embodiment refers to sensor information in which identification information of the sensor 300 and a predetermined direction corresponding to the detection range of the sensor 300 with respect to the robot 100 in a predetermined coordinate system are associated in advance. Based on the identified identification information of the target sensor 300n, a predetermined direction corresponding to the detection range of the target sensor 300n based on the position of the robot 100 is obtained, and the location corresponding to the obtained detection range of the target sensor Since the operation indicating the direction is executed, the above-described action is obtained and the same effect is obtained.

また、本実施形態の情報提供装置1000は、各センサー300の近傍に設けられたブザー131及び/または第2ランプ141をさらに有し、ロボット100の正面側が対象センサー300nの検出範囲に応じた所在の方向を向くようにロボット100を動作させるとともに、対象センサー300nの近傍に設けられたブザー131及び/または第2ランプ141を出力させる。これにより、ロボット100の動作とブザー131及び/または第2ランプ141の動作とを協働させることにより、対象センサー300nの検出範囲に応じた所定の方向をより正確にユーザに伝達することができる。 The information providing apparatus 1000 according to the present embodiment further includes a buzzer 131 and / or a second lamp 141 provided in the vicinity of each sensor 300, and the front side of the robot 100 is located according to the detection range of the target sensor 300n. The robot 100 is operated so as to be directed in the direction, and the buzzer 131 and / or the second lamp 141 provided in the vicinity of the target sensor 300n is output. Thereby, by cooperating the operation of the robot 100 and the operation of the buzzer 131 and / or the second lamp 141, a predetermined direction corresponding to the detection range of the target sensor 300n can be more accurately transmitted to the user. .

特に、ロボット100と検出領域との間にシートなどの視界を遮蔽する物があり、ロボット100の擬似視界に明らかに含まれない検出領域について、ロボット100の回転動作のみにより報知するとユーザに違和感を与えるが、ロボット100の動作とともに、ブザー131及び/または第2ランプ141の動作とを協働させることにより、対象センサー300nの検出範囲に応じた所定の方向をより正確にユーザに伝達することができる。 In particular, there is an object that shields the field of view, such as a sheet, between the robot 100 and the detection area, and the user feels uncomfortable when the detection area that is not clearly included in the pseudo field of view of the robot 100 is notified only by the rotation of the robot 100 However, by cooperating with the operation of the robot 100 and the operation of the buzzer 131 and / or the second lamp 141, a predetermined direction corresponding to the detection range of the target sensor 300n can be more accurately transmitted to the user. it can.

また、本実施形態の情報提供装置1000は、特定された対象センサー300nの検出範囲に応じた所定の方向は、特定された対象センサー300nの設置位置に応じた所定の方向を含むようにする場合は、上述した作用を奏し、同様の効果を奏する。 In the information providing apparatus 1000 according to the present embodiment, the predetermined direction according to the detection range of the specified target sensor 300n includes a predetermined direction according to the installation position of the specified target sensor 300n. Produces the above-described action and produces the same effect.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

すなわち、本明細書では、本発明に係る情報提供システムの一態様として情報提供システム1000を例にして説明するが、本発明はこれに限定されるものではない。   That is, in this specification, the information providing system 1000 is described as an example of the information providing system according to the present invention, but the present invention is not limited to this.

また、本明細書では、本発明に係る情報提供装置の一態様として、CPU202、ROM201、RAM203を含む制御装置200を備える情報提供システム1000を一例として説明するが、これに限定されるものではない。   In this specification, an information providing system 1000 including the control device 200 including the CPU 202, the ROM 201, and the RAM 203 is described as an example of the information providing apparatus according to the present invention. However, the present invention is not limited to this. .

また、本明細書では、本発明に係る情報提供システムの一態様として表示ユニットQと制御装置200と、センサー300を備える装置を例にして説明するが、本発明はこれに限定されるものではない。 In this specification, an example of an apparatus including the display unit Q, the control device 200, and the sensor 300 will be described as an aspect of the information providing system according to the present invention. However, the present invention is not limited to this. Absent.

また、本明細書では、表示体の一態様として、ロボット100、立体ディスプレイ3100、ホログラフィック表示装置4100、二次元ディスプレイを例にして説明するが、本発明の表示体はこれらに限定されるものではない。   In this specification, the robot 100, the three-dimensional display 3100, the holographic display device 4100, and the two-dimensional display will be described as an example of the display body. However, the display body of the present invention is limited to these. is not.

また、本明細書では、本願発明に係るセンサーと、情報生成手段と、表示体と、動作制御手段とを有する情報提供装置の一態様として、カメラ310又は超音波センサー320(ソナー321を含む)と、ロボット100と、情報生成機能と動作制御機能とを有する制御装置200とを備えた情報提供システム1000を例にして説明するが、本発明はこれに限定されるものではない。 In this specification, a camera 310 or an ultrasonic sensor 320 (including a sonar 321) is provided as an embodiment of an information providing apparatus including a sensor according to the present invention, an information generation unit, a display body, and an operation control unit. The information providing system 1000 including the robot 100 and the control device 200 having an information generation function and an operation control function will be described as an example. However, the present invention is not limited to this.

Q…表示ユニット
100…ロボット、立体物
110…動作制御装置
120…ロボット回転駆動機構
130…第1スピーカ
140…第1ランプ
200…制御装置
300…センサー
310…カメラ
320…超音波センサー
321…ソナー
400…ナビゲーション装置
500…車両コントローラ
501…車速センサー
502…タイマー
3100…立体ディスプレイ
3200…立体ディスプレイ表示制御装置
4100…ホログラフィック表示装置
4200…ホログラフィック表示制御装置
Q ... Display unit 100 ... Robot, three-dimensional object 110 ... Motion control device 120 ... Robot rotation drive mechanism 130 ... First speaker 140 ... First lamp 200 ... Control device 300 ... Sensor 310 ... Camera 320 ... Ultrasonic sensor 321 ... Sonar 400 ... Navigation device 500 ... Vehicle controller 501 ... Vehicle speed sensor 502 ... Timer 3100 ... 3D display 3200 ... 3D display display control device 4100 ... Holographic display device 4200 ... Holographic display control device

Claims (6)

車両に搭載される情報提供装置であって、
前記車両の周囲における状況の変化を検出するセンサーと、
前記センサーにより状況の変化が検出された場合は、前記状況の変化をユーザに知らせる報知情報を生成する情報生成手段と、
前記生成された報知情報を前記車両の乗員に提供する表示体と、
前記表示体の動作を制御する動作制御手段と、を備え、
前記動作制御手段は、前記表示体に前記報知情報を提供させる際に、前記報知情報を生成する起因となる状況の変化が検出されたセンサーを対象センサーとして特定し、前記表示体に、前記特定された対象センサーの検出範囲に応じた所定の方向を指し示す動作を実行させる情報提供装置。
An information providing device mounted on a vehicle,
A sensor for detecting a change in the situation around the vehicle;
When a change in the situation is detected by the sensor, information generating means for generating notification information that notifies the user of the change in the situation;
A display body for providing the generated notification information to an occupant of the vehicle;
Operation control means for controlling the operation of the display body,
The operation control means specifies, as a target sensor, a sensor in which a change in a situation that causes generation of the notification information is detected when the display body provides the notification information, and The information provision apparatus which performs the operation | movement which points out the predetermined direction according to the detection range of the made target sensor.
請求項1に記載の情報提供装置であって、
前記動作制御手段は、前記表示体の正面側が前記対象センサーの検出範囲に応じた所定の方向を向くように、前記表示体を動作させる情報提供装置。
The information providing device according to claim 1,
The information providing apparatus that operates the display body so that the front side of the display body faces a predetermined direction according to a detection range of the target sensor.
請求項2に記載の情報提供装置において、
前記動作制御手段は、前記センサーの識別情報と、前記表示体が配置される車室空間を含む座標系において前記表示体に対する前記センサーの検出範囲に応じた所定の方向とが予め対応づけられたセンサー情報を参照し、
前記特定された対象センサーの識別情報に基づいて前記表示体に対する前記特定された対象センサーの検出範囲に応じた所定の方向を求め、
前記表示体に、前記求められた対象センサーの検出範囲に応じた所在の方向を指し示す動作を実行させる情報提供装置。
In the information provision apparatus of Claim 2,
In the operation control means, identification information of the sensor is associated in advance with a predetermined direction corresponding to a detection range of the sensor with respect to the display body in a coordinate system including a cabin space in which the display body is arranged. Refer to the sensor information,
Obtaining a predetermined direction according to a detection range of the specified target sensor with respect to the display body based on identification information of the specified target sensor;
An information providing apparatus for causing the display to execute an operation indicating a direction of a location corresponding to the obtained detection range of the target sensor.
請求項1〜3の何れか一項に記載の情報提供装置であって、
前記各センサーの近傍に設けられた第2出力手段をさらに有し、
前記動作制御手段は、前記表示体の正面側が前記対象センサーの検出範囲に応じた所在の方向を向くように前記表示体を動作させるとともに、前記対象センサーの近傍に設けられた第2出力手段に前記報知情報を出力させる情報提供装置。
The information providing device according to any one of claims 1 to 3,
A second output means provided in the vicinity of each of the sensors;
The operation control means operates the display body so that a front side of the display body faces a direction corresponding to a detection range of the target sensor, and a second output means provided in the vicinity of the target sensor. An information providing apparatus for outputting the notification information.
請求項1〜4の何れか一項に記載の情報提供装置であって、
前記特定された対象センサーの検出範囲に応じた所定の方向は、前記特定された対象センサーの設置位置に応じた所定の方向を含む情報提供装置。
The information providing device according to any one of claims 1 to 4,
The information providing apparatus including a predetermined direction according to a detection range of the specified target sensor including a predetermined direction according to an installation position of the specified target sensor.
車両に搭載されたセンサーにより車両の周囲における状況の変化が検出された場合に、
前記車両に搭載された表示体に、前記状況の変化が検出された対象センサーの検出範囲に応じた所定の方向を指し示す動作を実行させる情報提供方法。
When a change in the situation around the vehicle is detected by a sensor mounted on the vehicle,
An information providing method for causing a display mounted on the vehicle to perform an operation indicating a predetermined direction according to a detection range of a target sensor in which a change in the situation is detected.
JP2009015102A 2009-01-27 2009-01-27 Information providing device and information providing method Pending JP2010173342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009015102A JP2010173342A (en) 2009-01-27 2009-01-27 Information providing device and information providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009015102A JP2010173342A (en) 2009-01-27 2009-01-27 Information providing device and information providing method

Publications (1)

Publication Number Publication Date
JP2010173342A true JP2010173342A (en) 2010-08-12

Family

ID=42704731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009015102A Pending JP2010173342A (en) 2009-01-27 2009-01-27 Information providing device and information providing method

Country Status (1)

Country Link
JP (1) JP2010173342A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017126221A1 (en) * 2016-01-19 2017-07-27 日産自動車株式会社 Display device control method and display device
JP2019214266A (en) * 2018-06-12 2019-12-19 トヨタ自動車株式会社 Vehicle cockpit
US20220174265A1 (en) * 2020-11-30 2022-06-02 Honda Motor Co., Ltd. Display method and system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017126221A1 (en) * 2016-01-19 2017-07-27 日産自動車株式会社 Display device control method and display device
KR20180094992A (en) * 2016-01-19 2018-08-24 닛산 지도우샤 가부시키가이샤 Display device control method and display device
CN108604413A (en) * 2016-01-19 2018-09-28 日产自动车株式会社 The control method and display device of display device
JPWO2017126221A1 (en) * 2016-01-19 2018-12-06 日産自動車株式会社 Display device control method and display device
KR101999079B1 (en) 2016-01-19 2019-07-10 닛산 지도우샤 가부시키가이샤 Display device control method and display device
US10522041B2 (en) 2016-01-19 2019-12-31 Nissan Motor Co., Ltd. Display device control method and display device
JP2019214266A (en) * 2018-06-12 2019-12-19 トヨタ自動車株式会社 Vehicle cockpit
CN110588348A (en) * 2018-06-12 2019-12-20 丰田自动车株式会社 Vehicle cab
JP7081317B2 (en) 2018-06-12 2022-06-07 トヨタ自動車株式会社 Vehicle cockpit
CN110588348B (en) * 2018-06-12 2023-09-15 丰田自动车株式会社 Cab for vehicle
US20220174265A1 (en) * 2020-11-30 2022-06-02 Honda Motor Co., Ltd. Display method and system
US11968352B2 (en) * 2020-11-30 2024-04-23 Honda Motor Co., Ltd. Display method and system

Similar Documents

Publication Publication Date Title
JP5228716B2 (en) Information presentation system
US10343602B2 (en) Spatial auditory alerts for a vehicle
WO2017064941A1 (en) Notification management device and notification management method
JP6439657B2 (en) Presentation control apparatus and presentation control method
JP5458764B2 (en) Information presentation device
JP6095985B2 (en) Playback apparatus, playback system, playback method, and program
JP6417994B2 (en) Vehicle display control device and vehicle display control method
JP5708669B2 (en) Vehicle display device
JP2017013590A (en) Head-up display device
WO2021079975A1 (en) Display system, display device, display method, and moving device
CN107444257B (en) Method and device for presenting information in vehicle
JP2019167094A (en) Notification management device and notification management program
JP2017149335A (en) Drive support information display device
JP2010173342A (en) Information providing device and information providing method
JP6327034B2 (en) Display control device for vehicle
JP6785451B2 (en) Information presentation system, mobile body, information presentation method and program
US20220242364A1 (en) Vehicle seatbelt device
WO2022085487A1 (en) Camera module, information processing system, information processing method, and information processing device
JP2017013671A (en) Head-up display device
JP2023002810A (en) output device
WO2021166324A1 (en) In-vehicle device, content reproduction method, and program
JP2017109614A (en) Headup display device
JP7334768B2 (en) Presentation control device and presentation control program
JP7088643B2 (en) Information providing device and information providing method
JP2023174695A (en) Image display unit and image display method