JP2010173342A - Information providing device and information providing method - Google Patents
Information providing device and information providing method Download PDFInfo
- Publication number
- JP2010173342A JP2010173342A JP2009015102A JP2009015102A JP2010173342A JP 2010173342 A JP2010173342 A JP 2010173342A JP 2009015102 A JP2009015102 A JP 2009015102A JP 2009015102 A JP2009015102 A JP 2009015102A JP 2010173342 A JP2010173342 A JP 2010173342A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- sensor
- information
- vehicle
- detection range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000001514 detection method Methods 0.000 claims abstract description 102
- 230000008859 change Effects 0.000 claims abstract description 40
- 230000033001 locomotion Effects 0.000 claims description 29
- 238000009434 installation Methods 0.000 claims description 23
- 230000009471 action Effects 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 15
- 230000007246 mechanism Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 239000000463 material Substances 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 108010010803 Gelatin Proteins 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- SOCTUWSJJQCPFX-UHFFFAOYSA-N dichromate(2-) Chemical compound [O-][Cr](=O)(=O)O[Cr]([O-])(=O)=O SOCTUWSJJQCPFX-UHFFFAOYSA-N 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 229920000159 gelatin Polymers 0.000 description 1
- 239000008273 gelatin Substances 0.000 description 1
- 235000019322 gelatine Nutrition 0.000 description 1
- 235000011852 gelatine desserts Nutrition 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 229920002120 photoresistant polymer Polymers 0.000 description 1
- 229920003227 poly(N-vinyl carbazole) Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
Abstract
Description
本発明は、ロボット等の表示体を用いて、車両の乗員に情報を提供する情報提供装置及び情報提供方法に関する。 The present invention relates to an information providing apparatus and an information providing method for providing information to a vehicle occupant using a display body such as a robot.
報知用立体物を車内に配置し、その身振り等の動作によって情報を乗員に報知するものが知られている(特許文献1参照)。 There is known a system in which a notification three-dimensional object is arranged in a vehicle and information is notified to an occupant by an operation such as gesture (see Patent Document 1).
しかしながら、報知用立体物の動作によって情報を伝達する際に、情報の内容をユーザに正確に伝達できない場合があるという問題があった。 However, when information is transmitted by the operation of the notification three-dimensional object, there is a problem that the content of the information may not be accurately transmitted to the user.
本発明は、車両に搭載された表示体に、車両周囲の状況の変化が検出された対象センサーの検出範囲に応じた所定の方向を指し示す動作を実行させることにより上記課題を解決する。 The present invention solves the above problem by causing a display mounted on a vehicle to execute an operation indicating a predetermined direction according to a detection range of a target sensor in which a change in the situation around the vehicle is detected.
本発明によれば、車両周囲の状況の変化に係る物体の所在方向を指し示す動作を実行させるよりも、表示体の動作量を大きくすることができるので、情報の内容をユーザに正確に伝達することができる。 According to the present invention, it is possible to increase the amount of movement of the display body rather than executing the movement indicating the location direction of the object related to the change in the situation around the vehicle, so that the content of information is accurately transmitted to the user. be able to.
本実施形態に係る情報提供システム1000を図面に基づいて説明する。 An information providing system 1000 according to the present embodiment will be described with reference to the drawings.
本実施形態に係る情報提供システム1000は、車両周囲における障害物の存在及びその存在位置などを知らせる報知情報を、ロボットなどの立体物の動作により提供させる装置である。 The information providing system 1000 according to the present embodiment is a device that provides notification information that informs the presence and location of an obstacle around a vehicle by the action of a three-dimensional object such as a robot.
図1は、本実施形態に係る情報提供システム1000の構成の概要を示す図である。 FIG. 1 is a diagram illustrating an outline of a configuration of an information providing system 1000 according to the present embodiment.
図1に示すように、本実施形態の情報提供システム1000は、車両周辺の状況の変化を検出するセンサー300と、この車両周辺の状況の変化を知らせる報知情報を提供する表示ユニットQと、この表示ユニットQの動作を制御する制御装置200とを備える。
As shown in FIG. 1, the information providing system 1000 according to the present embodiment includes a
本実施形態の表示ユニットQは、報知情報をそのものの動作により表現するロボット100と第2出力装置101を備え、車両周囲における状況の変化を知らせる報知情報を車両の乗員に提供する。
The display unit Q of the present embodiment includes the
このロボット100は、動物を模した立体物、人間または擬人体を模した立体物、手や指などの体の部分を模した立体物、又は矢印形状の立体物などであり、報知情報の内容を、振り向く・見つめる・しゃべる・うなずく等の人の動きと似た動作を行うことによりユーザに知らせる機能を備える。つまり、ロボット100は、障害物その他の報知対象の存在する位置や方向を、ロボット100自身の身振り(動作)により知らせることができる。
The
たとえば、ロボット100は、その回転動作により任意の方向を指し示すことができる。具体的に、ロボット100は、回転によりその正面側(顔)を任意の方向に向けることにより、報知する対象が存在する方向を示すことができる。また、ロボット100は、その手足、指、尾などを任意の方向に向けることにより、報知する対象が存在する方向を示すことができる。
For example, the
図2及び図3は、ロボット100を車両に搭載した場合の例を示す図である。図2及び図3に示すように、本実施形態のロボット100は、車両のダッシュボードの上面に設置される。なお、ロボット100の動作を制御する制御装置200はダッシュボード内部に収納される。
2 and 3 are diagrams illustrating an example in which the
図2及び図3に示すロボット100は、回転軸G廻りに回転し、その正面側fを所定の方向に向けることにより所定の方向を示すことができる。なお、ロボット100の設置位置は乗員の視界領域内であれば良く、例えばフロントピラーなどでも良い。
The
ここでロボット100の具体的な構成について説明する。
Here, a specific configuration of the
図1に示すように、本実施形態のロボット100は、動作制御装置110と、ロボット回転駆動機構120と、第1スピーカ130と、第1ランプ140とを有する。
As shown in FIG. 1, the
ロボット100の動作制御装置110は、制御装置200の制御命令に従い、ロボット回転駆動機構120、第1スピーカ130、及び第1ランプ140を制御する。
The
ロボット回転駆動機構120は、制御装置200から取得した命令に従い、動作制御装置110の制御の下、ロボット100の正面、ロボット100の手足、指、尾の向きなどが所定の方向に向くようにロボット100を回転させる。
The robot
図4(A)及び(B)は、車両に搭載するロボット100の一例を示す図である。図4に示すように、本実施形態のロボット100は、動物や人間のように顔を持つ立体物であり、人の目に似せた目部材e1,e2のある顔の面が正面側fである。
4A and 4B are diagrams illustrating an example of the
ロボット回転駆動機構120は、ロボット100を固定又は係合するベース部121と、ロボット100の回転軸Gと、回転G廻りにロボット本体101を任意の方向又は任意の回転速度で回転させるモータ機構122とを有する。モータ機構122を駆動させることにより、図4(B)に示すように、ロボット100は、回転軸G廻りに回転動作を行う。ロボット回転駆動機構120は、回転軸G廻りにロボット100を所定角度だけ回転させることにより、ロボット100の正面側fを任意の方向に向けることができる。また、ロボット回転駆動機構120は、回転軸G廻りにロボット100を所定の角速度で回転させることができる。
The robot
また、回転軸Gに直交する回転軸廻りにロボット100を回転させる構成をさらに備えてもよい。この機構によれば、ロボット100に人が頷くような動作をさせることができる。
Further, a configuration in which the
また、図4(A)に示すように、ロボット100に、人の手に似せたハンド部材H1,H2と、これらハンド部材H1,H2の先端を、制御装置200からの表示命令に基づいて、上下、左右に動かすハンド駆動機構HK1を設けても良い。なお、ハンド部材H1,H2とともに又はこれに代えてロボット100の頭部に角部を設ける、又はロボット100の背面に尾部を設けることができる。
Further, as shown in FIG. 4 (A), the
なお、ロボット100のロボット回転駆動機構120の構成は限定されず、公知の手段を用いることができる。
Note that the configuration of the robot
さらに、本実施形態では、ロボット100に、情報を音声で出力するための第1スピーカ130を設ける。ロボット100が備える第1スピーカ130は、制御装置200の命令に基づく動作制御装置110の制御の下、報知情報を提供(出力)する。本実施形態のスピーカ130は、テキスト読み上げ機能(TTS(Text To Speech)機能)1301を備え、報知情報に含まれるテキスト情報を読み上げる。ここで報知情報は、車両周囲の他車両、歩行者その他の障害物について、その存在やその存在位置・方向知らせる情報を含む。なお、スピーカ130は、それが備える再生機能により、予め状況の変化に応じて記憶された報知情報の音声情報を再生させてもよい。このように、ロボット100に第1スピーカを設けることにより、ロボット100にしゃべる動作を実行させることができる。
Furthermore, in this embodiment, the
さらにまた、本実施形態では、ロボット100に、照射光を点滅させる第1ランプ140を設ける。本実施形態において、第1ランプ140は、ロボット100の顔の目部材e1,e2の部分に埋め込まれる。ロボット100が備える第1ランプ140は、制御装置200の命令に基づく動作制御装置110の制御の下、報知情報を提供(出力)する。
Furthermore, in the present embodiment, the
動作制御装置110は、制御装置200の命令に基づいて、第1ランプ140に点灯及び消灯を実行させる。例えば、動作制御装置110は、ロボット100を回転させて、その正面側(顔)を所定の方向に向けたタイミングで、目部材e1,e2の第1ランプ140を点灯させる。これにより、第1ランプ140は、ロボット100が向く方向を照射光により指し示すことができる。
The
また、表示ユニットQは、このロボット100とは物理的に分離して設置される第2出力装置101を備える。この第2出力装置101は、第2スピーカ131としてのブザー131nと第2ランプ141nを含む。これらブザー131nと第2ランプ141nは、後述するセンサー300のそれぞれの近傍に設置される。近傍とは、ブザー131n及び/又は第2ランプ141nとセンサー300との距離が所定値未満である位置関係をいう。また、一のセンサー300と一のブザー131n及び/又は第2ランプ141nとの距離が最も短い位置関係にあるセンサー300とブザー131n及び/又は第2ランプ141nとは、近傍位置にある。
In addition, the display unit Q includes a
このブザー131nと第2ランプ141nは、ロボット100とは物理的に一体として構成されるものではないが、ロボット100と同様に、制御装置200の命令に従い動作する。つまり、制御装置200は、ロボット100と第2出力装置101は、制御装置200の命令に従い連携して動作させる。たとえば、制御装置200は、第2スピーカ131としてのブザー131nや第2ランプ141nを、ロボット100の動作に呼応して動作させる。
The buzzer 131n and the second lamp 141n are not physically integrated with the
その他、ロボット100に、マイク、カメラ、接触センサーなど、主にユーザの入力情報を取得する入力デバイスを設けてもよい。
In addition, the
次に、センサー300について説明する。
Next, the
本実施形態のセンサー300は、車両の周囲における状況の変化を検出する機能を備える。このセンサー300は、車両周囲における状況の変化として、自車両が移動することにより自車両の周囲(所定距離範囲)に存在しなかった障害物が存在するようになる変化、他車両、歩行者などの他の物体が移動することにより自車両の周囲(所定距離範囲)に存在しなかった障害物が存在するようになる変化その他の状況の変化を検出する。
The
例えば、センサー300は、隣接する車線を加速走行する他車両(追い越し車両)が自車両に接近することにより、自車両の周囲(所定距離範囲)に他車両が進入するとき、この変化を状況変化として検出する。また、センサー300は、駐車後退時に自車両が障害物に接近し、自車両の周囲(所定距離範囲)に障害物が存在する状態となるとき、この変化を状況変化として検出する。
For example, the
センサー300は、自車両の周囲の状況の変化を検出した場合は、その検出結果とそのセンサー300を識別するための識別情報を対応づけて制御装置200へ送出する。
When the
なお、自車両の周囲、すなわち自車両の所定距離範囲は、検出対象の速度や検出場面に応じて適宜定義することができる。 In addition, the surroundings of the own vehicle, that is, the predetermined distance range of the own vehicle can be appropriately defined according to the speed of the detection target and the detection scene.
本実施形態のセンサー300は、図1に示すように、カメラ310と超音波センサー320とを有する。
The
カメラ310としては、CCDイメージセンサー(Charge Coupled Device Image Sensor)などの半導体イメージセンサーを用いたもの、赤外線イメージセンサーを用いたもの、その他の画像に基づいて対象物の有無及び/または距離を検出するセンサーを用いることができる。 The camera 310 detects the presence / absence and / or distance of an object based on a semiconductor image sensor such as a CCD image sensor (Charge Coupled Device Image Sensor), an infrared image sensor, or other images. A sensor can be used.
また、超音波センサー320は、超音波信号を用いて物体を検出し、その距離を計測する機能を有するセンサーである。具体的に、センサヘッドから超音波を発信し、対象物体に当たって反射してくる超音波を再度センサヘッドで受信し、この音波の発信から受信までの時間を計測することで対象物の位置を検出する。本実施形態では、車両が備えるソナーシステム(車両の後進時・右左折時の接近防止の警報システム)のセンサーとしても機能するソナー321をセンサー300として使用する。
The ultrasonic sensor 320 is a sensor having a function of detecting an object using an ultrasonic signal and measuring the distance. Specifically, an ultrasonic wave is transmitted from the sensor head, the ultrasonic wave reflected by the target object is received again by the sensor head, and the position of the target object is detected by measuring the time from the transmission of the sound wave to the reception. To do. In this embodiment, a sonar 321 that also functions as a sensor of a sonar system (an alarm system for preventing an approach when the vehicle is moving backward or when turning left or right) is used as the
車両に設けられるソナー321(センサー300)の数は任意に設定できる。図5は、車両に搭載されたセンサー300としてのソナー1〜ソナー7の設置例を示す図である。図5に示すようにソナー1〜7は、車両の前方右側、前方左側、前方中央、運転席ドア、助手席ドア、後方右側、後方左側の位置に、それぞれ設けられる。
The number of sonar 321 (sensor 300) provided in the vehicle can be arbitrarily set. FIG. 5 is a diagram illustrating an installation example of
また、図5に示すように、ソナー1〜7の近傍には、前述の第2出力装置101としてのブザー1〜7(131n)及び/又は第2ランプ1〜7)141nが設ける。センサー300としてのソナー1〜ソナー7の識別情報と、この各ソナー1〜ソナー7の近傍に設けられるブザー1〜7(131n)及び/又は第2ランプ1〜7)141nの識別情報とは予め対応づけられ、ROM201に記憶される。
Further, as shown in FIG. 5,
なお、ソナー1〜ソナー7のいずれか1つ以上をカメラ1〜カメラ7と置換してもよい。
Any one or more of
また、図6は、車両に搭載されたロボット100とソナー1〜7との位置関係、及びソナー1〜7の模擬的な検出範囲を示す図である。図6に示すように、ソナー1〜7はそれぞれ固有の検出範囲を有する。
FIG. 6 is a diagram illustrating a positional relationship between the
続いて、制御装置200について説明する。制御装置200は、表示ユニットQが行う報知情報の提供処理を制御する。つまり、ロボット100の動作及びセンサー300の近傍に設けられたブザーn(第2スピーカ)と第2ランプ141の動作を制御する。
Next, the
図1に示すように、この制御装置200は、表示ユニットQの動作制御を実行するためのプログラムを格納したROM201と、このROM(Read Only Memory )201に格納されたプログラムを実行することで、ロボット制御装置として機能する動作回路としてのCPU(Central Processing Unit)202と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)203と備える。なお、動作回路としては、CPU(Central Processing Unit)に代えて又はこれとともに、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などの動作回路を用いることができる。
As shown in FIG. 1, the
また、図1に示すように、制御装置200は、自車両に搭載されたナビゲーション装置400、車両コントローラ500その他の車載装置とCAN(Controller Area Network)その他の車載LANによって接続され、相互に情報の授受を行う。
Further, as shown in FIG. 1, the
次に、制御装置200が備える処理機能について説明する。制御装置200は、報知情報を生成する情報生成機能と、ロボット100の動作を制御する動作制御機能を備える。この制御装置10は、各機能を実現するためのソフトウェアと、上述したハードウェアの協働により各機能を実行する。
Next, processing functions provided in the
以下、上述した情報提供システム1000の制御装置200が実現する機能についてそれぞれ説明する。
Hereinafter, functions realized by the
まず、制御装置200の情報生成機能について説明する。制御装置200は、センサー300により車両周囲における状況の変化が検出された場合は、状況の変化をユーザに知らせる報知情報を生成する。具体的に、制御装置200は、状況の変化をユーザに知らせるために「障害物の接近」、「障害物の位置」などの伝達内容を含む報知情報を生成する。
First, the information generation function of the
本実施形態の報知情報は、障害物(他車両、路上構造物、歩行者その他の物体)が存在することと、その存在方向の情報を含む。例えば、制御装置200は、センサー300が、隣接する車線を加速走行する他車両(追い越し車両)が自車両の所定距離範囲に他車両が進入したことを検出した場合、他車両が右後方又は左後方から接近しつつあることを知らせる報知情報を生成する。また、制御装置200は、センサー300が駐車後退時に自車両の所定距離範囲に障害物が存在することを検出した場合、右後方、左後方、又は後方中央に障害物があることを知らせる報知情報を生成する。制御装置200は、生成した報知情報をRAM203に記憶する。
The notification information of this embodiment includes the presence of an obstacle (another vehicle, a road structure, a pedestrian, or other object) and information on the direction in which the obstacle exists. For example, when the
なお、この報知情報はセンサー300又はこのセンサー300の検出結果に基づいて走行支援処理を行う走行支援装置により生成されたもの用いて、表示ユニットQが提供する仕様に加工(生成)してもよい。
The notification information may be processed (generated) into specifications provided by the display unit Q using information generated by the
続いて、制御装置200の動作制御機能について説明する。制御装置200は、生成された報知情報を車両の乗員に提供するため、ロボット100と第2出力装置101とを含む表示ユニットQの動作を制御する。
Next, the operation control function of the
制御装置200は、表示ユニットQに報知情報を提供させる際に、情報提供の一手法として、報知情報を生成する起因となる状況の変化が検出されたセンサー300を対象センサー300nとして特定し、ロボット100に対象センサー300nの検出範囲に応じた所定の方向を指し示す動作を実行させる。
When the
制御装置200は、センサー300から検出結果とともに取得したそのセンサー300の識別情報に基づいて、状況の変化を検出したセンサー300を対象センサー300nとして特定する。制御装置200は、その対象センサー300の識別情報に基づいて、その対象センサー300nの種別、設置位置、検出範囲(検出範囲の中心軸の方向、検出範囲に対応する角度)などを取得することができる。
Based on the identification information of the
そして、制御装置200は、ロボット100に対象センサーの検出範囲に応じた所定の方向を指し示す動作を実行させる。
Then, the
ここで「対象センサー300nの検出範囲に応じた所定の方向」について、図7〜9に基づいて説明する。図7〜9は、ロボット100が対象センサーの検出範囲に応じた所定の方向を指し示す動作を説明するための図である。所定の方向を指し示す動作は、ロボット100の正面側をその所定方向に向ける動作、ロボット100の手部材H1、H2(図4参照)をその所定方向に向ける動作、ロボット100の第1スピーカ130に所定方向(後、前、右、左)を発話させる動作、ロボット100の第1ランプ140に、所定方向を照射させる動作などを含む。以下では、ロボット100の正面側をその所定方向に向ける動作を例に、制御装置200の制御手法を説明する。
Here, the “predetermined direction according to the detection range of the target sensor 300n” will be described with reference to FIGS. 7 to 9 are diagrams for explaining an operation in which the
図7に示すように検出範囲に障害物が存在することが検出された際、制御装置200は、所定の回転基準方向にその正面側を向けた状態のロボット100を回転させ、ロボット100にその正面側を検出範囲に応じた所定の方向を向く動作を実行させる。
As shown in FIG. 7, when it is detected that an obstacle exists in the detection range, the
たとえば、制御装置200は、所定の回転基準方向にその正面側を向けた状態のロボット100を回転させ、ロボット100に、その正面側を対象センサー300nの検出範囲中心軸上であって、対象センサー300nから所定距離Kの位置にある基準点Aを向く動作を実行させる。つまり、制御装置200は、ロボット100に図7に示す角度b°分の回転動作を実行させる。また、制御装置200は、ロボット100に、図7に示す回転基準方向0°からb°まで回転する動作を実行させてもよいし、図7に示す回転基準方向0°からb°までの間を往復する動作を実行させてもよい。
For example, the
また、制御装置200は、所定の回転基準方向にその正面側を向けた状態のロボット100を回転させ、ロボット100に、その正面側を対象センサー300nの設置位置の基準点Bを向く動作を実行させる。つまり、制御装置200は、ロボット100に図7に示す角度c°分の回転動作を実行させる。また、制御装置200は、ロボット100に、図7に示す回転基準方向0°からc°まで回転する動作を実行させてもよいし、図7に示す回転基準方向0°からc°までの間を往復する動作を実行させてもよい。
In addition, the
なお、距離Kは、センサー300の検出可能距離に対応させることが好ましい。
Note that the distance K preferably corresponds to the detectable distance of the
ちなみに、図7に示す例において、制御装置200が、所定の回転基準方向にその正面側を向けた状態のロボット100を回転させ、ロボット100に、その正面側を障害物の存在する地点Qを向く動作を実行させた場合、その動作角度はa°となる。上述した回転角度b°及びc°と、回転角度aとの大小関係は、a<b<cとなる。すなわち、本実施形態では、障害物が検出された場合に、ロボット100に、その正面側を検出範囲に応じた所定の方向を向く動作を実行させるので、ロボット100の正面側を障害物が存在する方向に向かせる動作の動作量よりも、ロボット100の動作量をより大きくすることができる。その結果、ロボット100を大きな回転角度で、つまり大きな動作量で動作させることができるので、ドライバにその障害物の存在する方向を正確に知らせることができる。
Incidentally, in the example shown in FIG. 7, the
また、図8に示すように、制御装置200は、ロボット100に、検出範囲中心軸上であって、対象センサー300nから所定距離Kの位置にある基準点Aから対象センサー300nの設置位置の基準点Bを向く動作を実行させる。また、制御装置200は、ロボット100に、図8に示すb°からc°までの間(S1)を往復する動作を実行させてもよい。
Further, as shown in FIG. 8, the
また、図9に示すように、制御装置200は、ロボット100に、検出範囲の一方側の境界上であって、対象センサー300nから所定距離Kの位置にある基準点Cから、検出範囲の他方側の境界上であって対象センサー300nから所定距離Kの位置にある基準点Dまでの間(S2)を往復する動作を実行させてもよい。
Also, as shown in FIG. 9, the
本実施形態では、センサー300の識別情報と、ロボット100が配置される車室空間を含む座標系においてロボット100に対するセンサー300の検出範囲に応じた所定の方向とが予め対応づけられた「センサー情報」を予め定義し、ROM201に記憶する。
In the present embodiment, “sensor information” in which identification information of the
図10は、センサー情報の一例を示す図である。 FIG. 10 is a diagram illustrating an example of sensor information.
図10に示すように、センサー情報は、センサー300の識別情報と検出範囲に応じた方向とが対応づけて定義する。また、検出範囲に応じた方向に対応するロボット100の回転角度を定義してもよい。また、本実施形態では、センサー情報に、検出範囲に応じた所定の方向として、ロボット100に対するセンサー300の設置位置、つまりロボット100から見たセンサー300の設置方向を含ませる。
As shown in FIG. 10, the sensor information is defined by associating the identification information of the
制御装置200は、このセンサー情報を参照し、対象センサー300nの識別情報に基づいて、検出範囲に応じた所定の方向、つまりロボット100を回転させる角度を求めることができる。
The
そして、制御装置200は、求められた対象センサー300nの検出範囲に応じる所在の方向を指し示す動作を、ロボット100に実行させる。
And the
さらに、図10に示すように、センサー情報は、ロボット100の位置から各センサー300又はセンサー300の検出範囲が見えるか否かの視認可否情報を含む。この情報は、後に説明する第2スピーカ131、第2ランプ141の制御に用いられる。
Furthermore, as shown in FIG. 10, the sensor information includes viewing approval / disapproval information indicating whether each
続いて、第2スピーカ131、第2ランプ141の制御について説明する。 Subsequently, control of the second speaker 131 and the second lamp 141 will be described.
制御装置200は、ロボット100の正面側が対象センサー300nの検出範囲に応じた所在の方向を向くようにロボット100を動作させる際に、各センサー300の近傍に設けられた第2スピーカ131及び/又は第2ランプ141に報知情報を出力させる。つまり、制御装置200は、ロボット100の正面側が対象センサー300nの検出範囲に応じた所在の方向を向くようにロボット100を回転させるとともに、各センサー300の近傍に設けられた第2スピーカ131のブザー131nからブザー音を出力させ、及び/又は第2ランプ141に照射光を照射させる。これにより、障害物の存在を報知するにあたり、制御装置200は、ロボット100の正面を障害物が検出された対象センサーの方向を向かせ、その方向でブザーを鳴らし、ランプを点灯させる。ユーザは、ロボット100の動作の基となっているセンサー300の位置を正確に把握することができる。
When the
また、制御装置200は、センサー情報に含まれる「ロボット100の位置から各センサー300又はセンサー300の検出範囲が見えるか否かの視認可否情報」を参照し、ロボット100の位置から対象センサー300n又は対象センサー300nの検出範囲が見えない場合は、ロボット100を動作させる際に、各センサー300の近傍に設けられた第2スピーカ131及び/又は第2ランプ141に報知情報を出力させる。
In addition, the
ところで、ロボット100がその検出範囲に応じた所定方向を向くことにより障害物の存在方向をユーザに報知する場合、ロボット100からその検出範囲が見えていることが前提になる。つまり、ロボット100の目部材e1,e2を基準とする擬似視界に検出範囲が含まれていることが前提となる。ロボット100の目部材e1,e2の擬似視界に明らかに含まれない検出領域や、シートなどによりロボット100の目部材e1,e2の擬似視界が遮られる検出領域について、ロボット100の回転動作のみにより方向を知らせると、ユーザに違和感を与える。すなわち、ユーザがロボット100を擬人化された存在と認識した状態において、ロボット100から見えるはずのない検出領域を指示されても、ユーザはロボット100が何を報知しようとしているのか不明であり、情報を正確に理解することができない。
By the way, when the
このため、本実施形態では、センサー情報に、ロボット100の位置から各センサー300又はセンサー300の検出範囲が見えるか否かの視認可否情報を含ませ、ロボット100の位置から対象センサー300n又は対象センサー300nの検出範囲が見えない場合に、対象センサー近傍のブザー131を鳴らし、第2ランプ141を点灯させる。なお、視認可否情報は、ロボット100の設置位置と車室内の設えに応じて予め定義することができる。
For this reason, in the present embodiment, the sensor information includes visual approval rejection information indicating whether each
次に、制御装置200の2つの処理の具体例を図11及び図12に基づいて説明する。
Next, specific examples of the two processes of the
図11は、追い越し車両を検出した際のロボット100の動作を説明するための図である。ソナー4は、車両の左側に設けられ、左側の追い越し車両の存在を検出する。また、ソナー5は、車両の右側に設けられ、右側の追い越し車両の存在を検出する。
FIG. 11 is a diagram for explaining the operation of the
ここでは、隣接するレーンを走行する他車両について、自車両のドライバに注意を喚起する報知情報を提供する場合を例に説明する。制御装置200は、ソナー4又はソナー5が追い越し車両を検出した場合は、このソナー4又はソナー5を対象センサーとして特定し、ロボット100の正面側を、ソナー4又はソナー5の検出範囲に応じた所定の方向に向かせる動作を実行させる。
Here, a case will be described as an example in which notification information for alerting the driver of the host vehicle is provided for other vehicles traveling in adjacent lanes. When the sonar 4 or the sonar 5 detects the overtaking vehicle, the
本例において、ソナー5が追い越し車両を検出した場合、制御装置200は、ソナー5の検出した情報とソナー5の識別情報を取得し、状況の変化を検出したセンサー300はソナー5(対象センサー)であると特定する。
In this example, when the sonar 5 detects a passing vehicle, the
そして、制御装置200は、ロボット100に、ソナー5の検出範囲に応じた所定の方向を指し示す動作をさせる。具体的に、制御装置200は、ロボット100の正面側を、ソナー5の検出領域の中心軸上であって、ソナー5の設置位置から所定距離にある基準点に向け、その後、ロボット100の正面側をソナーの設置位置に向けるように、ロボット100を回転させる。つまり、ロボット100は、基準方向を向く姿勢から回転し、矢印M1の方向を向いて一時停止又は回転速度を変更し、継続して矢印V1の方向を向く動作を行う。もちろん、制御装置200は、ロボット100の正面側を、ソナーの設置位置に向けるように、ロボット100を回転させてもよい。
Then, the
このとき、制御装置200は、第1スピーカ130から報知情報に含まれる「追い越し車両に気をつけて」というテキスト音声データを発話出力させる。
At this time, the
このような場面において、自車両と追い越し他車両との距離が離れていればいるほど、自車両と他車両の角度差が付きにくく、ロボット100が追い越し他車両の方向を向いても、ロボット100の動作量(回転量)が小さいため、ユーザにはその動作が分かりにくい。これに対し、本実施形態では、ロボット100の正面を、実際の障害物ではなく、他車両を検出した対象センサー300nの方向に向かせることにより、その動作量(回転量)を大きくすることができるので、他車両(障害物)がどの方向に存在するのかを正確に伝達することができる。
In such a scene, as the distance between the own vehicle and the overtaking other vehicle increases, the difference in angle between the own vehicle and the other vehicle is less likely to occur, and even if the
ここで、ロボット100の擬似視界にソナー4又はソナー4の検出範囲は含まれるが、ソナー5又はソナー5の検出範囲は含まれない(図10参照)。つまり、ロボット100は、ソナー5により検出される追い越し車両を見る(擬似的に見る)ことはできない。このため、ロボット100がソナー5又はソナー5の検出範囲を向く動作だけでは、ドライバは、その動作の意味を正確に理解することができない。
Here, the sonar 4 or the detection range of the sonar 4 is included in the pseudo view of the
このため、制御装置200は、ロボット100の正面側を矢印M1方向に向けるタイミングで、ソナー5の近傍に設置したブザー5を鳴らし及び/又はランプ5を点灯させる。このように、ロボット100がソナー5又はソナー5の検出領域を見るタイミングで、ソナー5近傍のブザー5を鳴らし及び/又はランプ5を点灯することにより、ロボット100の動作とブザー5及び/又はランプ5の動作を連携させることができ、ドライバに情報の内容(右後方から追い越し車両が接近している)ことを正確に伝達することができる。
For this reason, the
続いて、図12に基づいて、駐車後退時に車両後方の障害物を検出した際のロボット100の動作を説明する。ソナー6は、車両の左後方に設けられ、車両の左後方の障害物を検出する。また、ソナー7は、車両の右後方に設けられ、車両の右後方の障害物を検出する。
Next, based on FIG. 12, the operation of the
ここでは、後方の障害物について、自車両のドライバに注意を喚起する報知情報を提供する場合を例に説明する。制御装置200は、ソナー6又はソナー7が追い越し車両を検出した場合は、このソナー6又はソナー7を対象センサーとして特定し、ロボット100の正面側を、ソナー6又はソナー7の検出範囲に応じた所定の方向に向かせる動作を実行させる。
Here, a case where notification information for alerting the driver of the host vehicle is provided for an obstacle behind the vehicle will be described as an example. When the sonar 6 or the sonar 7 detects the passing vehicle, the
本例において、ソナー7が後方の障害物を検出した場合、制御装置200は、ソナー7の検出した情報とソナー7の識別情報を取得し、状況の変化を検出したセンサー300はソナー7(対象センサー)であると特定する。
In this example, when the sonar 7 detects a rear obstacle, the
そして、制御装置200は、ロボット100に、ソナー7の検出範囲に応じた所定の方向を指し示す動作をさせる。具体的に、制御装置200は、ロボット100の正面側を、ソナー7の検出領域の中心軸上であって、ソナー7の設置位置から所定距離にある基準点に向け、その後、ロボット100の正面側をソナーの設置位置に向けるように、ロボット100を回転させる。つまり、ロボット100は、基準方向を向く姿勢から回転し、矢印M2の方向を向いて一時停止又は回転速度を変更し、継続して矢印V2の方向を向く動作を行う。もちろん、制御装置200は、ロボット100の正面側を、ソナーの設置位置に向けるように、ロボット100を回転させてもよい。
Then, the
このとき、制御装置200は、第1スピーカ130から報知情報に含まれる「後ろに気をつけて」というテキスト音声データを発話出力させる。
At this time, the
車両後方に障害物がある場合、その障害物が若干右側又は左側に存在するとしても、ロボット100に対する角度が比較的小さいので、ロボット100の動作量(回転量)が小さいため、ユーザにはその動作が分かりにくい。これに対し、本実施形態では、ロボット100の正面を、実際の障害物ではなく、後方障害物を検出した対象センサー300nの方向に向かせることにより、その動作量(回転量)を大きくすることができるので、後方障害物がどの方向に存在するのかを正確に伝達することができる。
If there is an obstacle behind the vehicle, even if the obstacle is slightly on the right or left side, the angle with respect to the
ここで、ロボット100の擬似視界にソナー6又はソナー6の検出範囲は含まれるが、ソナー7又はソナー7の検出範囲は含まれない(図10参照)。つまり、ロボット100は、ソナー7により検出される追い越し車両を見る(擬似的に見る)ことはできない。このため、ロボット100がソナー7又はソナー7の検出範囲を向く動作だけでは、ドライバは、その動作の意味を正確に理解することができない。このため、制御装置200は、ロボット100の正面側を矢印M2方向に向けるタイミングで、ソナー7の近傍に設置したブザー7を鳴らし及び/又はランプ7を点灯させる。このように、ロボット100がソナー7又はソナー7の検出領域を見るタイミングで、ソナー7近傍のブザー7を鳴らし及び/又はランプ7を点灯することにより、ロボット100の動作とブザー7及び/又はランプ7の動作とを連携させることができ、ドライバに報知情報の内容(車両後方に障害物がある)ことを正確に伝達することができる。
Here, the sonar 6 or the detection range of the sonar 6 is included in the pseudo view of the
続いて、本実施形態の情報提供システム1000の制御手順を説明する。図13は、本実施形態の情報提供装置1000の処理を説明するためのフローチャート図である。 Subsequently, a control procedure of the information providing system 1000 according to the present embodiment will be described. FIG. 13 is a flowchart for explaining processing of the information providing apparatus 1000 according to the present embodiment.
制御装置200は、車両のエンジンがかけられ、車載装置及びロボット100が動作できる状態になったら、処理を開始する。
The
ステップS101において、制御装置200は、センサー300が車両の周囲における状況の変化が検出されたか否かを監視する。特に検出情報の入力がない場合は、ループ(待機)する。ステップS101において、センサー300から検出情報及びセンサー300の識別情報の入力があった場合はステップS102へ進む。このとき、状況の変化を検出した対象センサー300nを識別情報により特定する。
In step S101, the
ステップS102において、制御装置200は、検出された情報に基づいて、ロボット100を動作させるか否かを判断する。本実施形態では、ロボット100を動作させる検出情報を予め定義する。つまり、すべての検出情報をロボット100に提供させるのではなく、ロボット100の動作により提供することが好ましい検出情報を予め定義する。ロボット100を動作させる必要がない場合は再び、次の検出情報を取得する待機する。ステップS102において、ロボット100を動作させるべき検出情報の入力があった場合はステップS103へ進む。
In step S <b> 102, the
ステップS103において、制御装置200は、図10に例示するセンサー情報を参照し、ステップS101で取得したセンサー300の識別情報に基づいて、対象センサー300nの検出範囲に応じた所定の方向、及び/又は対象センサー300nの設置位置を取得する。このとき、予め定義された対象センサー300nに基づいて、ロボット100の基準方向に対する対象センサー300nの検出範囲に応じた所定の方向の角度、すなわちロボット100の回転角度を取得する。
In step S103, the
続くステップS104において、制御装置200は、図10に例示するセンサー情報の視認可否情報を参照し、対象センサー300nが検出した車両周囲の状況の変化の対象がロボット100から見えるか否かを判断する。ロボット100がその状況の変化の対象を視認可能であると判断する場合はステップS106へ進み、視認不可能であると判断する場合はステップS105へ進む。
In subsequent step S104, the
ステップS106において、制御装置200は、ロボット100の正面側が対象センサー300nの検出範囲に応じた所定の方向を向くように、ロボット100を動作させる。ロボット100は、その顔を対象センサー300nの検出範囲に対応する方向又は対象センサー300nの設置位置の方向に向ける。
In step S106, the
このステップS106に並行して、ステップS105において、制御装置200は、その対象センサー300nの近傍に設置したブザー131及び/又は第2ランプ141の動作命令を生成し、ブザー131及び/又は第2ランプ141へ送出する。
In parallel with step S106, in step S105, the
これにより、ロボット100がその顔を対象センサー300nの検出範囲に対応する方向又は対象センサー300nの設置位置の方向に向けると同時又はその直後に、センサー300の近傍に設置されたブザー131が鳴り及び/又は第2ランプ141が点灯する。ドライバは、ロボット100の動作と、ブザー131及び/又は第2ランプ141の動作により、報知情報の内容(どこで障害物が検出されたか)を正確に伝達することができる。
As a result, the buzzer 131 installed in the vicinity of the
次に、本実施形態に係る3つの変形例を説明する。これらの変形例は、上述した表示体としてのロボット100に代えて、他のデバイスを用い他場合の例である。すなわち、所定の方向を指し示す動作を行う動作物を映像等で示す点のみが異なり、その他の制御処理及び制御処理に必要な構成は上述の情報提供装置1000と共通する。
Next, three modifications according to this embodiment will be described. These modified examples are examples in which other devices are used instead of the
以下の説明では、異なる点を中心に説明する。 The following description will focus on the different points.
<第1変形例>
第1変形例に係る情報提供システムは、対象センサーの検出範囲に応じた所定の方向を提示する立体ディスプレイ3100と、その制御を行う立体ディスプレイ制御装置3200を備える。
<First Modification>
The information providing system according to the first modification includes a three-
立体ディスプレイ3100は、立体形状の表示画面に表示される動作体の向きにより所定の方向を示す情報を表示する。
The three-
図14は、立体ディスプレイ3100の一例を示す図である。図14(A)は立体ディスプレイ3100の構成の概要図であり、図14(B)は立体ディスプレイ3100の平面図である。
FIG. 14 is a diagram illustrating an example of the three-
図14(A)に示すように、立体ディスプレイ3100は、中空の半球形状の投射面3102と、動作体の映像を再生する再生装置3103と、投射用の光源3104と、再生装置3103を回転させる回転駆動部3105とを有する。また、ベース部3106はこれらを支持するとともに、スピーカ、立体ディスプレイ制御装置3200として機能するCPU及びメモリを収納する。
As shown in FIG. 14A, the three-
投射面3102は光透過性を有し、再生装置3103により投射された動作体の映像は投射面3102の外側から視認できる。
The
再生装置3103は、回転駆動部3105の駆動により、立体ディスプレイ3100の設置面に対して略垂直方向に沿う回転軸G廻りに回転する。再生装置3103が回転すると、投射面3120に投射された動作体の映像も回転する。
The
再生装置3103の回転により、任意の方向を向く動物などの動作体を投射面3120に映し出すことができる。また、再生装置3103は、投射する映像を切り替える映像切換機能を有する。再生装置3103は、立体ディスプレイ制御装置3200の制御命令に従い、異なる態様の動作体の映像を再生する。
By the rotation of the
動作体の映像の態様は特に限定されないが、図14(B)に示すように、人の目に似せた目部材e1,e2を含ませることができる。目部材e1,e2を設けることにより、動作体の正面側を定義することができ、対象センサー300nの方向にその正面を向けることにより、対象センサーの300の検出範囲に応じた方向を示すことができる。
Although the mode of the moving body image is not particularly limited, as shown in FIG. 14B, eye members e1 and e2 resembling human eyes can be included. By providing the eye members e1 and e2, the front side of the operating body can be defined, and by directing the front side in the direction of the target sensor 300n, the direction corresponding to the detection range of the
立体ディスプレイ制御装置3200は、報知情報を提供する際に、予め定義されたセンサー情報に基づいて、報知情報を生成する起因となる状況の変化を検出した対象センサー300nの検出範囲に応じた方向を示す動作体の映像、たとえば、その正面側を対象センサー300nの検出範囲に応じた方向に向ける映像を投影面3102に表示することができる。
When the stereoscopic
本例の立体ディスプレイ制御装置3200は、上述した制御装置200と同じ機能を備え、同様の処理を行うため、同様の効果を奏する。
The stereoscopic
<第2変形例>
第2変形例に係る情報提供システムは、対象センサーの検出範囲に応じた所定の方向を示す情報を三次元立体虚像で提示するホログラフィック表示装置4100と、その制御を行うホログラフィック表示制御装置4200を備える。
<Second Modification>
The information providing system according to the second modification includes a
ホログラフィック表示装置4100は、三次元立体虚像により表示される動作体の向きにより所定の方向を示す情報を表示する。
The
図15は、本変形例の情報提供システムのブロック構成図である。図15に示すように、本変形例の情報提供システムは、ホログラフィック表示装置4100と、ホログラフィック表示制御装置4200を有する。
FIG. 15 is a block diagram of an information providing system according to this modification. As illustrated in FIG. 15, the information providing system according to the present modification includes a
さらに、ホログラフィック表示装置4100は、再生光照射装置4110と、ホログラム設定装置4120と、マスタホログラム4130とを有する。
Furthermore, the
各構成を説明すると、再生光照射装置4110は、ホログラフィック表示制御装置4200の制御命令に基づいて、マスタホログラム4130を再生するための再生光を、予め準備したマスタホログラム4130へ照射する。再生光の光源としては、ハロゲンランプ、キセノンランプといったランプ、発光ダイオード、半導体レーザなどを用いることができる。
Explaining each configuration, the reproduction
また、マスタホログラム4130は、情報を伝える伝達媒体としての動作体が動作を行う過程を、所定間隔ごとに記録した一又は複数のホログラムである。動作体を本実施形態において説明したロボット100とし、ホログラフィック表示装置4100は動作するロボット100の姿態を三次元虚像により表示してもよい。このマスタホログラムは、ロボット100がその正面側を所定の方向を向ける動作過程を所定間隔ごとに記録した一又は複数のホログラムを含む。
Further, the
なお、ホログラムの作成手法は特に限定されず、公知の手法を用いることができる。たとえば、レーザ光をビームスプリッタで2つに分け、一方のレーザ光を動作中の動作体に照射し、動作中の動作体に反射した物体光を得る。他方のレーザ光は参照光として直接記録材料に導く。これら物体光と参照光との干渉縞を記録材料に記録する。 Note that a method for creating a hologram is not particularly limited, and a known method can be used. For example, the laser light is divided into two by a beam splitter, and one of the laser beams is irradiated to the operating body that is operating, and object light reflected by the operating body that is operating is obtained. The other laser light is directly guided to the recording material as reference light. The interference fringes between the object light and the reference light are recorded on the recording material.
本例のマスタホログラム4130は、動作体の一連の動作の過程を所定時間ごとに区切り、各タイミングにおける動作体の静止姿態をマスタホログラム4130として記録する。マスタホログラム4130を、時間の経過に従い順次再生すると、動作体の動作をアニメーションのように表現することができる。動作過程を記録したマスタホログラム4130の数が多いほど、すなわち、各マスタホログラム同士の時間間隔が短いほど、連続した滑らかな動作を表現することができる。
The
なお、マスタホログラム4130の記録材料は、ポリビニルカルバゾール、アクリル系等のフォトポリマー、重クロム酸ゼラチン、光レジスト材料などの感光材料を用いることができる。
Note that the recording material of the
ホログラム設定装置4120は、準備した一又は複数のマスタホログラム4130を、記録時の動作の時間軸に従い、再生光が照射される再生位置に順次設定する。ホログラム設定装置4120が順次設定したマスタホログラム4130に、再生光を順次照射することで、動作体の動きが再生され、所定の動作を行う動作体の三次元虚像を表示することができる。三次元虚像は、フロントガラス部分に表示することができる。また、専用のホログラフィク用表示ユニットをダッシュボード近傍に設けることができる。
The
なお、三次元虚像の表示手法は特に限定されず、公知の技術を用いることができる。例えば、特開平9−113845に示される三次元画像表示装置を用いて、所定の方向を示す動作体の三次元虚像を表示することができる。 In addition, the display method of a three-dimensional virtual image is not specifically limited, A well-known technique can be used. For example, a three-dimensional virtual image of an operating body showing a predetermined direction can be displayed using a three-dimensional image display device disclosed in JP-A-9-11845.
ホログラフィック表示制御装置4200は、報知情報を提示する際に、予め定義されたセンサー情報に基づいて、報知情報を生成する起因となる状況の変化を検出した対象センサー300nの検出範囲に応じた方向を向く動作体のマスタホログラムを再生させ、対象センサの存在する方向を向く動作体の三次元虚像をホログラフィック表示装置4100に表示させる。
When the holographic display control device 4200 presents the notification information, the direction according to the detection range of the target sensor 300n that detects the change in the situation that causes the generation of the notification information based on the predefined sensor information. Is reproduced, and a three-dimensional virtual image of the moving object facing the direction in which the target sensor exists is displayed on the
本例のホログラフィック表示制御装置4200は、上述した制御装置200と同じ機能を備え、同様の処理を行うため、同様の効果を奏する。
The holographic display control device 4200 of the present example has the same function as the
<第3変形例>
第3変形例に係る情報提供システムは、対象の存在する方向を示す情報を二次元画像で提示する表示ユニットQとしての二次元ディスプレイと、制御装置200としての画像表示制御装置を備える。この二次元ディスプレイは、二次元画像により表示される動作体の向きにより所定の方向を示す情報を表示する。本例では、ナビゲーション装置400のディスプレイ410を二次元ディスプレイとして用いる。
<Third Modification>
The information providing system according to the third modification includes a two-dimensional display as a display unit Q that presents information indicating the direction in which the target exists as a two-dimensional image, and an image display control device as the
画像表示制御装置は、所定の方向を示す動作体の映像データを記憶し、表示命令に基づいて所定方向を示す動作物を表示する。二次元画像の出力制御手法は特に限定されず通常の手法を用いることができる。 The image display control apparatus stores video data of an operating body indicating a predetermined direction, and displays an operating object indicating the predetermined direction based on a display command. The output control method of the two-dimensional image is not particularly limited, and a normal method can be used.
ディスプレイ410は、報知情報を提示する際に、予め定義されたセンサー情報に基づいて、報知情報を生成する起因となる状況の変化を検出した対象センサー300nの検出範囲に応じた方向を向く動作体の映像を画面に表示する。 The display 410, when presenting the notification information, based on the sensor information defined in advance, the moving body that faces the direction according to the detection range of the target sensor 300n that detects the change in the situation that causes the generation of the notification information Is displayed on the screen.
なお、ここでは動作体の二次元画像をナビゲーション装置400のディスプレイ410に表示する一例を示したが、本発明はこれに限定されるものではない。例えば、フロントガラスに設けられたヘッドアップディスプレイ装置に動作体の二次元画像を投影しても良い。 Although an example in which a two-dimensional image of the moving object is displayed on the display 410 of the navigation device 400 is shown here, the present invention is not limited to this. For example, a two-dimensional image of the operating body may be projected on a head-up display device provided on the windshield.
本例の画像表示制御装置は、上述した制御装置200と同じ機能を備え、同様の処理を行うため、同様の効果を奏する。
The image display control device of the present example has the same functions as the
本実施形態の情報提供システム1000は、以上のように構成され、機能するので、以下の効果を奏する。 Since the information providing system 1000 according to the present embodiment is configured and functions as described above, the following effects can be obtained.
本実施形態の情報提供装置1000によれば、状況の変化を検出したセンサー300の検出範囲の方向をロボット100(表示体)の動作により示すことができるので、情報の内容をユーザに正確に伝達することができる。
According to the information providing apparatus 1000 of the present embodiment, the direction of the detection range of the
すなわち、本実施形態の情報提供装置1000は、車両に搭載されたロボット100に、車両周囲の状況の変化が検出された対象センサー300nの検出範囲に応じた所定の方向を指し示す動作を実行させるので、ロボット100を障害物の方向に向かせるよりもロボット100の動作量を大きくすることができ、情報の内容をユーザに正確に伝達することができる。
That is, the information providing apparatus 1000 according to the present embodiment causes the
つまり、本実施形態の情報提供装置1000は、ロボット100に、障害物を検出したセンサー300の検出範囲に応じた方向を指示させることにより、センサー300が検出した障害物の位置を指示させる場合よりも、ユーザに障害物の方向を分かりやすく示すことができる。
That is, the information providing apparatus 1000 according to the present embodiment causes the
また、本実施形態の情報提供装置1000は、ロボット100の正面側が対象センサー300nの検出範囲に応じた所定の方向を向くように、ロボット100を動作させるので、ロボット100の顔の向きにより、対象センサー300nの検出範囲に応じた所定の方向を指し示すことができ、情報の内容をユーザに正確に伝達することができる。
In addition, the information providing apparatus 1000 according to the present embodiment operates the
また、本実施形態の情報提供装置1000は、センサー300の識別情報と、所定の座標系におけるロボット100に対するセンサー300の検出範囲に応じた所定の方向とが予め対応づけられたセンサー情報を参照し、特定された対象センサー300nの識別情報に基づいてロボット100の位置を基準とする対象センサー300nの検出範囲に応じた所定の方向を求めて、その求められた対象センサーの検出範囲に応じた所在の方向を指し示す動作を実行させるので、上述した作用を奏し、同様の効果を奏する。
Further, the information providing apparatus 1000 according to the present embodiment refers to sensor information in which identification information of the
また、本実施形態の情報提供装置1000は、各センサー300の近傍に設けられたブザー131及び/または第2ランプ141をさらに有し、ロボット100の正面側が対象センサー300nの検出範囲に応じた所在の方向を向くようにロボット100を動作させるとともに、対象センサー300nの近傍に設けられたブザー131及び/または第2ランプ141を出力させる。これにより、ロボット100の動作とブザー131及び/または第2ランプ141の動作とを協働させることにより、対象センサー300nの検出範囲に応じた所定の方向をより正確にユーザに伝達することができる。
The information providing apparatus 1000 according to the present embodiment further includes a buzzer 131 and / or a second lamp 141 provided in the vicinity of each
特に、ロボット100と検出領域との間にシートなどの視界を遮蔽する物があり、ロボット100の擬似視界に明らかに含まれない検出領域について、ロボット100の回転動作のみにより報知するとユーザに違和感を与えるが、ロボット100の動作とともに、ブザー131及び/または第2ランプ141の動作とを協働させることにより、対象センサー300nの検出範囲に応じた所定の方向をより正確にユーザに伝達することができる。
In particular, there is an object that shields the field of view, such as a sheet, between the
また、本実施形態の情報提供装置1000は、特定された対象センサー300nの検出範囲に応じた所定の方向は、特定された対象センサー300nの設置位置に応じた所定の方向を含むようにする場合は、上述した作用を奏し、同様の効果を奏する。 In the information providing apparatus 1000 according to the present embodiment, the predetermined direction according to the detection range of the specified target sensor 300n includes a predetermined direction according to the installation position of the specified target sensor 300n. Produces the above-described action and produces the same effect.
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
すなわち、本明細書では、本発明に係る情報提供システムの一態様として情報提供システム1000を例にして説明するが、本発明はこれに限定されるものではない。 That is, in this specification, the information providing system 1000 is described as an example of the information providing system according to the present invention, but the present invention is not limited to this.
また、本明細書では、本発明に係る情報提供装置の一態様として、CPU202、ROM201、RAM203を含む制御装置200を備える情報提供システム1000を一例として説明するが、これに限定されるものではない。
In this specification, an information providing system 1000 including the
また、本明細書では、本発明に係る情報提供システムの一態様として表示ユニットQと制御装置200と、センサー300を備える装置を例にして説明するが、本発明はこれに限定されるものではない。
In this specification, an example of an apparatus including the display unit Q, the
また、本明細書では、表示体の一態様として、ロボット100、立体ディスプレイ3100、ホログラフィック表示装置4100、二次元ディスプレイを例にして説明するが、本発明の表示体はこれらに限定されるものではない。
In this specification, the
また、本明細書では、本願発明に係るセンサーと、情報生成手段と、表示体と、動作制御手段とを有する情報提供装置の一態様として、カメラ310又は超音波センサー320(ソナー321を含む)と、ロボット100と、情報生成機能と動作制御機能とを有する制御装置200とを備えた情報提供システム1000を例にして説明するが、本発明はこれに限定されるものではない。
In this specification, a camera 310 or an ultrasonic sensor 320 (including a sonar 321) is provided as an embodiment of an information providing apparatus including a sensor according to the present invention, an information generation unit, a display body, and an operation control unit. The information providing system 1000 including the
Q…表示ユニット
100…ロボット、立体物
110…動作制御装置
120…ロボット回転駆動機構
130…第1スピーカ
140…第1ランプ
200…制御装置
300…センサー
310…カメラ
320…超音波センサー
321…ソナー
400…ナビゲーション装置
500…車両コントローラ
501…車速センサー
502…タイマー
3100…立体ディスプレイ
3200…立体ディスプレイ表示制御装置
4100…ホログラフィック表示装置
4200…ホログラフィック表示制御装置
Q ...
Claims (6)
前記車両の周囲における状況の変化を検出するセンサーと、
前記センサーにより状況の変化が検出された場合は、前記状況の変化をユーザに知らせる報知情報を生成する情報生成手段と、
前記生成された報知情報を前記車両の乗員に提供する表示体と、
前記表示体の動作を制御する動作制御手段と、を備え、
前記動作制御手段は、前記表示体に前記報知情報を提供させる際に、前記報知情報を生成する起因となる状況の変化が検出されたセンサーを対象センサーとして特定し、前記表示体に、前記特定された対象センサーの検出範囲に応じた所定の方向を指し示す動作を実行させる情報提供装置。 An information providing device mounted on a vehicle,
A sensor for detecting a change in the situation around the vehicle;
When a change in the situation is detected by the sensor, information generating means for generating notification information that notifies the user of the change in the situation;
A display body for providing the generated notification information to an occupant of the vehicle;
Operation control means for controlling the operation of the display body,
The operation control means specifies, as a target sensor, a sensor in which a change in a situation that causes generation of the notification information is detected when the display body provides the notification information, and The information provision apparatus which performs the operation | movement which points out the predetermined direction according to the detection range of the made target sensor.
前記動作制御手段は、前記表示体の正面側が前記対象センサーの検出範囲に応じた所定の方向を向くように、前記表示体を動作させる情報提供装置。 The information providing device according to claim 1,
The information providing apparatus that operates the display body so that the front side of the display body faces a predetermined direction according to a detection range of the target sensor.
前記動作制御手段は、前記センサーの識別情報と、前記表示体が配置される車室空間を含む座標系において前記表示体に対する前記センサーの検出範囲に応じた所定の方向とが予め対応づけられたセンサー情報を参照し、
前記特定された対象センサーの識別情報に基づいて前記表示体に対する前記特定された対象センサーの検出範囲に応じた所定の方向を求め、
前記表示体に、前記求められた対象センサーの検出範囲に応じた所在の方向を指し示す動作を実行させる情報提供装置。 In the information provision apparatus of Claim 2,
In the operation control means, identification information of the sensor is associated in advance with a predetermined direction corresponding to a detection range of the sensor with respect to the display body in a coordinate system including a cabin space in which the display body is arranged. Refer to the sensor information,
Obtaining a predetermined direction according to a detection range of the specified target sensor with respect to the display body based on identification information of the specified target sensor;
An information providing apparatus for causing the display to execute an operation indicating a direction of a location corresponding to the obtained detection range of the target sensor.
前記各センサーの近傍に設けられた第2出力手段をさらに有し、
前記動作制御手段は、前記表示体の正面側が前記対象センサーの検出範囲に応じた所在の方向を向くように前記表示体を動作させるとともに、前記対象センサーの近傍に設けられた第2出力手段に前記報知情報を出力させる情報提供装置。 The information providing device according to any one of claims 1 to 3,
A second output means provided in the vicinity of each of the sensors;
The operation control means operates the display body so that a front side of the display body faces a direction corresponding to a detection range of the target sensor, and a second output means provided in the vicinity of the target sensor. An information providing apparatus for outputting the notification information.
前記特定された対象センサーの検出範囲に応じた所定の方向は、前記特定された対象センサーの設置位置に応じた所定の方向を含む情報提供装置。 The information providing device according to any one of claims 1 to 4,
The information providing apparatus including a predetermined direction according to a detection range of the specified target sensor including a predetermined direction according to an installation position of the specified target sensor.
前記車両に搭載された表示体に、前記状況の変化が検出された対象センサーの検出範囲に応じた所定の方向を指し示す動作を実行させる情報提供方法。 When a change in the situation around the vehicle is detected by a sensor mounted on the vehicle,
An information providing method for causing a display mounted on the vehicle to perform an operation indicating a predetermined direction according to a detection range of a target sensor in which a change in the situation is detected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009015102A JP2010173342A (en) | 2009-01-27 | 2009-01-27 | Information providing device and information providing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009015102A JP2010173342A (en) | 2009-01-27 | 2009-01-27 | Information providing device and information providing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010173342A true JP2010173342A (en) | 2010-08-12 |
Family
ID=42704731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009015102A Pending JP2010173342A (en) | 2009-01-27 | 2009-01-27 | Information providing device and information providing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010173342A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017126221A1 (en) * | 2016-01-19 | 2017-07-27 | 日産自動車株式会社 | Display device control method and display device |
JP2019214266A (en) * | 2018-06-12 | 2019-12-19 | トヨタ自動車株式会社 | Vehicle cockpit |
US20220174265A1 (en) * | 2020-11-30 | 2022-06-02 | Honda Motor Co., Ltd. | Display method and system |
-
2009
- 2009-01-27 JP JP2009015102A patent/JP2010173342A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017126221A1 (en) * | 2016-01-19 | 2017-07-27 | 日産自動車株式会社 | Display device control method and display device |
KR20180094992A (en) * | 2016-01-19 | 2018-08-24 | 닛산 지도우샤 가부시키가이샤 | Display device control method and display device |
CN108604413A (en) * | 2016-01-19 | 2018-09-28 | 日产自动车株式会社 | The control method and display device of display device |
JPWO2017126221A1 (en) * | 2016-01-19 | 2018-12-06 | 日産自動車株式会社 | Display device control method and display device |
KR101999079B1 (en) | 2016-01-19 | 2019-07-10 | 닛산 지도우샤 가부시키가이샤 | Display device control method and display device |
US10522041B2 (en) | 2016-01-19 | 2019-12-31 | Nissan Motor Co., Ltd. | Display device control method and display device |
JP2019214266A (en) * | 2018-06-12 | 2019-12-19 | トヨタ自動車株式会社 | Vehicle cockpit |
CN110588348A (en) * | 2018-06-12 | 2019-12-20 | 丰田自动车株式会社 | Vehicle cab |
JP7081317B2 (en) | 2018-06-12 | 2022-06-07 | トヨタ自動車株式会社 | Vehicle cockpit |
CN110588348B (en) * | 2018-06-12 | 2023-09-15 | 丰田自动车株式会社 | Cab for vehicle |
US20220174265A1 (en) * | 2020-11-30 | 2022-06-02 | Honda Motor Co., Ltd. | Display method and system |
US11968352B2 (en) * | 2020-11-30 | 2024-04-23 | Honda Motor Co., Ltd. | Display method and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5228716B2 (en) | Information presentation system | |
US10343602B2 (en) | Spatial auditory alerts for a vehicle | |
WO2017064941A1 (en) | Notification management device and notification management method | |
JP6439657B2 (en) | Presentation control apparatus and presentation control method | |
JP5458764B2 (en) | Information presentation device | |
JP6095985B2 (en) | Playback apparatus, playback system, playback method, and program | |
JP6417994B2 (en) | Vehicle display control device and vehicle display control method | |
JP5708669B2 (en) | Vehicle display device | |
JP2017013590A (en) | Head-up display device | |
WO2021079975A1 (en) | Display system, display device, display method, and moving device | |
CN107444257B (en) | Method and device for presenting information in vehicle | |
JP2019167094A (en) | Notification management device and notification management program | |
JP2017149335A (en) | Drive support information display device | |
JP2010173342A (en) | Information providing device and information providing method | |
JP6327034B2 (en) | Display control device for vehicle | |
JP6785451B2 (en) | Information presentation system, mobile body, information presentation method and program | |
US20220242364A1 (en) | Vehicle seatbelt device | |
WO2022085487A1 (en) | Camera module, information processing system, information processing method, and information processing device | |
JP2017013671A (en) | Head-up display device | |
JP2023002810A (en) | output device | |
WO2021166324A1 (en) | In-vehicle device, content reproduction method, and program | |
JP2017109614A (en) | Headup display device | |
JP7334768B2 (en) | Presentation control device and presentation control program | |
JP7088643B2 (en) | Information providing device and information providing method | |
JP2023174695A (en) | Image display unit and image display method |