JP2012173981A - Display device, display method and display program - Google Patents

Display device, display method and display program Download PDF

Info

Publication number
JP2012173981A
JP2012173981A JP2011035217A JP2011035217A JP2012173981A JP 2012173981 A JP2012173981 A JP 2012173981A JP 2011035217 A JP2011035217 A JP 2011035217A JP 2011035217 A JP2011035217 A JP 2011035217A JP 2012173981 A JP2012173981 A JP 2012173981A
Authority
JP
Japan
Prior art keywords
display
display surface
finger
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011035217A
Other languages
Japanese (ja)
Inventor
Takashi Ogawa
剛史 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2011035217A priority Critical patent/JP2012173981A/en
Publication of JP2012173981A publication Critical patent/JP2012173981A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device, a display method and a display program capable of improving operability in the display device.SOLUTION: A display device 1 comprises: a display 10 that displays information; a detector 13a that detects respective distances between a display surface of the display 10 and plural points of a user's fingers, and respective projection positions of the plural points of the user's fingers on the display surface if the user's fingers are projected onto the display surface along a direction substantially orthogonal to the display surface; and a display control part 13b that determines display positions for object information to be displayed in the display 10 based on the respective distances between the display surface and the plural points of the fingers detected by the detector 13a and the respective projection positions of the plural points of the fingers on the display surface.

Description

本発明は、表示装置、表示方法、及び表示プログラムに関する。   The present invention relates to a display device, a display method, and a display program.

従来、カーナビゲーションやカーオーディオ等の各種車載機器に使用される表示装置において、これら車載機器に対する操作入力を受け付けるためのタッチパネルが用いられている。このタッチパネルは、各種の表示画面を表示するディスプレイの前面に設けられており、このタッチパネルに設定された操作領域の中で、ディスプレイの表示画面の一部として表示された操作ボタンに対応する操作領域が押圧されることで、操作入力を受け付ける。   2. Description of the Related Art Conventionally, in a display device used for various in-vehicle devices such as car navigation and car audio, a touch panel for receiving an operation input to these in-vehicle devices is used. This touch panel is provided in front of a display that displays various display screens. Among the operation areas set on this touch panel, operation areas corresponding to operation buttons displayed as part of the display screen of the display When is pressed, an operation input is accepted.

このようなタッチパネルを用いた表示装置として、例えば、アイコンを画面に描画すると共に、そのアイコンを選択できるようにし、タッチパネルを介した操作入力によりアイコンが選択された場合には、そのアイコンに対応する詳細データをそのアイコンを覆うことのない領域に表示する、情報表示装置が提案されている(例えば、特許文献1参照)。   As a display device using such a touch panel, for example, an icon is drawn on the screen and the icon can be selected. When an icon is selected by an operation input via the touch panel, the icon corresponds to the icon. An information display device that displays detailed data in an area that does not cover the icon has been proposed (see, for example, Patent Document 1).

特開平10−89976号公報Japanese Patent Laid-Open No. 10-89976

しかしながら、上述の如き従来の装置では、詳細データが、当該詳細データに対応するアイコンを覆うことのない領域に表示されるに過ぎず、タッチパネルを介してアイコンを選択した利用者の手指の位置については何ら考慮されていなかった。このため、アイコンを覆うことのない領域であっても、手指の陰となる領域に詳細データが表示されてしまい、利用者が詳細データを十分に視認することができない可能性があった。このように従来の装置においては、視認性にさらなる向上の余地があった。   However, in the conventional apparatus as described above, the detailed data is only displayed in an area that does not cover the icon corresponding to the detailed data, and the position of the finger of the user who selected the icon via the touch panel Was not considered at all. For this reason, even if it is an area | region which does not cover an icon, detailed data will be displayed on the area | region which becomes a shadow of a finger, and there was a possibility that a user could not fully see detailed data. As described above, the conventional apparatus has room for further improvement in visibility.

本発明は、上記に鑑みてなされたものであって、表示装置における情報の視認性を向上させることができる、表示装置、表示方法、及び表示プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a display device, a display method, and a display program that can improve the visibility of information in the display device.

上述した課題を解決し、目的を達成するために、請求項1に記載の表示装置は、情報を表示する表示手段と、前記表示手段の表示面と利用者の手指の複数の部分との各距離と、当該表示面に略直交する方向に沿って当該利用者の手指を当該表示面に投影した場合における当該表示面上での当該手指の複数部分の各投影位置と、を検出する検出手段と、前記検出手段により検出された前記表示面と前記手指の複数の部分との各距離と、当該表示面上での当該手指の複数部分の各投影位置とに基づき、前記表示手段に表示させる対象情報の表示位置を決定する表示制御手段と、を備える。   In order to solve the above-described problems and achieve the object, the display device according to claim 1 includes display means for displaying information, a display surface of the display means, and a plurality of portions of a user's finger. Detection means for detecting the distance and each projection position of a plurality of portions of the finger on the display surface when the user's finger is projected onto the display surface along a direction substantially orthogonal to the display surface And display on the display means based on the distances between the display surface detected by the detection means and the plurality of parts of the fingers and the projection positions of the plurality of parts of the fingers on the display surface. Display control means for determining the display position of the target information.

また、請求項2に記載の表示装置は、請求項1に記載の表示装置において、前記表示制御手段は、前記表示面に最も近い手指の部分の当該表示面上での投影位置を基準位置として、当該手指の他の部分の当該表示面上での投影位置と略点対称となる位置が含まれる領域を、前記対象情報の表示位置として決定する。   The display device according to claim 2 is the display device according to claim 1, wherein the display control unit uses a projection position on the display surface of a finger portion closest to the display surface as a reference position. Then, an area including a position that is substantially point-symmetric with the projection position of the other part of the finger on the display surface is determined as the display position of the target information.

また、請求項3に記載の表示装置は、請求項1又は2に記載の表示装置において、前記検出手段は、前記表示手段の表示面を分割した複数の分割領域毎に、当該分割領域を当該表示面と略直交する方向に沿って投影した範囲内に存在する前記手指の部分と当該分割領域との距離を検出することにより、当該表示面と利用者の手指の複数の部分との各距離と、当該表示面に略直交する方向に沿って当該手指を当該表示面に投影した場合における当該表示面上での当該手指の複数部分の各投影位置と、を検出する。   Further, the display device according to claim 3 is the display device according to claim 1 or 2, wherein the detection unit assigns the divided region to each of a plurality of divided regions obtained by dividing the display surface of the display unit. Each distance between the display surface and a plurality of parts of the user's finger by detecting the distance between the finger part existing in the range projected along the direction substantially orthogonal to the display surface and the divided area And each projection position of a plurality of portions of the finger on the display surface when the finger is projected onto the display surface along a direction substantially orthogonal to the display surface.

また、請求項4に記載の表示装置は、請求項1から3のいずれか一項に記載の表示装置において、前記対象情報は、前記表示面に最も近い手指の部分の当該表示面上での投影位置において前記表示手段により表示されている情報に関連する情報である。   The display device according to claim 4 is the display device according to any one of claims 1 to 3, wherein the target information is a portion of a finger closest to the display surface on the display surface. It is information related to the information displayed by the display means at the projection position.

また、請求項5に記載の表示方法は、情報を表示手段に表示させる表示ステップと、前記表示手段の表示面と利用者の手指の複数の部分との各距離と、当該表示面に略直交する方向に沿って当該利用者の手指を当該表示面に投影した場合における当該表示面上での当該手指の複数部分の各投影位置と、を検出する検出ステップと、前記検出ステップで検出された前記表示面と前記手指の複数の部分との各距離と、当該表示面上での当該手指の複数部分の各投影位置とに基づき、前記表示手段に表示させる対象情報の表示位置を決定する表示制御ステップと、を含む。   According to a fifth aspect of the present invention, there is provided a display method comprising: a display step for displaying information on a display means; distances between the display surface of the display means and a plurality of portions of a user's finger; and substantially orthogonal to the display surface. A detection step of detecting the projection positions of a plurality of portions of the finger on the display surface when the user's finger is projected on the display surface along the direction to be detected, and detected in the detection step A display for determining a display position of target information to be displayed on the display unit based on distances between the display surface and the plurality of parts of the finger and projection positions of the plurality of parts of the finger on the display surface Control steps.

また、請求項6に記載の表示プログラムは、請求項5に記載の方法をコンピュータに実行させる。   A display program according to claim 6 causes a computer to execute the method according to claim 5.

請求項1に記載の表示装置、請求項5に記載の表示方法、及び請求項6に記載の表示プログラムによれば、表示制御手段は、検出手段により検出された表示面と手指の複数の部分との各距離と、表示面上での手指の複数部分の各投影位置とに基づき、表示手段に表示させる対象情報の表示位置を決定するので、手指の陰とならない領域に対象情報を表示させることができ、表示装置における情報の視認性を向上させることができる。   According to the display device according to claim 1, the display method according to claim 5, and the display program according to claim 6, the display control means includes a plurality of parts of the display surface and fingers detected by the detection means. Since the display position of the target information to be displayed on the display means is determined based on the distance between the display area and the projection positions of the plurality of parts of the finger on the display surface, the target information is displayed in an area that is not shaded by the finger. And the visibility of information in the display device can be improved.

また、請求項2に記載の表示装置によれば、表示制御手段は、表示面に最も近い手指の部分の当該表示面上での投影位置を基準位置として、手指の他の部分の表示面上での投影位置と略点対称となる位置が含まれる領域を、対象情報の表示位置として決定するので、手指の陰とならない領域に確実に対象情報を表示させることができ、表示装置における情報の視認性を向上させることができる。   According to the display device of the second aspect, the display control means uses the projection position on the display surface of the part of the finger closest to the display surface as a reference position on the display surface of the other part of the finger. Since the display position of the target information is determined as the display position of the target information, the target information can be reliably displayed in the area that is not shaded by the finger, and the information on the display device can be displayed. Visibility can be improved.

また、請求項3に記載の表示装置によれば、検出手段は、表示手段の表示面を分割した複数の分割領域毎に、分割領域を表示面と略直交する方向に沿って投影した範囲内に存在する手指の部分と当該分割領域との距離を検出することにより、表示面と利用者の手指の複数の部分との各距離と、表示面に略直交する方向に沿って手指を当該表示面に投影した場合における当該表示面上での手指の複数部分の各投影位置とを検出するので、表示面と利用者の手指の複数の部分との各距離と、表示面上での手指の複数部分の各投影位置とを、容易に検出することができる。   According to the display device of claim 3, the detection means is within a range in which the divided areas are projected along a direction substantially orthogonal to the display surface for each of the plurality of divided areas obtained by dividing the display surface of the display means. By detecting the distance between the finger part existing in the screen and the divided area, the finger is displayed along the distance between the display surface and a plurality of parts of the user's finger and the direction substantially orthogonal to the display surface. Since each projection position of a plurality of parts of a finger on the display surface when projected onto a surface is detected, each distance between the display surface and a plurality of parts of the user's finger and the finger on the display surface are detected. Each projection position of a plurality of portions can be easily detected.

また、請求項4に記載の表示装置によれば、対象情報は、表示面に最も近い手指の部分の当該表示面上での投影位置において表示手段により表示されている情報に関連する情報であるので、利用者にとって有用な情報を、手指の陰とならない領域に表示させることができる。   According to the display device of the fourth aspect, the target information is information related to information displayed by the display unit at the projection position on the display surface of the finger portion closest to the display surface. Therefore, information useful for the user can be displayed in an area that is not behind the fingers.

実施の形態1に係る表示装置を例示するブロック図である。3 is a block diagram illustrating a display device according to Embodiment 1. FIG. 表示制御処理のフローチャートである。It is a flowchart of a display control process. 図2に続く表示制御処理のフローチャートである。3 is a flowchart of a display control process following FIG. ディスプレイの表示面を分割した複数の分割領域と利用者の手指の複数の部分との位置関係を概念的に示した斜視図である。It is the perspective view which showed notionally the positional relationship of the several division area which divided | segmented the display surface of a display, and several parts of a user's finger. 手指の各部分の投影位置と点対称領域とを例示した図である。It is the figure which illustrated the projection position and point symmetry area of each part of fingers. 手指の各部分の投影位置と水平線対称領域とを例示した図である。It is the figure which illustrated the projection position of each part of a finger, and a horizontal line symmetrical field. 手指の各部分の投影位置と垂直線対称領域とを例示した図である。It is the figure which illustrated the projection position of each part of a finger, and a perpendicular line symmetrical field. 手指の各部分の投影位置と非検出領域とを例示した図である。It is the figure which illustrated the projection position and non-detection area of each part of fingers. 図2のSA6、9、12、又は13で表示制御部により決定された表示位置に表示された対象情報を例示した図である。It is the figure which illustrated the object information displayed on the display position determined by the display control part by SA6, 9, 12, or 13 of FIG. 表示位置テーブルに格納されている情報を例示した表である。It is the table | surface which illustrated the information stored in the display position table. 実施の形態2に係る表示制御処理のフローチャートである。10 is a flowchart of display control processing according to Embodiment 2; 表示面を分割したエリアを例示した図であり、図12(a)はタッチパネルへの接近が検出された利用者の手が左手の場合に用いられるエリアを示す図、図12(b)はタッチパネルへの接近が検出された利用者の手が右手の場合に用いられるエリアを示す図である。FIGS. 12A and 12B are diagrams illustrating areas obtained by dividing a display surface. FIG. 12A illustrates an area used when a user's hand detected to approach the touch panel is a left hand, and FIG. It is a figure which shows the area used when the user's hand from which the approach to is detected is a right hand. タッチパネルへの接近が検出された利用者の手が左手と特定された場合において、表示面に最も近い手指の部分の当該表示面上での投影位置に基づき決定された対象情報の表示位置を例示した図である。When the user's hand whose proximity to the touch panel is detected is identified as the left hand, the display position of the target information determined based on the projection position on the display surface of the finger part closest to the display surface is illustrated FIG.

以下、本発明に係る表示装置、表示方法、及び表示プログラムの各実施の形態について図面を参照しつつ詳細に説明する。ただし、これらの各実施の形態によって本発明が限定されるものではない。なお、本発明に係る表示装置、表示方法、及び表示プログラムは、任意の目的に使用することができるが、以下の各実施の形態では、カーナビゲーションシステムに適用した例を示す。   Hereinafter, embodiments of a display device, a display method, and a display program according to the present invention will be described in detail with reference to the drawings. However, the present invention is not limited by these embodiments. Although the display device, the display method, and the display program according to the present invention can be used for any purpose, the following embodiments show examples applied to a car navigation system.

〔実施の形態1〕
まず、実施の形態1に係る表示装置について説明する。この実施の形態1は、表示面に最も近い手指の部分の当該表示面上での投影位置を基準位置として、手指の他の部分の表示面上での投影位置と略点対称となる位置が含まれる領域を、対象情報の表示位置として決定する形態である。
[Embodiment 1]
First, the display device according to Embodiment 1 will be described. In the first embodiment, the position of the finger part closest to the display surface is substantially point-symmetric with the projection position of the other part of the finger on the display surface with the projection position on the display surface as a reference position. This is a mode in which the included area is determined as the display position of the target information.

(構成)
最初に、実施の形態1に係る表示装置の構成について説明する。図1は実施の形態1に係る表示装置を例示するブロック図である。この図1に示すように、表示装置1は、ディスプレイ10、タッチパネル11、近接センサ12、制御部13、及びデータ記録部14を備えている。
(Constitution)
First, the configuration of the display device according to Embodiment 1 will be described. FIG. 1 is a block diagram illustrating a display device according to the first embodiment. As shown in FIG. 1, the display device 1 includes a display 10, a touch panel 11, a proximity sensor 12, a control unit 13, and a data recording unit 14.

(構成−ディスプレイ)
ディスプレイ10は、制御部13の制御に基づき、各種の情報を表示する表示手段である。なお、このディスプレイ10の具体的な構成は任意であり、公知の液晶ディスプレイや有機ELディスプレイの如きフラットパネルディスプレイを使用することができる。
(Configuration-Display)
The display 10 is a display unit that displays various information based on the control of the control unit 13. The specific configuration of the display 10 is arbitrary, and a known flat panel display such as a liquid crystal display or an organic EL display can be used.

(構成−タッチパネル)
タッチパネル11は、利用者の指等で押圧されることによって操作入力を受け付ける入力手段である。このタッチパネル11は、透明又は半透明状に形成され、ディスプレイ10の前面において当該ディスプレイ10の表示面と重なり合うように設けられている。このタッチパネル11としては、例えば抵抗膜方式や静電容量方式等による操作位置検出手段を備えた公知のタッチパネルを使用することができる。
(Configuration-touch panel)
The touch panel 11 is an input unit that receives an operation input when pressed by a user's finger or the like. The touch panel 11 is formed to be transparent or translucent, and is provided on the front surface of the display 10 so as to overlap the display surface of the display 10. As the touch panel 11, for example, a publicly known touch panel provided with operation position detecting means by a resistance film method or a capacitance method can be used.

(構成−近接センサ)
近接センサ12は、ディスプレイ10の表示面と利用者の手指の複数の部分との各距離と、ディスプレイ10の表示面に略直交する方向に沿って利用者の手指を当該表示面に投影した場合における当該表示面上での手指の複数部分の各投影位置とを検出する検出手段である。ここで、「ディスプレイ10の表示面」とは、例えばディスプレイ10の表面やタッチパネル11の表面等を意味する。また、「利用者」とは、表示装置1を利用する全ての者を含むが、表示装置1がカーナビゲーションシステムに適用されている場合においては、車両の運転者及び同乗者である。以下では、運転者及び同乗者のうち、その時点において表示装置1を操作している者を「利用者」と称する。この近接センサ12としては、例えば、赤外線式センサ、静電容量式センサ、カメラ等を用いることできる。
(Configuration-Proximity sensor)
The proximity sensor 12 projects the user's fingers on the display surface along the distances between the display surface of the display 10 and a plurality of portions of the user's fingers and the direction substantially orthogonal to the display surface of the display 10. Detecting means for detecting projection positions of a plurality of portions of the finger on the display surface. Here, the “display surface of the display 10” means, for example, the surface of the display 10 or the surface of the touch panel 11. The “users” include all persons who use the display device 1, but when the display device 1 is applied to a car navigation system, they are a driver and a passenger of the vehicle. Hereinafter, among the driver and the passenger, a person who is operating the display device 1 at that time is referred to as a “user”. As the proximity sensor 12, for example, an infrared sensor, a capacitance sensor, a camera, or the like can be used.

特に、タッチパネル11が投影型静電容量方式のタッチパネルである場合には、近接センサ12としてタッチパネル11を用いることができる。この場合、タッチパネル11は、当該タッチパネル11を構成する各センサ電極の静電容量を検出し、制御部13に出力する。以下では、投影型静電容量方式のタッチパネル11を近接センサ12として用いる場合を例として説明する。   In particular, when the touch panel 11 is a projection capacitive touch panel, the touch panel 11 can be used as the proximity sensor 12. In this case, the touch panel 11 detects the capacitance of each sensor electrode constituting the touch panel 11 and outputs it to the control unit 13. Hereinafter, a case where the projected capacitive touch panel 11 is used as the proximity sensor 12 will be described as an example.

(構成−制御部)
制御部13は、表示装置1の各部を制御するための制御手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及びプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである。特に、本実施の形態に係る表示プログラムは、任意の記録媒体又はネットワークを介して表示装置1にインストールされることで、制御部13の各部を実質的に構成する。
(Configuration-control unit)
The control unit 13 is a control unit for controlling each unit of the display device 1. Specifically, the control unit 13 is a CPU, various programs that are interpreted and executed on the CPU (basic control programs such as an OS, and the OS. And a computer configured to include an internal memory such as a RAM for storing programs and various data. In particular, the display program according to the present embodiment is substantially installed in the display device 1 via an arbitrary recording medium or network, thereby substantially configuring each unit of the control unit 13.

この制御部13は、機能概念的に、検出部13a、及び表示制御部13bを備えている。検出部13aは、近接センサ12からの出力に基づき、ディスプレイ10の表示面と利用者の手指の複数の部分との各距離と、ディスプレイ10の表示面に略直交する方向に沿って利用者の手指を当該表示面に投影した場合における当該表示面上での手指の複数部分の各投影位置とを検出する検出手段である。表示制御部13bは、ディスプレイ10に表示させる対象情報の表示位置を決定する表示制御手段である。これらの制御部13の各部によって実行される処理の詳細については後述する。   The control unit 13 includes a detection unit 13a and a display control unit 13b in terms of functional concept. Based on the output from the proximity sensor 12, the detection unit 13 a detects the distance between the display surface of the display 10 and a plurality of portions of the user's fingers and the direction of the user along the direction substantially orthogonal to the display surface of the display 10. It is a detection means which detects each projection position of the several part of the finger on the said display surface at the time of projecting a finger on the said display surface. The display control unit 13 b is a display control unit that determines the display position of the target information to be displayed on the display 10. Details of processing executed by each unit of the control unit 13 will be described later.

(構成−データ記録部)
データ記録部14は、表示装置1の動作に必要なプログラム及び各種のデータを記録する記録手段であり、例えば、外部記憶装置としてのハードディスク(図示省略)の如き磁気的記録媒体を用いて構成されている。ただし、ハードディスクに代えてあるいはハードディスクと共に、フラッシュメモリの如き半導体型記憶媒体、又はDVDやブルーレイディスクの如き光学的記録媒体を含む、その他の任意の記録媒体を用いることができる。
(Configuration-Data recording part)
The data recording unit 14 is a recording unit that records a program and various data necessary for the operation of the display device 1, and is configured using a magnetic recording medium such as a hard disk (not shown) as an external storage device, for example. ing. However, any other recording medium including a semiconductor storage medium such as a flash memory or an optical recording medium such as a DVD or a Blu-ray disk can be used instead of or together with the hard disk.

(処理)
次に、このように構成された表示装置1によって実行される表示制御処理について説明する。図2及び図3は表示制御処理のフローチャートである(以下の各処理の説明ではステップを「S」と略記する)。この表示制御処理は、対象情報が設定されている情報がディスプレイ10に表示されている間、繰り返し実行される。ここで「対象情報」とは、表示制御部13bがディスプレイ10における表示位置を決定する対象となる情報であり、ディスプレイ10により表示されている情報に関連する情報である。例えば、ディスプレイ10に表示されている情報に関する詳細情報(例えば、地点検索画面において複数の地点名がディスプレイ10に表示されている場合における、各地点の所在地や電話番号等の詳細情報)や、ディスプレイ10に表示されている情報に関して実行可能な機能を示す情報(例えば、地図画面において各種施設や登録地点等を示す地点アイコンがディスプレイ10に表示されている場合における、当該地点アイコンの表示位置を目的地として設定する機能や当該地点アイコンを削除する機能等を示す機能アイコン)が、「対象情報」に含まれる。
(processing)
Next, a display control process executed by the display device 1 configured as described above will be described. 2 and 3 are flowcharts of the display control process (in the following description of each process, step is abbreviated as “S”). This display control process is repeatedly executed while information for which target information is set is displayed on the display 10. Here, the “target information” is information on which the display control unit 13b determines the display position on the display 10, and is information related to the information displayed on the display 10. For example, detailed information related to information displayed on the display 10 (for example, detailed information such as the location and telephone number of each location when a plurality of location names are displayed on the display 10 in the location search screen) Information indicating functions that can be executed with respect to the information displayed on the display 10 (for example, the display position of the point icon when a point icon indicating various facilities, registered points, etc. is displayed on the map screen) The “object information” includes a function icon indicating a function to set as a place, a function to delete the spot icon, and the like.

図2に示すように、表示制御処理が開始されると、検出部13aは、近接センサ12としてのタッチパネル11からの出力に基づき、利用者の手指の接近が検出されたか否かを判定する(SA1)。例えば、タッチパネル11による手指の検出範囲内(例えばタッチパネル11の表面から20cmの範囲内)に手指が入ることで、タッチパネル11を構成する各センサ電極の静電容量が変化した場合に、当該静電容量の変化に応じたタッチパネル11の出力に基づき、検出部13aは利用者の手指の接近が検出されたと判定する。   As shown in FIG. 2, when the display control process is started, the detection unit 13a determines whether the approach of the user's finger is detected based on the output from the touch panel 11 as the proximity sensor 12 ( SA1). For example, when the capacitance of each sensor electrode constituting the touch panel 11 changes due to the finger entering the detection range of the finger by the touch panel 11 (for example, within a range of 20 cm from the surface of the touch panel 11), Based on the output of the touch panel 11 according to the change in the capacity, the detection unit 13a determines that the approach of the user's finger has been detected.

その結果、利用者の手指の接近が検出されなかった場合(SA1、No)、検出部13aは利用者の手指の接近が検出されるまでSA1の処理を繰り返す。   As a result, when the approach of the user's finger is not detected (SA1, No), the detection unit 13a repeats the process of SA1 until the approach of the user's finger is detected.

一方、SA1の判定の結果、利用者の手指の接近が検出された場合(SA1、Yes)、検出部13aは、表示面と利用者の手指の複数の部分との各距離と、表示面に略直交する方向に沿って手指を表示面に投影した場合における表示面上での手指の複数部分の各投影位置(以下、必要に応じて「投影位置」)とを検出する(SA2)。具体的には、検出部13aは、ディスプレイ10の表示面を分割した複数の分割領域毎に、当該分割領域を表示面と略直交する方向に沿って投影した範囲内に存在する手指の部分と分割領域との距離を検出する。例えば、検出部13aは、近接センサ12としてのタッチパネル11から出力された当該タッチパネル11を構成する各センサ電極の静電容量に基づき、各センサ電極が設置されている位置の分割領域と、当該分割領域を表示面と略直交する方向に沿って投影した範囲内に存在する手指の部分との距離を検出する。これにより、表示面と利用者の手指の複数の部分との各距離(すなわち手指の部分と各分割領域との距離)と、表示面に略直交する方向に沿って手指を表示面に投影した場合における表示面上での手指の複数部分の各投影位置(すなわち、分割領域を表示面と略直交する方向に沿って投影した範囲内に手指の部分が存在する場合における、当該分割領域の位置)とが、検出される。   On the other hand, when the approach of the user's finger is detected as a result of the determination of SA1 (SA1, Yes), the detection unit 13a displays each distance between the display surface and a plurality of portions of the user's finger and the display surface. Each projection position (hereinafter referred to as “projection position” as necessary) of a plurality of portions of the finger on the display surface when the finger is projected on the display surface along a substantially orthogonal direction is detected (SA2). Specifically, for each of a plurality of divided areas obtained by dividing the display surface of the display 10, the detection unit 13 a includes a finger portion existing within a range in which the divided area is projected along a direction substantially orthogonal to the display surface. The distance from the divided area is detected. For example, the detection unit 13a, based on the capacitance of each sensor electrode included in the touch panel 11 output from the touch panel 11 serving as the proximity sensor 12, and the divided region where the sensor electrode is installed and the division A distance from a finger portion existing within a range in which the region is projected along a direction substantially orthogonal to the display surface is detected. Thus, the fingers are projected onto the display surface along the distances between the display surface and a plurality of portions of the user's fingers (that is, the distances between the finger portions and the divided areas) and the directions substantially orthogonal to the display surface. Projection positions of a plurality of finger parts on the display surface in the case (that is, the positions of the divided regions in the case where the finger part exists within the range in which the divided regions are projected along the direction substantially orthogonal to the display surface) ) Is detected.

図4は、ディスプレイ10の表示面を分割した複数の分割領域と利用者の手指の複数の部分との位置関係を概念的に示した斜視図である。図4では、ディスプレイ10の表示面を縦横格子にて複数の四角形の分割領域10aに分割した場合を例示している。この図4の例では、検出部13aにより、黒塗りで示した分割領域10aを表示面と略直交する方向に沿って投影した範囲内に存在する手指の部分(図4では人差し指)と当該分割領域10aとの距離L1、及び、斜線のハッチングで示した分割領域10aを表示面と略直交する方向に沿って投影した範囲内に存在する手指の部分(図4では中指、薬指、小指等)と当該分割領域10aとの距離L2が検出される。   FIG. 4 is a perspective view conceptually showing the positional relationship between a plurality of divided areas obtained by dividing the display surface of the display 10 and a plurality of portions of the user's fingers. FIG. 4 illustrates a case where the display surface of the display 10 is divided into a plurality of quadrangular divided areas 10a by a vertical and horizontal lattice. In the example of FIG. 4, the detection unit 13 a causes the finger portion (index finger in FIG. 4) and the division to be present within a range in which the divided region 10 a indicated by black is projected along a direction substantially orthogonal to the display surface. A finger portion existing in a range in which the distance L1 from the region 10a and the divided region 10a indicated by hatching are projected along a direction substantially orthogonal to the display surface (the middle finger, the ring finger, the little finger, etc. in FIG. 4) And a distance L2 between the divided area 10a and the divided area 10a.

図2に戻り、表示制御部13bは、SA2で検出された表示面と利用者の手指の複数の部分との各距離と、表示面上での手指の複数部分の各投影位置とに基づき、表示面に最も近い手指の部分の投影位置に、対象情報が設定されている情報が表示されているか否かを判定する(SA3)。例えば図4では、表示面に最も近い手指の部分である人差し指の投影位置(すなわち、黒塗りで示した分割領域10aの位置)に、対象情報が設定されている情報(例えば、所在地や電話番号等の詳細情報が対象情報として設定されている地点名や、目的地設定機能や削除機能等を示す機能アイコンが対象情報として設定されている地点アイコン等)が表示されているか否かを判定する。なお、ディスプレイ10に表示されている情報に対象情報が設定されているか否かの判断方法は任意で、例えば、ディスプレイ10に表示される各情報に、対象情報が設定されているか否かを特定するための情報を予め付加しておき、当該情報を表示制御部13bが参照することにより、ディスプレイ10に表示されている情報に対象情報が設定されているか否かを当該表示制御部13bが判断する。   Returning to FIG. 2, the display control unit 13b is based on the distances between the display surface detected in SA2 and the plurality of portions of the user's fingers and the projection positions of the plurality of portions of the fingers on the display surface. It is determined whether or not the information for which the target information is set is displayed at the projection position of the finger part closest to the display surface (SA3). For example, in FIG. 4, information (for example, a location or a telephone number) in which target information is set at the projection position of the index finger that is the part of the finger closest to the display surface (that is, the position of the divided area 10 a shown in black). For example, a name of a point where detailed information such as a destination name is set as target information, or a point icon where a function icon indicating a destination setting function or a deletion function is set as target information) is displayed. . Note that the method for determining whether or not the target information is set in the information displayed on the display 10 is arbitrary. For example, whether or not the target information is set for each piece of information displayed on the display 10 is specified. The display control unit 13b determines whether or not the target information is set in the information displayed on the display 10 by adding the information to be performed in advance and referring the information to the display control unit 13b. To do.

図2に戻り、SA3の判定の結果、表示面に最も近い手指の部分の投影位置に、対象情報が設定されている情報が表示されていない場合(SA3、No)、ディスプレイ10に表示させる対象情報の表示位置を決定する必要はないものとし、制御部13は表示制御処理を終了する。   Returning to FIG. 2, as a result of the determination of SA3, when information for which target information is set is not displayed at the projection position of the finger portion closest to the display surface (SA3, No), the target to be displayed on the display 10 It is not necessary to determine the display position of information, and the control unit 13 ends the display control process.

一方、表示面に最も近い手指の部分の投影位置に、対象情報が設定されている情報が表示されている場合(SA3、Yes)、表示制御部13bは、表示面に最も近い手指の部分の当該表示面上での投影位置を基準位置として、手指の他の部分の表示面上での投影位置と略点対称となる位置が含まれる領域(以下、必要に応じて「点対称領域」)を特定する(SA4)。   On the other hand, when the information for which the target information is set is displayed at the projection position of the finger part closest to the display surface (SA3, Yes), the display control unit 13b displays the finger part closest to the display surface. A region that includes a position that is substantially point-symmetric with the projection position on the display surface of the other part of the finger with the projection position on the display surface as a reference position (hereinafter referred to as a “point symmetry region” if necessary) Is specified (SA4).

図5は、手指の各部分の投影位置と点対称領域とを例示した図である。図5では、各分割領域10aを表示面と略直交する方向に沿って投影した範囲内に存在する手指の部分と各分割領域10aとの距離を、各分割領域10aの濃淡で表している。すなわち、黒塗りの分割領域10aと手指の部分との距離が最も短く、その次に格子状ハッチングの分割領域10aと手指の部分との距離が短く、左上がり斜線ハッチングの分割領域10aと手指の部分との距離が最も長い。また、白塗りの分割領域10aは、当該分割領域10aを表示面と略直交する方向に沿って投影した範囲内に手指が検出されなかった分割領域10aであることを示している(後述する図6から7、及び図13についても同様)。   FIG. 5 is a diagram exemplifying projection positions and point symmetry regions of each part of the finger. In FIG. 5, the distance between each divided region 10a and the portion of the finger existing within the range in which each divided region 10a is projected along the direction substantially orthogonal to the display surface is represented by the shading of each divided region 10a. That is, the distance between the black divided area 10a and the finger part is the shortest, and then the distance between the grid-shaped hatched divided area 10a and the finger part is short, and the left-upward hatched hatched divided area 10a and the finger part. The distance to the part is the longest. Also, the white divided area 10a indicates a divided area 10a in which a finger has not been detected within a range in which the divided area 10a is projected along a direction substantially orthogonal to the display surface (a figure to be described later). The same applies to 6 to 7 and FIG.

図5(a)は、利用者が左手の人差し指を伸ばし、当該人差し指の腹をタッチパネル11に接近させた場合を例示している。この場合、表示制御部13bは、表示面に最も近い手指の部分である左手の人差し指先端の投影位置10b(図5(a)における黒塗りの分割領域10a)を基準として、手指の他の部分の表示面上での投影位置と略点対称となる位置10c(太実線で囲まれた位置)が含まれる点対称領域10d(右上がり斜線ハッチングの領域)を特定する。なお、点対称領域10dの範囲の特定方法は任意で、例えば図5(a)に示すように、表示面に最も近い手指の部分の当該表示面上での投影位置10b(図5(a)における黒塗りの分割領域10a)から、当該投影位置10bを基準として手指の他の部分の表示面上での投影位置と略点対称となる位置10c(太実線で囲まれた位置)の外周に接線を引き、当該接線とディスプレイ10の外周とで囲まれる領域を点対称領域10d(右上がり斜線ハッチングの領域)として特定する。   FIG. 5A illustrates a case where the user extends the index finger of the left hand and makes the belly of the index finger approach the touch panel 11. In this case, the display control unit 13b uses the projection position 10b (the black divided area 10a in FIG. 5 (a)) of the left index finger that is the part of the finger closest to the display surface as a reference to other parts of the finger. A point-symmetrical region 10d (a region with a right-upward diagonal hatching) including a position 10c (a position surrounded by a thick solid line) that is substantially point-symmetric with the projection position on the display surface is specified. Note that the method for specifying the range of the point symmetry region 10d is arbitrary. For example, as shown in FIG. 5A, the projection position 10b on the display surface of the finger portion closest to the display surface (FIG. 5A). From the black divided area 10a) to the outer periphery of a position 10c (a position surrounded by a thick solid line) that is substantially point-symmetric with the projection position on the display surface of the other part of the finger with respect to the projection position 10b. A tangent line is drawn, and an area surrounded by the tangent line and the outer periphery of the display 10 is specified as a point-symmetrical area 10d (an area that is hatched to the right).

図5(b)は、利用者が左手の人差し指を伸ばし、当該人差し指の方向が表示面と略直交するようにタッチパネル11に接近させた場合を例示している。この場合、表示制御部13bは、表示面に最も近い手指の部分である左手の人差し指先端の投影位置10b(図5(b)における黒塗りの分割領域10a)を基準として、手指の他の部分の表示面上での投影位置と略点対称となる位置10c(太実線で囲まれた位置)が含まれる点対称領域10d(右上がり斜線ハッチングの領域)を特定する。   FIG. 5B illustrates a case where the user extends the index finger of the left hand and moves the index finger closer to the touch panel 11 so that the direction of the index finger is substantially orthogonal to the display surface. In this case, the display control unit 13b uses the projection position 10b of the index finger tip of the left hand, which is the part of the finger closest to the display surface (the black divided area 10a in FIG. 5B) as a reference to other parts of the finger. A point-symmetrical region 10d (a region with a right-upward diagonal hatching) including a position 10c (a position surrounded by a thick solid line) that is substantially point-symmetric with the projection position on the display surface is specified.

図5(c)は、利用者が右手の人差し指を伸ばし、当該人差し指の腹をタッチパネル11に接近させた場合を例示している。この場合、表示制御部13bは、表示面に最も近い手指の部分である右手の人差し指先端の投影位置10b(図5(c)における黒塗りの分割領域10a)を基準として、手指の他の部分の表示面上での投影位置と略点対称となる位置10c(太実線で囲まれた位置)が含まれる点対称領域10d(右上がり斜線ハッチングの領域)を特定する。   FIG. 5C illustrates a case where the user extends the index finger of the right hand and brings the belly of the index finger closer to the touch panel 11. In this case, the display control unit 13b uses the projected position 10b of the tip of the index finger of the right hand that is the part of the finger closest to the display surface (the black divided area 10a in FIG. 5C) as a reference to other parts of the finger. A point-symmetrical region 10d (a region with a right-upward diagonal hatching) including a position 10c (a position surrounded by a thick solid line) that is substantially point-symmetric with the projection position on the display surface is specified.

図2に戻り、表示制御部13bは、SA4で特定した点対称領域10d内に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を表示可能か否かを判定する(SA5)。例えば表示制御部13bは、対象情報の表示サイズが、SA4で特定した点対称領域10dの大きさよりも小さい場合に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を点対称領域10d内に表示可能であると判定する。   Returning to FIG. 2, whether or not the display control unit 13b can display target information related to the information displayed at the projection position 10b of the finger portion closest to the display surface in the point symmetry region 10d specified in SA4. Is determined (SA5). For example, when the display size of the target information is smaller than the size of the point symmetry region 10d specified in SA4, the display control unit 13b relates to the information displayed at the projection position 10b of the finger part closest to the display surface. It is determined that the target information to be displayed can be displayed in the point symmetry region 10d.

その結果、SA4で特定した点対称領域10d内に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を表示可能である場合(SA5、Yes)、表示制御部13bは、SA4で特定した点対称領域10dを対象情報の表示位置として決定し、当該点対称領域10d内に対象情報を表示させる(SA6)。   As a result, when the target information related to the information displayed at the projection position 10b of the finger portion closest to the display surface can be displayed in the point symmetry region 10d specified in SA4 (SA5, Yes), the display is performed. The control unit 13b determines the point symmetry area 10d specified in SA4 as the display position of the target information, and displays the target information in the point symmetry area 10d (SA6).

一方、SA4で特定した点対称領域10d内に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を表示可能ではない場合(SA5、No)、表示制御部13bは、表示面に最も近い手指の部分の当該表示面上での投影位置10bを通る直線であって、ディスプレイ10の上下辺と略平行な直線(以下、「水平線」)を基準線として、手指の他の部分の表示面上での投影位置と略線対称となる位置が含まれる領域(以下、必要に応じて「水平線対称領域」)を特定する(SA7)。   On the other hand, if the target information related to the information displayed at the projection position 10b of the finger portion closest to the display surface cannot be displayed in the point symmetry region 10d specified in SA4 (SA5, No), display control is performed. The unit 13b is a straight line that passes through the projection position 10b on the display surface of the finger portion closest to the display surface, and is a straight line that is substantially parallel to the upper and lower sides of the display 10 (hereinafter, “horizontal line”). Then, an area (hereinafter referred to as “horizontal line symmetric area” as necessary) including a position that is substantially line symmetric with the projection position on the display surface of the other part of the finger is specified (SA7).

図6は、手指の各部分の投影位置と水平線対称領域とを例示した図である。例えば図6(a)に示すように、利用者が左手の人差し指を伸ばし、当該人差し指の腹をタッチパネル11の右端近傍に接近させた場合、図5(a)の場合と比較して点対称領域10dが狭くなる。このため、当該点対称領域10dに対象情報を表示できない場合がある(SA5、No)。この場合、図6(b)に示すように、表示制御部13bは、表示面に最も近い手指の部分である左手の人差し指先端の投影位置10b(図6(b)における黒塗りの分割領域10a)を通る水平線を基準線として、手指の他の部分の表示面上での投影位置と略線対称となる位置10e(太実線で囲まれた位置)が含まれる水平線対称領域10f(右上がり斜線ハッチングの領域)を特定する。なお、水平線対称領域10fの範囲の特定方法は任意で、例えば図6(b)に示すように、表示面に最も近い手指の部分の当該表示面上での投影位置10b(図6(b)における黒塗りの分割領域10a)を通る水平線に直交する直線であって、水平線を基準として手指の他の部分の表示面上での投影位置と略線対称となる位置10e(太実線で囲まれた位置)の外周に接する直線を引き、当該直線とディスプレイ10の外周とで囲まれる領域を水平線対称領域10f(右上がり斜線ハッチングの領域)として特定する。   FIG. 6 is a diagram illustrating the projection position of each part of the finger and the horizontal line symmetric region. For example, as shown in FIG. 6 (a), when the user extends the index finger of the left hand and makes the belly of the index finger approach the vicinity of the right end of the touch panel 11, a point symmetric region as compared with the case of FIG. 5 (a) 10d becomes narrower. For this reason, target information may not be displayed in the point symmetry region 10d (SA5, No). In this case, as shown in FIG. 6 (b), the display control unit 13b displays the black divided region 10a at the projection position 10b of the index finger tip of the left hand, which is the finger part closest to the display surface (FIG. 6 (b)). ), A horizontal line symmetric region 10f including a position 10e (a position surrounded by a thick solid line) that is substantially line symmetric with the projection position on the display surface of the other part of the finger, with the horizontal line passing through (Hatched area). Note that the method of specifying the range of the horizontal line symmetric region 10f is arbitrary. For example, as shown in FIG. 6B, the projection position 10b on the display surface of the finger portion closest to the display surface (FIG. 6B). A position 10e (enclosed by a thick solid line) that is orthogonal to the horizontal line passing through the black divided area 10a) and is substantially line symmetrical with the projection position on the display surface of the other part of the finger with respect to the horizontal line. A region that is surrounded by the straight line and the outer periphery of the display 10 is specified as a horizontal line symmetric region 10f (a region that is hatched to the right).

図2に戻り、表示制御部13bは、SA7で特定した水平線対称領域10f内に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を表示可能か否かを判定する(SA8)。例えば表示制御部13bは、対象情報の表示サイズが、SA7で特定した水平線対称領域10fの大きさよりも小さい場合に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を水平線対称領域10f内に表示可能であると判定する。   Returning to FIG. 2, whether or not the display control unit 13b can display the target information related to the information displayed at the projection position 10b of the finger portion closest to the display surface in the horizontal line symmetric region 10f specified in SA7. Is determined (SA8). For example, when the display size of the target information is smaller than the size of the horizontal line symmetric region 10f specified in SA7, the display control unit 13b relates to the information displayed at the projection position 10b of the finger part closest to the display surface. It is determined that the target information to be displayed can be displayed in the horizontal line symmetric region 10f.

その結果、SA7で特定した水平線対称領域10f内に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を表示可能である場合(SA8、Yes)、表示制御部13bは、SA7で特定した水平線対称領域10fを対象情報の表示位置として決定し、当該水平線対称領域10f内に対象情報を表示させる(SA9)。   As a result, when the target information related to the information displayed at the projection position 10b of the finger portion closest to the display surface can be displayed in the horizontal line symmetric region 10f specified in SA7 (SA8, Yes), the display is performed. The control unit 13b determines the horizontal line symmetric region 10f specified in SA7 as the display position of the target information, and displays the target information in the horizontal line symmetric region 10f (SA9).

一方、SA7で特定した水平線対称領域10f内に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を表示可能ではない場合(SA8、No)、表示制御部13bは、表示面に最も近い手指の部分の当該表示面上での投影位置10bを通る直線であって、水平線と略直交する直線(以下、「垂直線」)を基準線として、手指の他の部分の表示面上での投影位置と略線対称となる位置が含まれる領域(以下、必要に応じて「垂直線対称領域」)を特定する(SA10)。   On the other hand, if the target information related to the information displayed at the projection position 10b of the finger portion closest to the display surface cannot be displayed in the horizontal line symmetric region 10f specified in SA7 (SA8, No), display control is performed. The unit 13b is a straight line passing through the projection position 10b on the display surface of the finger portion closest to the display surface, and a straight line that is substantially orthogonal to the horizontal line (hereinafter, “vertical line”) is used as a reference line. An area including a position that is substantially line symmetric with the projection position on the display surface of the other part (hereinafter referred to as “vertical line symmetric area” as necessary) is specified (SA10).

図7は、手指の各部分の投影位置と垂直線対称領域とを例示した図である。例えば図7(a)に示すように、利用者が左手の人差し指を伸ばし、当該人差し指の腹をタッチパネル11の上端近傍に接近させた場合、図6(b)の場合と比較して、水平線対称領域10fが狭くなる。このため、当該水平線対称領域10fに対象情報を表示できない場合がある(SA8、No)。この場合、図7(b)に示すように、表示制御部13bは、表示面に最も近い手指の部分の当該表示面上での投影位置10bを通る垂直線を基準線として、手指の他の部分の表示面上での投影位置と略線対称となる位置10g(太実線で囲まれた位置)が含まれる垂直線対称領域10h(右上がり斜線ハッチングの領域)を特定する。なお、垂直線対称領域10hの範囲の特定方法は任意で、例えば図7(b)に示すように、表示面に最も近い手指の部分の当該表示面上での投影位置10b(図7(b)における黒塗りの分割領域10a)を通る垂直線に直交する直線であって、垂直線を基準として手指の他の部分の表示面上での投影位置と略線対称となる位置10g(太実線で囲まれた位置)の外周に接する直線を引き、当該直線とディスプレイ10の外周とで囲まれる領域を垂直線対称領域10h(右上がり斜線ハッチングの領域)として特定する。   FIG. 7 is a diagram illustrating the projection position of each part of the finger and the vertical line symmetric region. For example, as shown in FIG. 7 (a), when the user extends the index finger of the left hand and brings the belly of the index finger closer to the vicinity of the upper end of the touch panel 11, the horizontal symmetry is obtained as compared with the case of FIG. 6 (b). The region 10f becomes narrow. For this reason, the target information may not be displayed in the horizontal line symmetric region 10f (SA8, No). In this case, as shown in FIG. 7B, the display control unit 13b uses the vertical line passing through the projection position 10b on the display surface of the part of the finger closest to the display surface as a reference line, A vertical line symmetric region 10h (a region with a right-upward oblique hatching) including a position 10g (a position surrounded by a thick solid line) that is substantially line symmetric with the projection position on the display surface of the part is specified. The method of specifying the range of the vertical line symmetric region 10h is arbitrary. For example, as shown in FIG. 7B, the projection position 10b on the display surface of the finger portion closest to the display surface (FIG. 7B ) At a position 10g (thick solid line) that is perpendicular to the vertical line passing through the black divided area 10a) and is substantially line symmetrical with the projection position on the display surface of the other part of the finger with respect to the vertical line. A straight line that touches the outer periphery of the position) is drawn, and a region surrounded by the straight line and the outer periphery of the display 10 is specified as a vertical line symmetric region 10h (a region that is hatched to the right).

図2に戻り、表示制御部13bは、SA10で特定した垂直線対称領域10h内に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を表示可能か否かを判定する(SA11)。例えば表示制御部13bは、対象情報の表示サイズが、SA10で特定した垂直線対称領域10hの大きさよりも小さい場合に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を垂直線対称領域10h内に表示可能であると判定する。   Returning to FIG. 2, can the display control unit 13b display target information related to the information displayed at the projection position 10b of the part of the finger closest to the display surface in the vertical line symmetry area 10h specified in SA10? It is determined whether or not (SA11). For example, when the display size of the target information is smaller than the size of the vertical line symmetric region 10h specified in SA10, the display control unit 13b displays the information displayed at the projection position 10b of the finger portion closest to the display surface. It is determined that the relevant target information can be displayed in the vertical line symmetric region 10h.

その結果、SA10で特定した垂直線対称領域10h内に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を表示可能である場合(SA11、Yes)、表示制御部13bは、SA10で特定した垂直線対称領域10hを対象情報の表示位置として決定し、当該垂直線対称領域10h内に対象情報を表示させる(SA12)。   As a result, when the target information related to the information displayed at the projection position 10b of the finger portion closest to the display surface can be displayed in the vertical line symmetry region 10h specified in SA10 (SA11, Yes), The display control unit 13b determines the vertical line symmetric region 10h specified in SA10 as the display position of the target information, and displays the target information in the vertical line symmetric region 10h (SA12).

一方、SA10で特定した垂直線対称領域10h内に、表示面に最も近い手指の部分の投影位置10bに表示されている情報に関連する対象情報を表示可能ではない場合(SA11、No)、表示制御部13bは、SA2において、表示面に略直交する方向に沿って手指を表示面に投影した場合における表示面上での手指の複数部分の各投影位置として検出部13aにより検出されなかった領域(以下「非検出領域」)を対象情報の表示位置として決定し、当該垂直線対称領域10h内に対象情報を表示させる(SA13)。   On the other hand, if the target information related to the information displayed at the projection position 10b of the part of the finger closest to the display surface cannot be displayed in the vertical line symmetry area 10h specified in SA10 (SA11, No), the display is performed. In SA2, the control unit 13b is a region that is not detected by the detection unit 13a as each projection position of a plurality of portions of the finger on the display surface when the finger is projected on the display surface along a direction substantially orthogonal to the display surface. (Hereinafter referred to as “non-detection area”) is determined as the display position of the target information, and the target information is displayed in the vertical line symmetric area 10h (SA13).

図8は、手指の各部分の投影位置と非検出領域とを例示した図である。例えば図8に示すように、利用者が左手の人差し指を伸ばし、当該人差し指の腹をタッチパネル11の右上端近傍に接近させた場合、図7(b)の場合と比較して、垂直線対称領域10hが狭くなる。このため、当該垂直線対称領域10hに対象情報を表示できない場合がある(SA11、No)。この場合、表示制御部13bは、非検出領域(図8における白塗りの分割領域10a)を対象情報の表示位置として決定する。   FIG. 8 is a diagram exemplifying projection positions and non-detection areas of each part of the finger. For example, as shown in FIG. 8, when the user extends the index finger of the left hand and brings the belly of the index finger closer to the vicinity of the upper right end of the touch panel 11, the vertical line symmetry region is compared with the case of FIG. 10h becomes narrower. For this reason, the target information may not be displayed in the vertical line symmetry region 10h (SA11, No). In this case, the display control unit 13b determines the non-detection area (white-colored divided area 10a in FIG. 8) as the display position of the target information.

図9は、図2のSA6、9、12、又は13で表示制御部13bにより決定された表示位置に表示された対象情報を例示した図である。図9(a)は、電話番号や営業時間等の詳細情報が対象情報として設定されている店舗名が、表示面に最も近い手指の部分の投影位置10bに表示されていた場合を例示している。この図9(a)の例では、表示面に最も近い手指の部分である右手の人差し指先端の投影位置10bを基準として、手指の他の部分の表示面上での投影位置と略点対称となる位置10cが含まれる点対称領域10dに対象情報である詳細情報10iが表示されているため(SA6)、当該詳細情報10iが利用者の手指の陰に表示されることがなく、高い視認性が得られている。   FIG. 9 is a diagram illustrating target information displayed at the display position determined by the display control unit 13b in SA6, 9, 12, or 13 of FIG. FIG. 9A illustrates a case where the store name in which detailed information such as a telephone number and business hours is set as target information is displayed at the projection position 10b of the finger part closest to the display surface. Yes. In the example of FIG. 9A, the projection position on the display surface of the other part of the finger is substantially point-symmetric with respect to the projection position 10b of the tip of the index finger of the right hand, which is the part of the finger closest to the display surface. Since the detailed information 10i as the target information is displayed in the point-symmetric region 10d including the position 10c (SA6), the detailed information 10i is not displayed behind the user's finger and has high visibility. Is obtained.

また、図9(b)は、目的地設定機能や削除機能等を示す機能アイコンが対象情報として設定されている地点アイコンが、表示面に最も近い手指の部分の投影位置10bに表示されていた場合を例示している。この図9(b)の例では、表示面に最も近い手指の部分である右手の人差し指先端の投影位置10bを基準として、手指の他の部分の表示面上での投影位置と略点対称となる位置10cが含まれる点対称領域10dに対象情報である機能アイコン10jが表示されているため(SA6)、当該機能アイコン10jが利用者の手指の陰に表示されることがなく、高い視認性が得られている。   Further, in FIG. 9B, the point icon in which the function icons indicating the destination setting function, the deletion function, etc. are set as the target information is displayed at the projection position 10b of the finger part closest to the display surface. The case is illustrated. In the example of FIG. 9B, the projection position on the display surface of the other part of the finger is substantially point-symmetric with respect to the projection position 10b of the tip of the index finger of the right hand, which is the part of the finger closest to the display surface. Since the function icon 10j, which is the target information, is displayed in the point symmetry area 10d including the position 10c (SA6), the function icon 10j is not displayed behind the user's finger and has high visibility. Is obtained.

図2に戻り、SA6、9、12、又は13の処理の後、図3に進み、表示制御部13bは、対象情報が設定されている情報が表示されている位置、又は対象情報が表示されている位置でタッチパネル11が押圧されたか否かを判定する(SA14)。その結果、対象情報が設定されている情報が表示されている位置、若しくは対象情報が表示されている位置でタッチパネル11が押圧された場合(SA14、Yes)、タッチパネル11を介して、当該対象情報が設定されている情報(店舗名や地点アイコン等)や、当該対象情報(詳細情報や各種機能アイコン等)を選択するための入力が受け付けられたものとし、制御部13は、選択された情報に対応する機能(例えば目的地設定等)を実行する(SA15)。その後、制御部13はSA1に戻る。   Returning to FIG. 2, after the processing of SA 6, 9, 12, or 13, the process proceeds to FIG. 3, and the display control unit 13 b displays the position where the information where the target information is set or the target information is displayed. It is determined whether or not the touch panel 11 is pressed at the position (SA14). As a result, when the touch panel 11 is pressed at the position where the information for which the target information is set is displayed, or at the position where the target information is displayed (SA14, Yes), the target information is transmitted via the touch panel 11. And the input for selecting the target information (detailed information, various function icons, etc.) are accepted, and the control unit 13 selects the selected information. A function corresponding to (for example, destination setting) is executed (SA15). Thereafter, the control unit 13 returns to SA1.

一方、対象情報が設定されている情報が表示されている位置でタッチパネル11が押圧されていない場合(SA14、No)、表示制御部13bは、利用者の手指が表示面から所定距離(例えば20cm)以上離れたか否かを判定する(SA16)。その結果、利用者の手指が表示面から所定距離以上離れていない(手指が表示面から所定距離未満である)場合(SA16、No)、制御部13はSA1に戻る。以降、SA3で、表示面に最も近い手指の部分の投影位置に、対象情報が設定されている情報が表示されていないと判定されるか(SA3、No)、又は、SA14で、対象情報が設定されている情報が表示されている位置でタッチパネル11が押圧されていないと判定され(SA14、No)、SA16で、利用者の手指が表示面から所定距離以上離れたと判定される(SA16、Yes)まで、SA1からSA16の処理を繰り返す。   On the other hand, when the touch panel 11 is not pressed at the position where the information for which the target information is set is displayed (SA14, No), the display control unit 13b indicates that the user's finger is a predetermined distance (for example, 20 cm) from the display surface. ) It is determined whether or not the distance has been exceeded (SA16). As a result, when the user's finger is not separated from the display surface by a predetermined distance or more (the finger is less than the predetermined distance from the display surface) (SA16, No), the control unit 13 returns to SA1. Thereafter, in SA3, it is determined that the information for which the target information is set is not displayed at the projection position of the finger part closest to the display surface (SA3, No), or the target information is determined in SA14. It is determined that the touch panel 11 is not pressed at the position where the set information is displayed (SA14, No), and at SA16, it is determined that the user's finger is separated from the display surface by a predetermined distance or more (SA16, The processing from SA1 to SA16 is repeated until (Yes).

一方、利用者の手指が表示面から所定距離以上離れた場合(SA16、Yes)、表示制御部13bは、ディスプレイ10に表示されていた対象情報を消去させる(SA17)。その後、制御部13は表示制御処理を終了する。   On the other hand, when the user's finger is away from the display surface by a predetermined distance or more (SA16, Yes), the display control unit 13b deletes the target information displayed on the display 10 (SA17). Thereafter, the control unit 13 ends the display control process.

(効果)
このように実施の形態1によれば、表示制御部13bは、検出部13aにより検出された表示面と手指の複数の部分との各距離と、表示面上での手指の複数部分の各投影位置とに基づき、ディスプレイ10に表示させる対象情報の表示位置を決定するので、手指の陰とならない領域に対象情報を表示させることができ、表示装置1における情報の視認性を向上させることができる。
(effect)
As described above, according to the first embodiment, the display control unit 13b performs the projections of the distances between the display surface detected by the detection unit 13a and the plurality of parts of the fingers and the plurality of parts of the fingers on the display surface. Since the display position of the target information to be displayed on the display 10 is determined based on the position, the target information can be displayed in a region that is not shaded by the fingers, and the information visibility on the display device 1 can be improved. .

特に、表示制御部13bは、表示面に最も近い手指の部分の当該表示面上での投影位置10bを基準位置として、手指の他の部分の表示面上での投影位置と略点対称となる位置10cが含まれる領域を、対象情報の表示位置として決定するので、手指の陰とならない領域に確実に対象情報を表示させることができ、表示装置1における情報の視認性を向上させることができる。   In particular, the display control unit 13b is substantially point-symmetric with the projection position on the display surface of the other part of the finger, with the projection position 10b on the display surface of the finger part closest to the display surface as the reference position. Since the area including the position 10c is determined as the display position of the target information, the target information can be reliably displayed in the area that is not shaded by the fingers, and the information visibility in the display device 1 can be improved. .

また、検出部13aは、ディスプレイ10の表示面を分割した複数の分割領域10a毎に、分割領域10aを表示面と略直交する方向に沿って投影した範囲内に存在する手指の部分と当該分割領域10aとの距離を検出することにより、表示面と利用者の手指の複数の部分との各距離と、表示面に略直交する方向に沿って手指を当該表示面に投影した場合における当該表示面上での手指の複数部分の各投影位置とを検出するので、表示面と利用者の手指の複数の部分との各距離と、表示面上での手指の複数部分の各投影位置とを、容易に検出することができる。   Further, the detection unit 13a, for each of a plurality of divided regions 10a obtained by dividing the display surface of the display 10, a finger portion existing in a range in which the divided region 10a is projected along a direction substantially orthogonal to the display surface and the divided regions. By detecting the distance to the area 10a, the distance between the display surface and a plurality of portions of the user's fingers and the display when the fingers are projected on the display surface along a direction substantially orthogonal to the display surface Since the projection positions of the plurality of finger parts on the screen are detected, the distances between the display surface and the plurality of finger parts of the user and the projection positions of the finger parts on the display surface are determined. Can be easily detected.

また、対象情報は、表示面に最も近い手指の部分の当該表示面上での投影位置10bにおいてディスプレイ10により表示されている情報に関連する情報であるので、利用者にとって有用な情報を、手指の陰とならない領域に表示させることができる。   Further, since the target information is information related to information displayed on the display 10 at the projection position 10b on the display surface of the part of the finger closest to the display surface, information useful for the user is It can be displayed in an area that is not shaded by.

〔実施の形態2〕
次に、実施の形態2に係る表示装置について説明する。この実施の形態2は、利用者の手の左右と、表示面に最も近い手指の部分の当該表示面上での投影位置とに基づき、対象情報の表示位置を決定する形態である。なお、実施の形態2の構成は、特記する場合を除いて、実施の形態1の構成と略同一であり、実施の形態1の構成と略同一の構成についてはこの実施の形態1で用いたものと同一の符号及び/又は名称を必要に応じて付して、その説明を省略する。
[Embodiment 2]
Next, a display device according to Embodiment 2 will be described. In the second embodiment, the display position of the target information is determined based on the left and right sides of the user's hand and the projection position on the display surface of the finger portion closest to the display surface. The configuration of the second embodiment is substantially the same as the configuration of the first embodiment, unless otherwise specified. The same configuration as that of the first embodiment is used in the first embodiment. The same reference numerals and / or names as those used are attached as necessary, and description thereof is omitted.

(構成)
最初に、実施の形態2に係る表示装置1の構成について説明する。本実施の形態2において、データ記録部14は、表示位置テーブルを備えている(図示省略)。この表示位置テーブルは、対象情報の表示位置を特定するための情報を格納する表示位置情報格納手段である。図10は、表示位置テーブルに格納されている情報を例示した表である。この図10に示すように、表示位置テーブルには、項目「手」、「投影位置」、及び「表示位置」に対応する情報が、相互に関連付けて格納されている。この内、項目「手」に対応して格納される情報は、タッチパネル11への接近が検出された利用者の手の左右を特定する情報である(図10では「左手」又は「右手」)。項目「投影位置」に対応して格納される情報は、表示面を分割したエリアの内、表示面に最も近い手指の部分の当該表示面上での投影位置10bが含まれるエリアを特定する情報である(図10では「左エリア」等)。項目「表示位置」に対応して格納される情報は、対象情報の表示位置を特定するための表示位置情報であり、例えば、表示面上での手指の投影位置を基準とした場合における、当該対象情報の表示位置を示す表示位置情報が格納される(図10では「右側」等)。
(Constitution)
First, the configuration of the display device 1 according to the second embodiment will be described. In the second embodiment, the data recording unit 14 includes a display position table (not shown). This display position table is display position information storage means for storing information for specifying the display position of the target information. FIG. 10 is a table illustrating information stored in the display position table. As shown in FIG. 10, the display position table stores information corresponding to items “hand”, “projection position”, and “display position” in association with each other. Among these, the information stored corresponding to the item “hand” is information for specifying the left and right of the user's hand whose approach to the touch panel 11 is detected (“left hand” or “right hand” in FIG. 10). . The information stored corresponding to the item “projection position” is information that specifies an area including the projection position 10b on the display surface of the finger portion closest to the display surface among the divided areas of the display surface. ("Left area" in FIG. 10). The information stored corresponding to the item “display position” is display position information for specifying the display position of the target information. For example, in the case where the projection position of the finger on the display surface is used as a reference, Display position information indicating the display position of the target information is stored (“right side” in FIG. 10).

(処理)
次に、実施の形態2に係る表示装置1によって実行される表示制御処理について説明する。図11は、実施の形態2に係る表示制御処理のフローチャートである。なお、SB1からSB3は図2のSA1からSA3と、SB7からSB10は図2のSA14からSA17と、それぞれ同様であるので、説明を省略する。
(processing)
Next, display control processing executed by the display device 1 according to Embodiment 2 will be described. FIG. 11 is a flowchart of the display control process according to the second embodiment. SB1 to SB3 are the same as SA1 to SA3 in FIG. 2, and SB7 to SB10 are the same as SA14 to SA17 in FIG.

SB3において、表示面に最も近い手指の部分の投影位置10bに、対象情報が設定されている情報が表示されている場合(SB3、Yes)、表示制御部13bは、タッチパネル11への接近が検出された利用者の手の左右を特定する(SB4)。例えば表示制御部13bは、検出部13aによって検出された表示面上での手指の複数部分の各投影位置に基づき、表示面に略直交する方向に沿って手指を表示面に投影した場合における表示面上での手指の投影形状を特定し、当該特定した手指の投影形状が、予めデータ記録部14に基準として記録されている左手の投影形状又は右手の投影形状のいずれに類似しているのかを判断することにより、タッチパネル11への接近が検出された利用者の手の左右を特定する。   In SB3, when the information for which the target information is set is displayed at the projection position 10b of the finger portion closest to the display surface (SB3, Yes), the display control unit 13b detects the approach to the touch panel 11 The left and right of the user's hand is identified (SB4). For example, the display control unit 13b displays the finger when the finger is projected on the display surface along a direction substantially orthogonal to the display surface based on the projection positions of the plurality of parts of the finger on the display surface detected by the detection unit 13a. Identify the projected shape of the finger on the surface, and whether the identified projected shape of the finger is similar to the projected shape of the left hand or the right hand that is recorded in advance in the data recording unit 14 as a reference Is determined, the left and right sides of the user's hand where the approach to the touch panel 11 is detected are specified.

続いて、表示制御部13bは、表示面に最も近い手指の部分の当該表示面上での投影位置10bと、SB4で当該表示制御部13bにより特定された利用者の手の左右とに基づき、対象情報の表示位置を決定する(SB5)。すなわち表示制御部13bは、SB4で当該表示制御部13bにより特定された利用者の手の左右と、表示面に最も近い手指の部分の当該表示面上での投影位置10bが含まれるエリアとに対応する表示位置情報を表示位置テーブルから取得し、当該取得した表示位置情報に基づき、対象情報の表示位置を決定する。   Subsequently, the display control unit 13b is based on the projection position 10b on the display surface of the finger portion closest to the display surface and the left and right of the user's hand specified by the display control unit 13b in SB4. The display position of the target information is determined (SB5). That is, the display control unit 13b includes the left and right sides of the user's hand specified by the display control unit 13b in SB4, and the area including the projection position 10b on the display surface of the finger part closest to the display surface. Corresponding display position information is acquired from the display position table, and the display position of the target information is determined based on the acquired display position information.

図12は表示面を分割したエリアを例示した図であり、図12(a)はタッチパネル11への接近が検出された利用者の手が左手の場合に用いられるエリアを示す図、図12(b)はタッチパネル11への接近が検出された利用者の手が右手の場合に用いられるエリアを示す図である。図12(a)に示すように、タッチパネル11への利用者の左手の接近が検出された場合には、表示制御部13bは、表示面の右上端近傍を「右上エリア」、「右上エリア」の下方を「右下エリア」、「右上エリア」と「右下エリア」を除く領域を「左エリア」として、表示面に最も近い手指の部分の当該表示面上での投影位置10bが含まれるエリアを特定する。また、図12(b)に示すように、タッチパネル11への利用者の右手の接近が検出された場合には、表示制御部13bは、表示面の左上端近傍を「左上エリア」、「左上エリア」の下方を「左下エリア」、「左上エリア」と「左下エリア」を除く領域を「右エリア」として、表示面に最も近い手指の部分の当該表示面上での投影位置10bが含まれるエリアを特定する。   FIG. 12 is a diagram illustrating an area where the display surface is divided, and FIG. 12A is a diagram illustrating an area used when a user's hand whose approach to the touch panel 11 is detected is a left hand. b) is a diagram showing an area used when the user's hand whose approach to the touch panel 11 is detected is the right hand. As shown in FIG. 12A, when the approach of the left hand of the user to the touch panel 11 is detected, the display control unit 13b displays “upper right area” and “upper right area” near the upper right end of the display surface. Is a “lower right area” and an area excluding “upper right area” and “lower right area” is a “left area”, and includes a projection position 10b on the display surface of the finger portion closest to the display surface. Identify the area. Also, as shown in FIG. 12B, when the approach of the right hand of the user to the touch panel 11 is detected, the display control unit 13b displays the area near the upper left corner of the display screen as “upper left area”, “upper left corner”. The area below the “area” is the “lower left area”, and the area excluding the “upper left area” and the “lower left area” is the “right area”, and the projection position 10b on the display surface of the part of the finger closest to the display surface is included. Identify the area.

図11に戻り、表示制御部13bは、SB5で決定した表示位置に対象情報を表示させる(SB6)。   Returning to FIG. 11, the display controller 13b displays the target information at the display position determined in SB5 (SB6).

図13は、タッチパネル11への接近が検出された利用者の手が左手と特定された場合において、表示面に最も近い手指の部分の当該表示面上での投影位置10bに基づき決定された対象情報の表示位置を例示した図である。図13(a)の例では、表示面に最も近い手指の部分の当該表示面上での投影位置10bが含まれるエリアは「右上エリア」であることから、図10の表示位置テーブルによれば、表示面上での手指の複数部分の各投影位置の下側の領域10k(右上がり斜線ハッチングの領域)が、対象情報の表示位置として決定される。また、図13(b)の例では、表示面に最も近い手指の部分の当該表示面上での投影位置10bが含まれるエリアは「右下エリア」であることから、図10の表示位置テーブルによれば、表示面上での手指の複数部分の各投影位置の上側の領域10l(右上がり斜線ハッチングの領域)が、対象情報の表示位置として決定される。また、図13(c)の例では、表示面に最も近い手指の部分の当該表示面上での投影位置10bが含まれるエリアは「左エリア」であることから、図10の表示位置テーブルによれば、表示面上での手指の複数部分の各投影位置の右側の領域10m(右上がり斜線ハッチングの領域)が、対象情報の表示位置として決定される。   FIG. 13 shows the target determined based on the projection position 10b on the display surface of the finger part closest to the display surface when the user's hand whose approach to the touch panel 11 is detected is identified as the left hand. It is the figure which illustrated the display position of information. In the example of FIG. 13A, since the area including the projection position 10b on the display surface of the finger portion closest to the display surface is the “upper right area”, according to the display position table of FIG. A region 10k (region of hatching with a right-upward oblique line) on the lower side of each projection position on the display surface is determined as the display position of the target information. In the example of FIG. 13B, the area including the projection position 10b on the display surface of the finger portion closest to the display surface is the “lower right area”, so the display position table of FIG. According to the above, a region 101 (upward-slashed hatched region) above each projection position of a plurality of finger parts on the display surface is determined as the display position of the target information. In the example of FIG. 13C, the area including the projection position 10b on the display surface of the finger portion closest to the display surface is the “left area”, so that the display position table of FIG. According to this, a region 10m on the right side of each projection position of a plurality of parts of the finger on the display surface (region of hatching with a right-upward oblique line) is determined as the display position of the target information.

(効果)
このように実施の形態2によれば、表示制御部13bは、表示面に最も近い手指の部分の当該表示面上での投影位置10bと、タッチパネル11への接近が検出された利用者の手の左右とに基づき、対象情報の表示位置を決定するので、利用者の手指の形状や位置に応じて、手指の陰とならない領域に対象情報を表示させることができ、表示装置1における情報の視認性を向上させることができる。
(effect)
As described above, according to the second embodiment, the display control unit 13b detects the projection position 10b on the display surface of the finger portion closest to the display surface and the user's hand in which the approach to the touch panel 11 is detected. Since the display position of the target information is determined based on the left and right of the target information, the target information can be displayed in an area that is not shaded by the finger according to the shape and position of the user's finger. Visibility can be improved.

〔実施の形態に対する変形例〕
以上、本発明に係る各実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した各発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
[Modifications to Embodiment]
Although the embodiments of the present invention have been described above, the specific configuration and means of the present invention are arbitrarily modified and improved within the scope of the technical idea of each invention described in the claims. be able to. Hereinafter, such a modification will be described.

(解決しようとする課題や発明の効果について)
まず、発明が解決しようとする課題や発明の効果は、上述の内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏することがある。
(About problems to be solved and effects of the invention)
First, the problems to be solved by the invention and the effects of the invention are not limited to the above contents, and may vary depending on the implementation environment and details of the configuration of the invention. May be solved, or only some of the effects described above may be achieved.

(検出部について)
上述の各実施の形態では、投影型静電容量方式のタッチパネル11を、近接センサ12として用いることとし、検出部13aは、タッチパネル11から出力された当該タッチパネル11を構成する各センサ電極の静電容量に基づき、各センサ電極が設置されている位置の分割領域10aと、当該分割領域10aを表示面と略直交する方向に沿って投影した範囲内に存在する手指の部分との距離を検出すると説明したが、これとは異なる原理や方法を用いて、表示面と利用者の手指の複数の部分との各距離と、表示面に略直交する方向に沿って手指を表示面に投影した場合における表示面上での手指の複数部分の各投影位置とを検出するようにしてもよい。例えば、タッチパネル11が投影型静電容量方式とは異なる方式(例えば抵抗膜方式等)のタッチパネルである場合、タッチパネル11を近接センサ12として用いることはできない。そこで、例えばタッチパネル11の周辺に配置したカメラを近接センサ12として用いることとし、当該カメラによってタッチパネル11前方の画像データを取得し、公知の画像認識技術を用いることでその画像データにおける各手指の位置を認識する。これにより、表示面と利用者の手指の複数の部分との各距離と、表示面に略直交する方向に沿って手指を表示面に投影した場合における表示面上での手指の複数部分の各投影位置とを検出するようにしてもよい。また、投影型静電容量方式のタッチパネル11とカメラとを組み合わせて、近接センサ12として用いてもよい。
(About the detector)
In each of the embodiments described above, the projected capacitive touch panel 11 is used as the proximity sensor 12, and the detection unit 13 a outputs the electrostatic capacitance of each sensor electrode constituting the touch panel 11 output from the touch panel 11. Based on the capacitance, when the distance between the divided area 10a where each sensor electrode is installed and the finger portion existing within the range in which the divided area 10a is projected along the direction substantially orthogonal to the display surface is detected. As explained above, using different principles and methods, when the fingers are projected onto the display surface along the distance between the display surface and multiple parts of the user's fingers and in a direction substantially perpendicular to the display surface The projection positions of a plurality of portions of the finger on the display surface may be detected. For example, when the touch panel 11 is a touch panel of a system (for example, a resistive film system) different from the projected capacitive system, the touch panel 11 cannot be used as the proximity sensor 12. Therefore, for example, a camera arranged around the touch panel 11 is used as the proximity sensor 12, image data in front of the touch panel 11 is acquired by the camera, and a position of each finger in the image data is obtained by using a known image recognition technique. Recognize Thus, each distance between the display surface and the plurality of parts of the user's finger and each of the plurality of parts of the finger on the display surface when the finger is projected on the display surface along a direction substantially orthogonal to the display surface You may make it detect a projection position. Alternatively, the projected capacitive touch panel 11 and a camera may be combined and used as the proximity sensor 12.

1 表示装置
10 ディスプレイ
10a 分割領域
10b 表示面に最も近い手指の部分の投影位置
10c 表示面に最も近い手指の部分を基準として、手指の他の部分の表示面上での投影位置と略点対称となる位置
10d 点対称領域
10e 表示面に最も近い手指の部分の当該表示面上での投影位置を通る水平線を基準線として、手指の他の部分の表示面上での投影位置と略線対称となる位置
10f 水平線対称領域
10g 表示面に最も近い手指の部分の当該表示面上での投影位置を通る垂直線を基準線として、手指の他の部分の表示面上での投影位置と略線対称となる位置
10h 垂直線対称領域
10i 詳細情報
10j 機能アイコン
10k 表示面上での手指の複数部分の各投影位置の下側の領域
10l 表示面上での手指の複数部分の各投影位置の上側の領域
10m 表示面上での手指の複数部分の各投影位置の右側の領域
11 タッチパネル
12 近接センサ
13 制御部
13a 検出部
13b 表示制御部
14 データ記録部
DESCRIPTION OF SYMBOLS 1 Display apparatus 10 Display 10a Division | segmentation area | region 10b Projection position of the part of the finger nearest to the display surface 10c About point projection with respect to the projection position on the display surface of the other part of the finger on the basis of the finger part nearest to the display surface Position 10d Point-symmetrical area 10e Approximate line symmetry with the projection position on the display surface of the other part of the finger, with the horizontal line passing the projection position on the display surface of the part of the finger closest to the display surface as the reference line Position 10f Horizontal line symmetry region 10g Projection position and approximate line on the display surface of the other part of the finger with the vertical line passing the projection position on the display surface of the part of the finger closest to the display surface as a reference line Symmetric position 10h Vertical line symmetry area 10i Detailed information 10j Function icon 10k Lower area of each projection position of a plurality of fingers on the display surface 10l Each of the plurality of fingers on the display surface Right area 11 touch panel 12 proximity sensor 13 control unit 13a detector 13b display control unit 14 data recording unit of the projection position of portions of the fingers on the upper region 10m display surface of the shadow position

Claims (6)

情報を表示する表示手段と、
前記表示手段の表示面と利用者の手指の複数の部分との各距離と、当該表示面に略直交する方向に沿って当該利用者の手指を当該表示面に投影した場合における当該表示面上での当該手指の複数部分の各投影位置と、を検出する検出手段と、
前記検出手段により検出された前記表示面と前記手指の複数の部分との各距離と、当該表示面上での当該手指の複数部分の各投影位置とに基づき、前記表示手段に表示させる対象情報の表示位置を決定する表示制御手段と、
を備える表示装置。
Display means for displaying information;
Each distance between the display surface of the display means and a plurality of portions of the user's fingers and the display surface when the user's fingers are projected onto the display surface along a direction substantially orthogonal to the display surface Detecting means for detecting the projection positions of the plurality of parts of the finger at
Information to be displayed on the display unit based on the distances between the display surface detected by the detection unit and the plurality of parts of the finger and the projection positions of the plurality of parts of the finger on the display surface Display control means for determining the display position of
A display device comprising:
前記表示制御手段は、前記表示面に最も近い手指の部分の当該表示面上での投影位置を基準位置として、当該手指の他の部分の当該表示面上での投影位置と略点対称となる位置が含まれる領域を、前記対象情報の表示位置として決定する、
請求項1に記載の表示装置。
The display control means is substantially point-symmetric with the projection position of the other part of the finger on the display surface with the projection position on the display surface of the part of the finger closest to the display surface as a reference position. An area including a position is determined as a display position of the target information.
The display device according to claim 1.
前記検出手段は、前記表示手段の表示面を分割した複数の分割領域毎に、当該分割領域を当該表示面と略直交する方向に沿って投影した範囲内に存在する前記手指の部分と当該分割領域との距離を検出することにより、当該表示面と利用者の手指の複数の部分との各距離と、当該表示面に略直交する方向に沿って当該手指を当該表示面に投影した場合における当該表示面上での当該手指の複数部分の各投影位置と、を検出する、
請求項1又は2に記載の表示装置。
The detection means includes, for each of a plurality of divided areas obtained by dividing the display surface of the display means, the finger portion and the divided parts existing in a range in which the divided area is projected along a direction substantially orthogonal to the display surface. By detecting the distance to the area, the distance between the display surface and a plurality of parts of the user's fingers and the finger projected onto the display surface along a direction substantially orthogonal to the display surface Detecting each projection position of a plurality of parts of the finger on the display surface;
The display device according to claim 1.
前記対象情報は、前記表示面に最も近い手指の部分の当該表示面上での投影位置において前記表示手段により表示されている情報に関連する情報である、
請求項1から3のいずれか一項に記載の表示装置。
The target information is information related to information displayed by the display unit at a projection position on the display surface of the finger part closest to the display surface.
The display device according to any one of claims 1 to 3.
情報を表示手段に表示させる表示ステップと、
前記表示手段の表示面と利用者の手指の複数の部分との各距離と、当該表示面に略直交する方向に沿って当該利用者の手指を当該表示面に投影した場合における当該表示面上での当該手指の複数部分の各投影位置と、を検出する検出ステップと、
前記検出ステップで検出された前記表示面と前記手指の複数の部分との各距離と、当該表示面上での当該手指の複数部分の各投影位置とに基づき、前記表示手段に表示させる対象情報の表示位置を決定する表示制御ステップと、
を含む表示方法。
A display step for displaying information on the display means;
Each distance between the display surface of the display means and a plurality of portions of the user's fingers and the display surface when the user's fingers are projected onto the display surface along a direction substantially orthogonal to the display surface A detection step of detecting each projection position of the plurality of portions of the finger at
Target information to be displayed on the display means based on the distances between the display surface and the plurality of parts of the finger detected in the detection step, and the projection positions of the parts of the finger on the display surface A display control step for determining the display position of
Display method including.
請求項5に記載の方法をコンピュータに実行させる表示プログラム。   A display program for causing a computer to execute the method according to claim 5.
JP2011035217A 2011-02-21 2011-02-21 Display device, display method and display program Withdrawn JP2012173981A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011035217A JP2012173981A (en) 2011-02-21 2011-02-21 Display device, display method and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011035217A JP2012173981A (en) 2011-02-21 2011-02-21 Display device, display method and display program

Publications (1)

Publication Number Publication Date
JP2012173981A true JP2012173981A (en) 2012-09-10

Family

ID=46976836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011035217A Withdrawn JP2012173981A (en) 2011-02-21 2011-02-21 Display device, display method and display program

Country Status (1)

Country Link
JP (1) JP2012173981A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014225283A (en) * 2014-07-25 2014-12-04 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Electronic apparatus and method of coordinate detection
US8913029B2 (en) 2013-03-06 2014-12-16 Panasonic Intellectual Property Corporation Of America Electronic device
JP2016220977A (en) * 2015-05-29 2016-12-28 東芝メディカルシステムズ株式会社 Medical image diagnostic system, server device, and medical image display device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8913029B2 (en) 2013-03-06 2014-12-16 Panasonic Intellectual Property Corporation Of America Electronic device
US9046951B2 (en) 2013-03-06 2015-06-02 Panasonic Intellectual Property Corporation Of America Electronic device
US9395834B2 (en) 2013-03-06 2016-07-19 Panasonic Intellectual Property Corporation Of America Electronic device
US9626039B2 (en) 2013-03-06 2017-04-18 Panasonic Intellectual Property Corporation Of America Electronic device
JP2014225283A (en) * 2014-07-25 2014-12-04 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Electronic apparatus and method of coordinate detection
JP2016220977A (en) * 2015-05-29 2016-12-28 東芝メディカルシステムズ株式会社 Medical image diagnostic system, server device, and medical image display device

Similar Documents

Publication Publication Date Title
JP6550515B2 (en) Display apparatus for executing multiple applications and control method thereof
KR101304461B1 (en) Method and apparatus of gesture-based user interface
EP3690624B1 (en) Display device and method of controlling the same
EP2690542B1 (en) Display device and control method thereof
CN105683894B (en) Application execution method of display device and display device thereof
US10627990B2 (en) Map information display device, map information display method, and map information display program
WO2014199893A1 (en) Program, method, and device for controlling application, and recording medium
JP2008210348A (en) Image display device
JP2012003742A (en) Input device, input method, program and recording medium
KR20140126093A (en) Apparatus, method and computer readable recording medium for displaying shortcut window
JP2015508211A (en) Method and apparatus for controlling a screen by tracking a user's head through a camera module and computer-readable recording medium thereof
US9182887B2 (en) User interface apparatus for path search and method thereof
JP2011253468A (en) Display device, display method and display program
BR112015012539B1 (en) Display device and method for controlling the same
KR102301053B1 (en) Display apparatus and method for controlling thereof
JP2011204023A (en) Display device, display method, and display program
JP2011198210A (en) Display device, display method, and display program
CN103809872B (en) The method of mobile device and the control mobile device with parallax scrolling function
JP6177660B2 (en) Input device
KR20130126428A (en) Apparatus for processing multiple applications and method thereof
JP2012173981A (en) Display device, display method and display program
JP6087608B2 (en) Portable device, method and program for controlling portable device
KR102084548B1 (en) Display apparatus and method for controlling thereof
JP2012173997A (en) Display device, display method and display program
US20160253088A1 (en) Display control apparatus and display control method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513