JP2005078291A - Image projecting and displaying device, pointing position detecting method, program and recording medium - Google Patents

Image projecting and displaying device, pointing position detecting method, program and recording medium Download PDF

Info

Publication number
JP2005078291A
JP2005078291A JP2003306835A JP2003306835A JP2005078291A JP 2005078291 A JP2005078291 A JP 2005078291A JP 2003306835 A JP2003306835 A JP 2003306835A JP 2003306835 A JP2003306835 A JP 2003306835A JP 2005078291 A JP2005078291 A JP 2005078291A
Authority
JP
Japan
Prior art keywords
image
shadow
finger
pointing
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003306835A
Other languages
Japanese (ja)
Inventor
Keiichiro Hirahara
圭一郎 平原
Akira Sakurai
彰 桜井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2003306835A priority Critical patent/JP2005078291A/en
Publication of JP2005078291A publication Critical patent/JP2005078291A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image projecting and displaying device for, when a user indicates his or her desired position, detecting the position as a pointing position without using any special pointer, and for making a computer perform accurate processing. <P>SOLUTION: This image projecting and displaying device is provided with: a projecting device for projecting a desired image on a projection plane; an imaging means arranged at the side opposite to a user with respect to the projection plane and used for photographing, from the back side of the projection plane, the image projected on the projection plane by using an imaging part where pixels are two-dimensionally arrayed; and a processing means for detecting a pointing position from the shadow information of the finger of the user included in the image photographed by using the imaging means. This processing means detects that the shadow of the finger photographed by using the imaging means as that of a pointing purpose when a density value which is not less than a predetermined density value continues for a predetermined time or more. A cursor position on the projection plane is detected on the basis of the detected pointing position, and when the cursor points the image porjected on the projection plane, a function corresponding to the image is executed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像投影表示装置、ポインティング位置検出方法、プログラムおよび記録媒体に関する。   The present invention relates to an image projection display device, a pointing position detection method, a program, and a recording medium.

近年、コンピュータを用いたプレゼンテーションシステムが広く用いられている。このようなシステムでは、作成した資料をプロジェクタを用いて大画面のスクリーン上に投射表示し、この表示画面に直接座標入力してカーソル操作することが一般に行われている。
表示画面に直接入力する手段としては、タッチセンサが広く利用されている。これは、指やその他の指示具などで画面上に触れると、タッチセンサがこれを検出し、触れた位置をポインティング位置として検出し、カーソルを移動させる。
しかしながら、現状ではタッチセンサの反応性や、画面上に触れた指や指示具を移動させた場合の追従性が良いとは言えず、快適な画面操作が可能であるとは言いがたい。
In recent years, presentation systems using computers have been widely used. In such a system, it is common practice to project and display the created material on a large screen using a projector, and directly input coordinates on the display screen to operate the cursor.
A touch sensor is widely used as a means for inputting directly to the display screen. When a finger or other pointing tool touches the screen, the touch sensor detects this, detects the touched position as a pointing position, and moves the cursor.
However, at present, the responsiveness of the touch sensor and the followability when the finger or pointing tool touched on the screen is moved are not good, and it is difficult to say that a comfortable screen operation is possible.

このタッチセンサによるポインティング位置検出法に代わる技術として、投影された画像上をレーザポインタ等により指示し、そのレーザポインタの指し示す位置を検出してコンピュータ本体のコマンド実行、編集、拡大縮小などを行うことができるポインティングデバイスが注目されている。   As an alternative to the pointing position detection method using this touch sensor, the projected image is indicated by a laser pointer or the like, and the position indicated by the laser pointer is detected to execute, edit, enlarge or reduce the command of the computer main body. Pointing devices that can be used are attracting attention.

例えば、特許文献1の技術は、所定範囲の平面上の任意の位置を指示可能な指示手段と、前記平面を撮影し、該撮影画像に対応した信号を出力するカメラと、該カメラから出力された信号に基づいて、前記指示手段による前記平面上の指示位置を検出する位置検出手段とから構成され、大型スクリーン上の指示位置を検出することができる。   For example, the technique disclosed in Patent Document 1 is an instruction unit that can indicate an arbitrary position on a plane within a predetermined range, a camera that captures the plane and outputs a signal corresponding to the captured image, and is output from the camera. Position detecting means for detecting the indicated position on the plane by the indicating means based on the received signal, and the indicated position on the large screen can be detected.

しかしながら、カメラにより所定時間ごとにスクリーン上の指示手段で指示したレーザ輝点を検出して、ポインティング位置を検出しようとする場合、スクリーン上に投影されている画像が高輝度画像である場合にはレーザビームの輝点検出が困難になる問題が生じる。   However, when detecting the laser bright spot designated by the pointing means on the screen every predetermined time by the camera to detect the pointing position, when the image projected on the screen is a high brightness image There is a problem that it becomes difficult to detect the bright spot of the laser beam.

また、特許文献2の技術は、表示画面上あるいはその近傍に設けた単数又は複数の発光素子からの光を光電変換素子上に集光する集光光学系を有する指示器と、光電変換素子の出力信号から、指示器の軸の方向を算出し、その軸方向に対応する位置に、前記表示装置により少なくともポイント・マークを表示させるコンピュータを備えた構成とし、複数の視聴者を対象とした電子プレゼンテーションシステムや電子会議システムにおいて、スクリーンや大画面CRTあるいはその他の表示画面の特定位置を指示者が表示画面上の所望の位置を任意の位置から指示でき、しかも小型軽量で取り扱いが簡便な光学式ポインティングシステムを使用可能としている。   Moreover, the technique of patent document 2 is an indicator which has a condensing optical system which condenses the light from the single or several light emitting element provided in the display screen or its vicinity on a photoelectric conversion element, and a photoelectric conversion element. An electronic device intended for a plurality of viewers, comprising a computer that calculates the direction of the axis of the indicator from the output signal and displays at least a point mark by the display device at a position corresponding to the axial direction. In presentation systems and electronic conferencing systems, the instructor can indicate the desired position on the display screen from an arbitrary position on the screen, large screen CRT, or other display screen. A pointing system can be used.

しかしながら、この方法では、位置を検出するために表示画面に発光素子を設けなければならないため汎用性に欠け、また、光強度の指向性とその強度を検出して被検出位置を算出するために、受光素子構造の工夫が必要である上、スクリーン上の被検出位置精度が高くないという問題が生じる。   However, this method lacks versatility because a light emitting element must be provided on the display screen in order to detect the position, and in order to calculate the detected position by detecting the directivity of the light intensity and its intensity. In addition, the light receiving element structure needs to be devised, and the problem is that the detected position accuracy on the screen is not high.

これらの問題点を解決するため、特許文献3の技術は、画像を表示するためのプロジェクタと、ディスプレイ領域を撮像するCCDカメラと、該撮像手段の撮像信号に基づき、ディスプレイ領域に含まれるプレゼンタの(棒状の)指示画像の影の領域、または実像領域から棒状の影の先端部をポインティング位置として検出する処理部とを含む構成をしており、特別な指示具を必要とすることなく、プレゼンタがディスプレイ領域の所望の位置を指し示した場合に、この位置をポインティング位置として正確に検出することができる。
特開平02−306294号公報 特開平06−308879号公報 特開平11−345087号公報
In order to solve these problems, the technique disclosed in Patent Document 3 is based on a projector for displaying an image, a CCD camera that captures an image of a display area, and a presenter included in the display area based on an imaging signal of the imaging unit. The present invention has a configuration including a shadow area of a (bar-shaped) pointing image or a processing unit that detects the tip of a bar-shaped shadow as a pointing position from a real image area, and does not require a special pointing tool. Indicates a desired position in the display area, this position can be accurately detected as a pointing position.
Japanese Patent Laid-Open No. 02-306294 Japanese Patent Laid-Open No. 06-308879 Japanese Patent Laid-Open No. 11-345087

しかしながら、上記特許文献3の技術では、棒状の影を認識しているため、コンピュータのウィンドウ操作を目的としたポインティング動作なのか、プレゼン資料の参照箇所を視聴者に促す目的のポインティング動作なのかの判別が難しい。   However, since the technique of Patent Document 3 recognizes a bar-shaped shadow, it may be a pointing operation for the purpose of operating a computer window or a pointing operation for the purpose of prompting the viewer to refer to a presentation material. Difficult to distinguish.

本発明は、上述の実情を考慮してなされたものであり、特別な指示具を必要とすることなく、利用者がディスプレイ領域の所望の位置を指し示した場合に、その位置をポインティング位置として正確に検出し、コンピュータに利用者の目的に沿った的確な処理を行わせることができる画像投影表示装置、ポインティング位置検出方法、プログラムおよび記録媒体を提供することを目的とする。   The present invention has been made in consideration of the above-described circumstances. When a user points to a desired position in the display area without requiring a special pointing tool, the position is accurately set as a pointing position. It is an object of the present invention to provide an image projection display device, a pointing position detection method, a program, and a recording medium that can detect the above and cause a computer to perform accurate processing according to the purpose of the user.

上記の課題を解決するために、請求項1の発明は、所定の画像を投影面に投影する投影装置と、前記投影面に投影された画像を画素が2次元的に配列された撮像部で撮影する撮像手段と、前記撮像手段で撮影された画像に含まれる利用者の指の影情報からポインティング位置を検出する処理手段を有することを特徴とする。   In order to solve the above-described problems, the invention of claim 1 is a projection device that projects a predetermined image on a projection surface, and an imaging unit in which pixels are two-dimensionally arranged on the image projected on the projection surface. An image pickup means for photographing and a processing means for detecting a pointing position from shadow information of a user's finger included in an image photographed by the image pickup means.

請求項2の発明は、請求項1に記載の画像投影表示装置において、前記撮像手段は、前記投影面に対して利用者とは反対側に設置し、該投影面の後方から撮影するようにしたことを特徴とする。   According to a second aspect of the present invention, in the image projection display device according to the first aspect, the imaging unit is installed on the opposite side of the projection plane from the user, and images are taken from behind the projection plane. It is characterized by that.

請求項3の発明は、請求項1または2に記載の画像投影表示装置において、該装置を利用するに先立ち、前記投影面に投影された所定の範囲内におかれた利用者の指の影を前記撮像手段で撮影し、その影の濃度情報を閾値として記憶する閾値初期設定手段を有し、前記処理手段は、前記撮像手段で撮影された利用者の指の影の濃度値が前記閾値以上であるときに、その影がポインティング目的であるとして検出することを特徴とする。   According to a third aspect of the present invention, in the image projection display device according to the first or second aspect, prior to using the device, the shadow of the user's finger within a predetermined range projected on the projection plane. A threshold value initial setting means for storing the shadow density information as a threshold value, and the processing means has a shadow density value of a user's finger photographed by the imaging means as the threshold value. When the above is true, the shadow is detected as a pointing purpose.

請求項4の発明は、請求項1、2または3に記載の画像投影表示装置において、前記処理手段は、前記撮像手段で撮影された指の影が所定の濃度値以上の濃度値を所定の時間以上継続する場合、その影がポインティング目的であるとして検出することを特徴とする。   According to a fourth aspect of the present invention, in the image projection display apparatus according to the first, second, or third aspect, the processing unit has a predetermined density value equal to or higher than a predetermined density value of a finger shadow photographed by the imaging unit. If it continues for more than a certain time, the shadow is detected as a pointing purpose.

請求項5の発明は、請求項1乃至4のいずれかに記載の画像投影表示装置において、前記投影装置により投影される画像に含まれるカーソルの位置制御を行うカーソル制御手段を有し、前記カーソル制御手段は、前記処理手段で検出したポインティング位置に基づき前記投影面上でのカーソル位置を決定することを特徴とする。   A fifth aspect of the present invention is the image projection display apparatus according to any one of the first to fourth aspects, further comprising cursor control means for controlling a position of a cursor included in an image projected by the projection apparatus, and the cursor The control means determines a cursor position on the projection plane based on the pointing position detected by the processing means.

請求項6の発明は、請求項5に記載の画像投影表示装置において、前記投影面に所定の機能に対応する画像を投影させる機能入力手段と、前記カーソル制御手段で制御されるカーソルが、前記投影面に投影された機能に対応する画像にポインティングしたときに、その画像に対応する機能を実行させる機能実行手段を有することを特徴とする。   According to a sixth aspect of the present invention, in the image projection display device according to the fifth aspect, the function input means for projecting an image corresponding to a predetermined function on the projection surface, and the cursor controlled by the cursor control means are When pointing to an image corresponding to the function projected on the projection surface, the image processing apparatus has a function execution unit that executes a function corresponding to the image.

請求項7の発明は、所定の画像を投影面に投影する投影装置と、前記投影面に投影された画像を画素が2次元的に配列された撮像部で撮影する撮像手段を備えて、ポインティング位置を検出する場合、前記撮像手段で前記投影面を撮像し、該撮影された画像に含まれる利用者の指の影情報からポインティング位置を検出するようにしたことを特徴とする。   According to a seventh aspect of the present invention, there is provided a projection device that projects a predetermined image onto a projection plane, and an imaging unit that captures an image projected on the projection plane with an imaging unit in which pixels are two-dimensionally arranged. When the position is detected, the projection plane is imaged by the imaging means, and a pointing position is detected from shadow information of a user's finger included in the captured image.

請求項8の発明は、コンピュータを、請求項1乃至6のいずれかに記載の画像投影表示装置として動作させるためのプログラムである。
請求項9の発明は、請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体である。
The invention of claim 8 is a program for causing a computer to operate as the image projection display device according to any one of claims 1 to 6.
A ninth aspect of the present invention is a computer-readable recording medium on which the program according to the eighth aspect is recorded.

本発明によれば、特別な指示具などを使う必要がなく、また、装置側に特別なセンサを設けることもなく、利用者の指の影によってポインティング位置を正確に検出することができ、コンピュータに利用者の目的に沿った的確な処理を行わせることができる。
また、指の影以外の検出対象はノイズとして判断することで、環境条件等による誤検出を防止できる。
さらに、利用者の指の影の濃度を初期設定として記憶した場合、装置の設置場所に応じた閾値を設定できるので、より正確なポインティング位置を検出することができる。
According to the present invention, it is not necessary to use a special pointing tool or the like, and it is possible to accurately detect the pointing position by the shadow of the user's finger without providing a special sensor on the apparatus side. Can be made to perform accurate processing according to the purpose of the user.
Further, by detecting the detection target other than the shadow of the finger as noise, erroneous detection due to environmental conditions or the like can be prevented.
Further, when the shadow density of the user's finger is stored as an initial setting, a threshold value can be set in accordance with the installation location of the apparatus, so that a more accurate pointing position can be detected.

以下、図面を参照して本発明の画像投影表示装置に係る好適な実施形態について説明する。
<実施形態1>
図1(A)には、画像投影表示装置として、リア型投影装置を用いた構成が示されている。
この画像投影表示装置は、プロジェクタ(投影装置)2により投影された画像が表示されるディスプレイ領域1、ディスプレイ領域1の背面のほぼ正面に設けられ、投影面であるディスプレイ領域1の上に所定のプレゼンテーション用の画像を投影するプロジェクタ2と、ディスプレイ領域1の背面のほぼ正面に設けられ、ディスプレイ領域1を背面から画素が2次元的に配列された撮像部で撮像するCCDカメラ等からなる撮像手段3と、利用者5が指6で指し示す位置の検出、プロジェクタ2へ表示させる画像の選択指示や種々のアプリケーションを実行させる処理装置4から構成されている。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments according to an image projection display device of the invention will be described with reference to the drawings.
<Embodiment 1>
FIG. 1A shows a configuration using a rear projection device as an image projection display device.
This image projection display device is provided in a display area 1 on which an image projected by a projector (projection apparatus) 2 is displayed, substantially in front of the back of the display area 1, and on a display area 1 which is a projection surface, a predetermined area. An imaging means comprising a projector 2 that projects an image for presentation and a CCD camera or the like that is provided almost in front of the back surface of the display area 1 and that images the display area 1 from the back surface with an image pickup unit in which pixels are two-dimensionally arranged. 3 and a processing device 4 for detecting a position pointed to by the user 5 with the finger 6, selecting an image to be displayed on the projector 2, and executing various applications.

または、図1(B)のようにプロジェクタ2をディスプレイ領域1の前面のほぼ正面に設け、ディスプレイ領域1の前面から所定のプレゼンテーション用の画像を投影するように構成してもよい。   Alternatively, as shown in FIG. 1B, the projector 2 may be provided almost in front of the front surface of the display area 1, and a predetermined presentation image may be projected from the front surface of the display area 1.

この画像投影表示装置を用いて利用者5がプレゼンテーションを行うときには、利用者5が処理装置4に指示して所望の画像を選択してプロジェクタ2へ供給させ、プロジェクタ2はディスプレイ領域1の背面からその画像を投影させる。
利用者5は、ディスプレイ領域1に表示された画面を指6によって指し示しながら画面操作を行う。
処理装置4は、画像を表示させると同時に、撮像手段3でディスプレイ領域1の背面から撮影し、その撮影した画像に含まれる指6の影情報からポインティング位置を検出する。
When the user 5 makes a presentation using this image projection display device, the user 5 instructs the processing device 4 to select a desired image and supply it to the projector 2. The image is projected.
The user 5 performs the screen operation while pointing the screen displayed on the display area 1 with the finger 6.
The processing device 4 displays an image, and at the same time, the imaging unit 3 captures an image from the back of the display area 1 and detects the pointing position from the shadow information of the finger 6 included in the captured image.

このとき図2に示すように、撮像手段3で撮影された画像7には利用者5の影8が写っている。また、ポインティングした指6の影9は最も濃い影となって画像中に写されている。したがって、ディスプレイ領域1を撮影した画像中に所定の閾値以上の濃度で、所定の大きさの黒点が現れた時には、その黒点が指の影であると判断し、利用者の指を認識し、ポインティング位置を検出する。   At this time, as shown in FIG. 2, the shadow 8 of the user 5 is reflected in the image 7 photographed by the imaging means 3. The shadow 9 of the finger 6 that is pointed is shown in the image as the darkest shadow. Accordingly, when a black spot having a predetermined size appears at a density equal to or higher than a predetermined threshold in the image obtained by photographing the display area 1, it is determined that the black spot is a shadow of the finger, and the user's finger is recognized. Detect the pointing position.

この検出結果に基づき所定のデータ処理が行われる。このようなデータ処理の一例として、カーソル制御がある。たとえば、図1に示すように利用者5が指6を用いてディスプレイ領域1の所望位置を指示すると、このディスプレイ領域1の表示画像に含まれるカーソルが指6のポインティング位置に追従して移動することになる。   Predetermined data processing is performed based on the detection result. One example of such data processing is cursor control. For example, as shown in FIG. 1, when the user 5 uses the finger 6 to indicate a desired position of the display area 1, the cursor included in the display image of the display area 1 moves following the pointing position of the finger 6. It will be.

また、利用者5がポインティング目的でなく、ディスプレイ領域1に手をついてしまった場合も考えられるが、これは、図3に示すように、認識された黒点の周囲の一定の領域10内に同レベルの濃度の影が存在した場合にはポインティング目的とみなさないようにする。これにより指以外の影や、利用者5の腕や体のようにディスプレイ領域1上で濃度の薄い影はノイズとして判断され、濃度の濃い指の影のみがポインティングとして認識されるので、正確なポインティング位置が検出できる。   In addition, it is conceivable that the user 5 touches the display area 1 for a purpose other than the pointing purpose, but this is the same in a certain area 10 around the recognized black spot as shown in FIG. If there is a shadow of level density, it is not considered as a pointing purpose. As a result, a shadow other than a finger or a shadow with a low density on the display area 1 such as the arm or body of the user 5 is determined as noise, and only the shadow of a finger with a high density is recognized as a pointing. The pointing position can be detected.

図4に示すようなテーブル型の画像投影表示装置に適用した場合、利用者は画面に手をついたり物を置くことが考えられる。このとき、影の存在の有無だけでポインティングを検出しようとすると誤動作を招くおそれがあるが、一本の指以外の影を除外することで、適切な操作が可能になる。   When applied to a table-type image projection display device as shown in FIG. 4, it is conceivable that the user puts his hand on the screen or places an object. At this time, if pointing is detected only by the presence or absence of a shadow, a malfunction may be caused. However, by excluding a shadow other than one finger, an appropriate operation can be performed.

図5は、処理装置4の機能構成を示すブロック図である。同図において、処理装置4は、画像取込手段41、処理手段50、カーソル制御手段42、画像表示手段43を少なくとも含んでいる。
画像取込手段41は、撮像手段3を制御して、ディスプレイ領域1に投影された画像を取り込み、処理手段50へ供給する。
FIG. 5 is a block diagram illustrating a functional configuration of the processing device 4. In the figure, the processing device 4 includes at least an image capturing means 41, a processing means 50, a cursor control means 42, and an image display means 43.
The image capturing unit 41 controls the image capturing unit 3 to capture an image projected on the display area 1 and supply it to the processing unit 50.

処理手段50は、プロジェクタ2を制御してディスプレイ領域1上にプレゼンテーション用画像を投影させるとともに、撮像手段3を制御して、ディスプレイ領域1の背面から撮影されるディスプレイ領域1の画像に含まれる利用者5の指6のポインティング位置を自動的に認識する。   The processing means 50 controls the projector 2 to project an image for presentation on the display area 1, and controls the imaging means 3 to use the image included in the image of the display area 1 taken from the back of the display area 1. The pointing position of the finger 6 of the person 5 is automatically recognized.

カーソル制御手段42は、検出されたポインティング位置に基づきカーソルの位置制御信号を画像表示手段43へ供給し、画像表示手段43はこの指示された位置にカーソルをあらわす画像を含めるようにしてディスプレイ領域1へ投影する。
例えば、図6に示すように、黒点で示した指の影11に追従して矢印で示したカーソル12が移動するように表示される。このように、利用者の指で指し示す位置に追従してカーソルを移動させられるので、カーソル位置をわかりやすく認識することができる。
The cursor control means 42 supplies a cursor position control signal to the image display means 43 based on the detected pointing position, and the image display means 43 includes an image representing the cursor at the indicated position so as to include the display area 1. Project to.
For example, as shown in FIG. 6, the cursor 12 indicated by an arrow is displayed so as to move following the shadow 11 of the finger indicated by a black dot. In this way, the cursor can be moved following the position pointed by the user's finger, so that the cursor position can be easily recognized.

画像表示手段43は、利用者から指示されたプレゼンテーション用の文書や画像を画像信号として生成し、この生成された画像信号をプロジェクタ2に供給し、プロジェクタ2はその画像信号により光を変調して、ディスプレイ領域1へ投影する。   The image display means 43 generates a presentation document or image instructed by the user as an image signal, supplies the generated image signal to the projector 2, and the projector 2 modulates light by the image signal. , Projected onto the display area 1.

図7のフローチャートを用いて、処理手段50におけるポインティング位置検出処理を説明する。
まず、指の影領域を抽出するために最適な撮像手段3の絞り、ゲインの各設定値を位置検出用の基準値として設定しておく。次に、画像取込手段41は、この基準値に基づき撮像手段3を制御して、ディスプレイ領域1の画像を撮影し、メモリへ取り込む。
The pointing position detection process in the processing unit 50 will be described with reference to the flowchart of FIG.
First, the aperture and gain setting values optimal for extracting the shadow region of the finger are set as reference values for position detection. Next, the image capture means 41 controls the image capture means 3 based on this reference value, captures an image of the display area 1 and captures it in the memory.

メモリへ記憶された撮影画像データから指の影領域を抽出し、この影のサイズ、中心の座標(または、濃度の重心の座標値や最も濃度の高い座標値等でもよい)、影の濃度値を取り出す(ステップS10)。
この影のサイズが所定の大きさの範囲外(サイズ<A1又はサイズ>A2)であれば(ステップS11のNO)、指の影ではないとして処理を終了する。この範囲は、人間の指の太さの平均サイズから最小値(A1)と最大値(A2)を決定する。
Extracts the shadow area of the finger from the captured image data stored in the memory, and the shadow size, the center coordinates (or the coordinate value of the center of gravity of the density, the coordinate value with the highest density, etc.), the density value of the shadow Is taken out (step S10).
If the size of the shadow is out of the predetermined size range (size <A1 or size> A2) (NO in step S11), the process ends as it is not a finger shadow. In this range, the minimum value (A1) and the maximum value (A2) are determined from the average size of the thickness of human fingers.

また、影のサイズが所定の大きさの範囲内(A1<サイズ<A2))であり(ステップS11のYES)、影の濃度が所定の濃度値(B)より小さければ(ステップS12のNO)、指の影ではないとして処理を終了する。この所定の濃度値(B)は実験によって決定する。   If the shadow size is within a predetermined range (A1 <size <A2)) (YES in step S11) and the shadow density is smaller than the predetermined density value (B) (NO in step S12). Then, the process is ended as not being the shadow of the finger. This predetermined density value (B) is determined by experiment.

また、影の濃度が所定の濃度値(B)より大きければ(ステップS12のYES)、指の影とみなされ、その影の周囲の一定の領域内に同レベルの濃度の影が存在する場合(ステップS13のYES)、指によるポインティングではないとみなして処理を終了する。
一方、影とみなされた黒点の周囲の一定の領域内に同レベルの濃度の影が存在しない場合(ステップS13のNO)、指によるポインティングであるとして、指の影の中心の座標(または、濃度の重心の座標値や最も濃度の高い座標値等でもよい)をポインティング位置として検出する。
If the shadow density is greater than the predetermined density value (B) (YES in step S12), it is regarded as a finger shadow, and there is a shadow with the same level of density in a certain region around the shadow. (YES in step S13), it is determined that it is not pointing with a finger, and the process is terminated.
On the other hand, if there is no shadow of the same level in a certain area around the black spot regarded as a shadow (NO in step S13), it is assumed that the finger is pointing and the coordinates of the center of the finger shadow (or The coordinate value of the density centroid, the coordinate value with the highest density, etc.) may be detected as the pointing position.

この検出データをカーソル制御手段42へ向け出力する。この画像取り込みからポインティング位置検出までを繰り返し行うことによって、指の影の移動にあわせてカーソルを動かすことができる。   The detected data is output to the cursor control means 42. By repeatedly performing from this image capture to pointing position detection, the cursor can be moved in accordance with the movement of the shadow of the finger.

上述した所定の濃度値(B)は、閾値初期設定手段によって次のようにして決定することもできる。画像投影表示装置を利用するに先立ち、例えば、利用者が装置の電源を投入したときに、図8に示したようにディスプレイ領域13上に所定領域を示す枠14を表示する。利用者がこの枠内を指でポインティングすると、背面から撮像手段でディスプレイ領域13を撮影すると、図9に示すように撮影された画像15の中に指の影16が撮影されている。
この画像から指の影の濃度の平均値を求め、この値を上記の所定の濃度値(B)とし、閾値の初期設定としてメモリへ記憶する。なお、この濃度値Bは指の影の最小濃度値や最大濃度値等として適切な値を設定する。
このように初期設定することにより、状況に応じた閾値を設定できるので、ポインティング検出がより正確になる。
The predetermined density value (B) described above can also be determined by the threshold initial setting means as follows. Prior to using the image projection display apparatus, for example, when the user turns on the apparatus, a frame 14 indicating a predetermined area is displayed on the display area 13 as shown in FIG. When the user points in the frame with his / her finger and the display area 13 is photographed by the imaging means from the back, a finger shadow 16 is photographed in the photographed image 15 as shown in FIG.
An average value of the density of the shadow of the finger is obtained from this image, and this value is set as the above-mentioned predetermined density value (B) and stored in the memory as an initial setting of the threshold value. The density value B is set to an appropriate value such as the minimum density value or the maximum density value of the finger shadow.
By performing the initial setting in this way, a threshold corresponding to the situation can be set, so that pointing detection becomes more accurate.

以上のような方法でポインティング位置を検出する場合、ディスプレイ領域1の背面側(利用者とはディスプレイ領域を挟んで反対側)に撮像手段3を置くことで、ポインティングする指先の影はディスプレイ領域1の裏面に表示されるが、プロジェクタ2が前面投影または背面投影に関係なく、正確にポインティング位置を検出できる。また、背面側に撮像手段3を固定することで、ディスプレイ領域1上での指の影の座標軸が変化しないため、投影画像にポインティングの位置情報を反映しやすくなる。   When the pointing position is detected by the method as described above, by placing the imaging means 3 on the back side of the display area 1 (on the opposite side of the display area from the user), the shadow of the fingertip to be pointed is displayed in the display area 1 However, the projector 2 can accurately detect the pointing position regardless of the front projection or the rear projection. In addition, by fixing the imaging unit 3 on the back side, the coordinate axis of the finger shadow on the display area 1 does not change, so that it becomes easy to reflect the position information of the pointing on the projected image.

このような指の影によるポインティングをマウスの代わりに利用することにより、マウスを必要とせずに、より快適な操作ができる。
例えば、ディスプレイ領域1上に図10に示すようなコンピュータ画面17を投影し、その上に所定の機能をもつダイアログ18が表示されている(機能入力手段)場合を考える。この図10のダイアログ18には、ウィンドウの上下のスクロール(19,20)、左右のスクロール(21,22)およびウィンドウの最大化、最小化(23,24)の各ボタンが配置されており、各ボタンがクリックされることで、それぞれのウィンドウ操作が行われるように設定されている。
By using the pointing by the shadow of the finger instead of the mouse, a more comfortable operation can be performed without the need for a mouse.
For example, consider a case where a computer screen 17 as shown in FIG. 10 is projected on the display area 1 and a dialog 18 having a predetermined function is displayed thereon (function input means). The dialog 18 in FIG. 10 includes buttons for scrolling up and down the window (19, 20), left and right scrolling (21, 22), and maximizing and minimizing the window (23, 24). Each window operation is set to be performed when each button is clicked.

このダイアログ18を表示する画面上の座標を固定とすると、各ボタンの画面上の座標も固定されたものとなる。
したがって、指の影がポインティングしたことを判断し、カーソル制御手段42にそのポインティング位置の座標が渡されると、その座標が存在する領域に対応するボタンに割り当てられたイベントを発生させて、コンピュータにそれに応じた処理を行わせる(機能実行手段)。
If the coordinates on the screen for displaying the dialog 18 are fixed, the coordinates on the screen of each button are also fixed.
Therefore, when it is determined that the shadow of the finger has been pointed and the coordinates of the pointing position are passed to the cursor control means 42, an event assigned to the button corresponding to the area where the coordinates exist is generated, and the computer is Processing corresponding to that is performed (function execution means).

上述したようなウィンドウ操作用のダイアログに限らず、アプリケーションソフトウェアに対応させたアイコンを表示させ、そのアイコンの位置に指の影がポインティングされたときには、そのアイコンに対応するアプリケーションソフトウェアを起動させるようにも応用できる。
また、上記のダイアログは、ボタンに限らずポップアップ構造として、より多くの必要な機能をもたせることもできる。
さらに、ダイアログの表示場所も一定の所に置くのではなく、画面の4辺に沿ってボタンを設けるなどして、画面上でダイアログが必要以上に多くのスペースを取ることを避けることもできる。
Not only the dialog for window operation as described above, but an icon corresponding to the application software is displayed, and when the shadow of the finger is pointed at the position of the icon, the application software corresponding to the icon is activated. Can also be applied.
Further, the above dialog can be provided with more necessary functions as a pop-up structure without being limited to buttons.
Furthermore, instead of placing the dialog display location at a fixed location, buttons can be provided along the four sides of the screen, so that it is possible to prevent the dialog from taking up more space than necessary.

<実施形態2>
実施形態1のように、ディスプレイ領域に写る影領域の存在の有無を判断して、ポインティング位置を検出するだけでは、利用者の意図しない誤動作も起こりかねない。
例えば、ディスプレイ領域に指が触れる前にポインティング位置を検出してしまう場合が考えられる。
<Embodiment 2>
As in the first embodiment, simply detecting the pointing position by determining the presence or absence of a shadow area appearing in the display area may cause a malfunction that is not intended by the user.
For example, there may be a case where the pointing position is detected before the finger touches the display area.

本実施形態2は、影の時間的濃度変化を利用して判別することにより、正確なポインティングを認識するようにした。実施形態2は、実施形態1と同じ構成であるから、相違点についてのみ説明する。   In the second embodiment, accurate pointing is recognized by making use of a change in shadow temporal density. Since the second embodiment has the same configuration as that of the first embodiment, only differences will be described.

指がディスプレイ領域に近づいてくると、影の濃度が時間経過にしたがって濃くなり、ポインティングしている間は濃度レベルがピークに達し、ポインティングが終了すると指がディスプレイ領域から離れていき、ふたたび濃度レベルが下がる(図11参照)。
図11に示すように、指の影の濃度レベルが所定の時間Tを超えるまでピーク状態を保つ場合、ポインティング動作とみなし、処理を行うことにすることで、より正確にポインティングを検出できる。この所定時間Tは、一般にマウス等で利用者がボタンを押していると考えられる時間、例えば0.5秒〜1秒のように、適切な値を設定する。
これによって、正確なボタン押下動作などの画面操作の性能も向上する。
ここで、閾値初期設定手段で、指の影の濃度値の閾値を初期設定しているときには、この初期設定値を超える濃度値をすべてピーク値として扱うようにしてもよい。
As the finger approaches the display area, the shadow density increases over time, and the density level reaches its peak while pointing, and when pointing ends, the finger moves away from the display area, and again the density level. (See FIG. 11).
As shown in FIG. 11, when the peak state is maintained until the density level of the finger shadow exceeds a predetermined time T, it is regarded as a pointing operation, and the processing can be performed more accurately by performing the processing. The predetermined time T is set to an appropriate value such as a time that is generally considered that the user is pressing the button with a mouse or the like, for example, 0.5 seconds to 1 second.
This also improves the performance of screen operations such as accurate button press operations.
Here, when the threshold value initial setting means initially sets the threshold value of the density value of the finger shadow, all density values exceeding the initial set value may be handled as peak values.

図12のフローチャートを用いて、処理手段50におけるポインティング位置検出処理の他の例を説明する。
まず、指の影領域を抽出するために最適な撮像手段3の絞り、ゲインの各設定値を位置検出用の基準値として設定しておく。次に、画像取込手段41は、この基準値に基づき撮像手段3を制御して、ディスプレイ領域1の画像を撮影し、メモリへ取り込む。
Another example of the pointing position detection process in the processing unit 50 will be described with reference to the flowchart of FIG.
First, the aperture and gain setting values optimal for extracting the shadow region of the finger are set as reference values for position detection. Next, the image capture means 41 controls the image capture means 3 based on this reference value, captures an image of the display area 1 and captures it in the memory.

メモリへ記憶された撮影画像データから指の影領域を抽出し、この影の濃度を取り出し、先に状態メモリへ記憶させてあった影の濃度と等しくなければ、抽出した影のサイズ、中心の座標(または、濃度の重心の座標値や最も濃度の高い座標値等でもよい)、このデータを取り込んだ日時を状態メモリへ記憶させる。しかし、抽出した影の濃度が状態メモリに記憶させておいた濃度値と同じ場合には、状態メモリは更新せずにそのままとする(ステップS20)。
ここで、実施形態1で説明した、指の影の濃度の初期設定値(B)がメモリに記憶されているときには、取り出した指の影の濃度がこの初期設定値(B)の値より大きい時にはすべて同じ濃度値として扱うようにしてもよい。
Extract the shadow area of the finger from the captured image data stored in the memory, extract the shadow density, and if it is not equal to the shadow density previously stored in the state memory, the size and center of the extracted shadow The coordinates (or the coordinate value of the center of gravity of the density, the coordinate value with the highest density, etc.) and the date and time when this data was taken in are stored in the state memory. However, if the extracted shadow density is the same as the density value stored in the state memory, the state memory is not updated and is left as it is (step S20).
Here, when the initial setting value (B) of the density of the finger shadow described in the first embodiment is stored in the memory, the density of the extracted shadow of the finger is larger than the value of the initial setting value (B). Sometimes they may all be treated as the same density value.

この影のサイズが所定の大きさの範囲外(サイズ<A1又はサイズ>A2)であれば(ステップS21のNO)、指の影ではないとして処理を終了する。この範囲は、人間の指の太さの平均サイズから最小値(A1)と最大値(A2)を決定する。   If the size of the shadow is out of the predetermined size range (size <A1 or size> A2) (NO in step S21), the process ends as it is not a finger shadow. In this range, the minimum value (A1) and the maximum value (A2) are determined from the average size of the thickness of human fingers.

また、影のサイズが所定の大きさの範囲内(A1<サイズ<A2)であり(ステップS21のYES)、影の濃度が所定の濃度値(B)より小さければ(ステップS22のNO)、指の影ではないとして処理を終了する。この所定の濃度値(B)は実験によって決定したり、また、実施形態1で述べたように使用に先立って求めた初期設定値を利用してもよい。   If the shadow size is within a predetermined size range (A1 <size <A2) (YES in step S21), and the shadow density is smaller than the predetermined density value (B) (NO in step S22), The process is terminated assuming that it is not a shadow of a finger. The predetermined density value (B) may be determined by experiment, or an initial set value obtained prior to use as described in the first embodiment may be used.

また、影の濃度が所定の濃度値(B)より大きければ(ステップS22のYES)、指の影とみなされ、その影の周囲の一定の領域内に同レベルの濃度の影が存在する場合(ステップS23のYES)、指によるポインティングではないとみなして処理を終了する。
一方、影とみなされた黒点の周囲の一定の領域内に同レベルの濃度の影が存在しない場合(ステップS23のNO)、影濃度時間(t)が所定の時間(T)以下であれば(ステップS24のNO)、ポインティング動作ではないとして処理を終了する。
If the shadow density is greater than the predetermined density value (B) (YES in step S22), it is regarded as a finger shadow, and there is a shadow with the same level of density in a certain area around the shadow. (YES in step S23), it is determined that the pointing is not performed with a finger, and the process is terminated.
On the other hand, if there is no shadow with the same level of density within a certain area around the black spot regarded as a shadow (NO in step S23), if the shadow density time (t) is equal to or shorter than the predetermined time (T). (NO in step S24), it is determined that it is not a pointing operation, and the process is terminated.

ここで、影濃度時間(t)は次の式で計算される。
t=(今処理中の画像データを取り出した日時)−(先に状態メモリに記憶させておいた画像データを取り出した日時)
Here, the shadow density time (t) is calculated by the following equation.
t = (date and time when image data being processed is taken out) − (date and time when image data previously stored in the state memory is taken out)

一方、影濃度時間(t)が所定の時間(T)以上であれば(ステップS24のYES)、指によるポインティングであるとして、状態メモリをクリアするとともに、指の影の中心の座標(または、濃度の重心の座標値や最も濃度の高い座標値等でもよい)をポインティング位置として検出する(ステップS25)。   On the other hand, if the shadow density time (t) is equal to or longer than the predetermined time (T) (YES in step S24), the state memory is cleared and the coordinates of the center of the shadow of the finger (or The coordinate value of the density centroid, the coordinate value with the highest density, etc.) may be detected as the pointing position (step S25).

この検出データをカーソル制御手段42へ向け出力する。この画像取り込みからポインティング位置検出までを繰り返し行うことによって、指の影の移動にあわせてカーソルを動かすことができる。   The detected data is output to the cursor control means 42. By repeatedly performing from this image capture to pointing position detection, the cursor can be moved in accordance with the movement of the shadow of the finger.

<その他の実施形態>
本発明は、上述した実施形態のみに限定されたものではない。上述した実施形態の画像投影表示装置を構成する各機能をそれぞれプログラム化し、予めROM等の記録媒体に書き込んでおき、画像投影表示装置にこのROMを装着して、これらのプログラムをマイクロプロセッサで実行することによって、本発明の目的が達成されることは言うまでもない。
この場合、記録媒体から読み出されて実行された状態が上述した実施形態の機能を実現することになり、そのプログラムおよびそのプログラムを記録した記録媒体も本発明を構成することになる。
<Other embodiments>
The present invention is not limited only to the above-described embodiments. Each function constituting the image projection display device of the above-described embodiment is programmed, written in advance in a recording medium such as a ROM, the ROM is mounted on the image projection display device, and these programs are executed by a microprocessor. Needless to say, the object of the present invention is achieved.
In this case, the state read and executed from the recording medium realizes the functions of the above-described embodiment, and the program and the recording medium on which the program is recorded also constitute the present invention.

なお、このような機能を実現するプログラムは、半導体媒体(例えば、ROM、不揮発性メモリ等)、光媒体(例えば、DVD、MO、MD、CD等)、磁気媒体(例えば、磁気テープ、フレキシブルディスク等)等のいずれの形態の記録媒体で提供されてもよい。
あるいは、ネットワーク等の通信網を介して記憶装置に格納されたプログラムをサーバコンピュータから直接供給を受けるようにしてもよい。この場合、このサーバコンピュータの記憶装置も本発明の記録媒体に含まれる。
Note that a program that realizes such a function includes a semiconductor medium (eg, ROM, nonvolatile memory, etc.), an optical medium (eg, DVD, MO, MD, CD, etc.), a magnetic medium (eg, magnetic tape, flexible disk, etc.). Etc.) may be provided in any form of recording medium.
Alternatively, the program stored in the storage device may be directly supplied from the server computer via a communication network such as a network. In this case, the storage device of this server computer is also included in the recording medium of the present invention.

このような記録媒体で提供された場合は、その記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置にインストールし、そのインストールされたプログラムをマイクロプロセッサが実行することによって上述した実施形態の機能が実現される。または、記録媒体に記録されたプログラムを直接実行するようにしてもよい。   When provided by such a recording medium, the function of the above-described embodiment is obtained by reading the program from the recording medium and installing the program in the internal storage device or the external storage device, and executing the installed program by the microprocessor. Is realized. Alternatively, the program recorded on the recording medium may be directly executed.

本発明の画像投影表示装置を示す構成図である。It is a block diagram which shows the image projection display apparatus of this invention. 撮像手段で撮影した画像の例である。It is an example of the image image | photographed with the imaging means. 指の影がポインティング目的であるか否かを判断するときの範囲を示す例である。It is an example which shows the range when determining whether the shadow of a finger | toe is for the purpose of pointing. テーブル型の画像投影表示装置の例である。It is an example of a table-type image projection display device. 処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of a processing apparatus. 指の影をカーソル制御に使ったときのカーソルの表示例である。It is a display example of a cursor when the shadow of a finger is used for cursor control. 処理手段におけるポインティング位置検出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the pointing position detection process in a process means. 指の影の濃度を初期設定するときの説明図である。It is explanatory drawing when the density of the shadow of a finger is initialized. 図8に利用者が指を置いたときの撮影画像である。FIG. 8 shows a photographed image when the user places his / her finger. 指の影をカーソル制御に使って機能(アプリケーションソフトウェアの実行、ウィンドウ操作制御等)を操作するときの説明図である。It is explanatory drawing when operating a function (execution of application software, window operation control, etc.) using the shadow of a finger for cursor control. 指がディスプレイ領域に近づいて、離れるまでの指の影の濃度の時間経過を示す図である。It is a figure which shows the time passage of the density | concentration of the shadow of a finger | toe until a finger approaches a display area and leaves | separates. 処理手段におけるポインティング位置検出処理の他の処理手順を示すフローチャートである。It is a flowchart which shows the other process sequence of the pointing position detection process in a process means.

符号の説明Explanation of symbols

1…ディスプレイ領域、2…プロジェクタ、3…撮像手段、4…処理装置、5…利用者、6…指、41…画像取込手段、42…カーソル制御手段、43…画像表示手段、50…処理手段。 DESCRIPTION OF SYMBOLS 1 ... Display area, 2 ... Projector, 3 ... Imaging means, 4 ... Processing apparatus, 5 ... User, 6 ... Finger, 41 ... Image capture means, 42 ... Cursor control means, 43 ... Image display means, 50 ... Processing means.

Claims (9)

所定の画像を投影面に投影する投影装置と、前記投影面に投影された画像を画素が2次元的に配列された撮像部で撮影する撮像手段と、前記撮像手段で撮影された画像に含まれる利用者の指の影情報からポインティング位置を検出する処理手段を有することを特徴とする画像投影表示装置。   Included in a projection device that projects a predetermined image on a projection plane, an imaging unit that captures an image projected on the projection plane with an imaging unit in which pixels are two-dimensionally arranged, and an image captured by the imaging unit An image projection display device comprising processing means for detecting a pointing position from shadow information of a user's finger. 請求項1に記載の画像投影表示装置において、前記撮像手段は、前記投影面に対して利用者とは反対側に設置し、該投影面の後方から撮影するようにしたことを特徴とする画像投影表示装置。   The image projection display device according to claim 1, wherein the imaging unit is installed on a side opposite to a user with respect to the projection plane, and images are taken from behind the projection plane. Projection display device. 請求項1または2に記載の画像投影表示装置において、該装置を利用するに先立ち、前記投影面に投影された所定の範囲内におかれた利用者の指の影を前記撮像手段で撮影し、その影の濃度情報を閾値として記憶する閾値初期設定手段を有し、前記処理手段は、前記撮像手段で撮影された利用者の指の影の濃度値が前記閾値以上であるときに、その影がポインティング目的であるとして検出することを特徴とする画像投影表示装置。   3. The image projection display device according to claim 1, wherein a shadow of a user's finger within a predetermined range projected on the projection plane is photographed by the imaging unit prior to using the device. A threshold initial setting means for storing the shadow density information as a threshold, and the processing means, when the shadow density value of the user's finger photographed by the imaging means is equal to or greater than the threshold, An image projection display device, wherein a shadow is detected as a pointing purpose. 請求項1、2または3に記載の画像投影表示装置において、前記処理手段は、前記撮像手段で撮影された指の影が所定の濃度値以上の濃度値を所定の時間以上継続する場合、その影がポインティング目的であるとして検出することを特徴とする画像投影表示装置。   4. The image projection display device according to claim 1, wherein when the shadow of the finger imaged by the imaging unit continues a density value equal to or higher than a predetermined density value for a predetermined time or more, An image projection display device, wherein a shadow is detected as a pointing purpose. 請求項1乃至4のいずれかに記載の画像投影表示装置において、前記投影装置により投影される画像に含まれるカーソルの位置制御を行うカーソル制御手段を有し、前記カーソル制御手段は、前記処理手段で検出したポインティング位置に基づき前記投影面上でのカーソル位置を決定することを特徴とする画像投影表示装置。   5. The image projection display device according to claim 1, further comprising cursor control means for controlling a position of a cursor included in an image projected by the projection apparatus, wherein the cursor control means is the processing means. An image projection display apparatus, wherein a cursor position on the projection plane is determined based on the pointing position detected in step (b). 請求項5に記載の画像投影表示装置において、前記投影面に所定の機能に対応する画像を投影させる機能入力手段と、前記カーソル制御手段で制御されるカーソルが、前記投影面に投影された機能に対応する画像にポインティングしたときに、その画像に対応する機能を実行させる機能実行手段を有することを特徴とする画像投影表示装置。   6. The image projection display device according to claim 5, wherein a function input means for projecting an image corresponding to a predetermined function onto the projection surface, and a function in which a cursor controlled by the cursor control means is projected onto the projection surface. An image projection display device comprising function execution means for executing a function corresponding to an image when pointing to the image corresponding to the image. 所定の画像を投影面に投影する投影装置と、前記投影面に投影された画像を画素が2次元的に配列された撮像部で撮影する撮像手段を備えて、ポインティング位置を検出する場合、前記撮像手段で前記投影面を撮像し、該撮影された画像に含まれる利用者の指の影情報からポインティング位置を検出するようにしたことを特徴とするポインティング位置検出方法。   A projection apparatus that projects a predetermined image on a projection plane; and an imaging unit that captures an image projected on the projection plane with an imaging unit in which pixels are two-dimensionally arranged. A pointing position detection method, wherein the projection plane is imaged by an imaging means, and a pointing position is detected from shadow information of a user's finger included in the captured image. コンピュータを、請求項1乃至6のいずれかに記載の画像投影表示装置として動作させるためのプログラム。   The program for operating a computer as an image projection display apparatus in any one of Claims 1 thru | or 6. 請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 8 is recorded.
JP2003306835A 2003-08-29 2003-08-29 Image projecting and displaying device, pointing position detecting method, program and recording medium Pending JP2005078291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003306835A JP2005078291A (en) 2003-08-29 2003-08-29 Image projecting and displaying device, pointing position detecting method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003306835A JP2005078291A (en) 2003-08-29 2003-08-29 Image projecting and displaying device, pointing position detecting method, program and recording medium

Publications (1)

Publication Number Publication Date
JP2005078291A true JP2005078291A (en) 2005-03-24

Family

ID=34409802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003306835A Pending JP2005078291A (en) 2003-08-29 2003-08-29 Image projecting and displaying device, pointing position detecting method, program and recording medium

Country Status (1)

Country Link
JP (1) JP2005078291A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072637A (en) * 2005-09-06 2007-03-22 Hitachi Ltd Input device using elastic material
JP2009070245A (en) * 2007-09-14 2009-04-02 Ricoh Co Ltd Image projection display device, image projection display method, image projection display program and storage medium
WO2010015945A1 (en) * 2008-08-05 2010-02-11 Sony Ericsson Mobile Communications Ab Shadow and reflection identification in image capturing devices
KR101071864B1 (en) 2010-03-10 2011-10-10 전남대학교산학협력단 Touch and Touch Gesture Recognition System
EP2879000A1 (en) * 2013-10-31 2015-06-03 Funai Electric Co., Ltd. Projector device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072637A (en) * 2005-09-06 2007-03-22 Hitachi Ltd Input device using elastic material
JP4635788B2 (en) * 2005-09-06 2011-02-23 株式会社日立製作所 Input device using elastic material
JP2009070245A (en) * 2007-09-14 2009-04-02 Ricoh Co Ltd Image projection display device, image projection display method, image projection display program and storage medium
WO2010015945A1 (en) * 2008-08-05 2010-02-11 Sony Ericsson Mobile Communications Ab Shadow and reflection identification in image capturing devices
US7920179B2 (en) 2008-08-05 2011-04-05 Sony Ericsson Mobile Communications Ab Shadow and reflection identification in image capturing devices
KR101071864B1 (en) 2010-03-10 2011-10-10 전남대학교산학협력단 Touch and Touch Gesture Recognition System
EP2879000A1 (en) * 2013-10-31 2015-06-03 Funai Electric Co., Ltd. Projector device

Similar Documents

Publication Publication Date Title
CN105229582B (en) Gesture detection based on proximity sensor and image sensor
JP5680976B2 (en) Electronic blackboard system and program
JP3640156B2 (en) Pointed position detection system and method, presentation system, and information storage medium
CN104166509B (en) A kind of contactless screen exchange method and system
TWI706181B (en) Imaging devices having autofocus control
JP5740822B2 (en) Information processing apparatus, information processing method, and program
US20130021491A1 (en) Camera Device Systems and Methods
US10277544B2 (en) Information processing apparatus which cooperate with other apparatus, and method for controlling the same
KR101446902B1 (en) Method and apparatus for user interraction
JP4933389B2 (en) Image projection display device, image projection display method, image projection display program, and recording medium
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2001125738A5 (en)
EP2802147A2 (en) Electronic apparatus, information processing method, and storage medium
JP2011043876A (en) Image display device
US20120280909A1 (en) Image display system and image display method
CN102196176A (en) Information processing apparatus, information processing method, and program
JP2016038902A (en) Contact detection system, information processing method, information processing apparatus, and program
JP2012238293A (en) Input device
JP2005078291A (en) Image projecting and displaying device, pointing position detecting method, program and recording medium
JP2011188023A (en) Information processing unit, method of processing information, and program
JP6465197B2 (en) Information processing apparatus, information processing method, and program
US9483125B2 (en) Position information obtaining device and method, and image display system
US20160110881A1 (en) Motion tracking device control systems and methods
JP2008242881A (en) Input device and input program
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080415