JP2010139686A - Projector, program, and information storage medium - Google Patents
Projector, program, and information storage medium Download PDFInfo
- Publication number
- JP2010139686A JP2010139686A JP2008315334A JP2008315334A JP2010139686A JP 2010139686 A JP2010139686 A JP 2010139686A JP 2008315334 A JP2008315334 A JP 2008315334A JP 2008315334 A JP2008315334 A JP 2008315334A JP 2010139686 A JP2010139686 A JP 2010139686A
- Authority
- JP
- Japan
- Prior art keywords
- image
- gesture
- operation information
- projector
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、プロジェクター、プログラムおよび情報記憶媒体に関する。 The present invention relates to a projector, a program, and an information storage medium.
ユーザーは、プロジェクターを用いて画像を投写している状況で画像の拡大等を行うためには、リモコン(リモートコントローラー)を用いたボタン操作によってOSD(On Screen Display)画像を投写し、拡大したい位置や拡大率等をOSD画像のメニューで選択しなければならなかった。しかし、プロジェクターの場合、1つの画像を多数の聴衆が観察しており、このような状況でプレゼンテーション画像とは異なるOSD画像を投写することは、情報の視認性を低下させる上、プレゼンテーションを中断することになるため、好ましくない。 In order to enlarge an image while projecting an image using a projector, the user projects an OSD (On Screen Display) image by operating a button using a remote controller (remote controller), and the position to be enlarged And the enlargement ratio had to be selected from the OSD image menu. However, in the case of a projector, a large number of audiences are observing one image, and projecting an OSD image different from the presentation image in such a situation lowers the visibility of information and interrupts the presentation. This is not preferable.
また、例えば、特開2008−15402号公報では、携帯電話またはPC(Personal Computer)とプロジェクターを用いた投写システムで、投写されている画像の拡大または縮小を行うためにプロジェクターの操作部やリモコンを用いることが記載されている。
しかし、PCや携帯電話を操作している状況で画像の拡大等を行うためには、ユーザーは、PCに接続されたマウスや携帯電話とリモコンを持ち替えて操作する必要があり、操作が煩雑となる。 However, in order to perform image enlargement or the like while operating a PC or a mobile phone, the user needs to move the mouse or mobile phone connected to the PC and the remote control to operate it, and the operation is complicated. Become.
本発明の目的は、プレゼンテーションを中断することなく、同一の装置からの操作情報に応じて種々の制御を行うことが可能なプロジェクター、プログラムおよび情報記憶媒体を提供することにある。 An object of the present invention is to provide a projector, a program, and an information storage medium capable of performing various controls according to operation information from the same apparatus without interrupting a presentation.
上記課題を解決するため、本発明に係るプロジェクターは、操作情報を入力する操作情報入力部と、前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、前記操作情報がジェスチャーを示すものでない場合、前記指示位置情報に基づき、前記指示位置を示す画像を生成する画像生成部と、前記指示位置を示す画像を投写する投写部と、を含むことを特徴とする。 In order to solve the above problems, a projector according to the present invention includes an operation information input unit that inputs operation information, an instruction position information generation unit that generates instruction position information indicating an instruction position based on the operation information, and the instruction A gesture determination unit that determines whether the operation information indicates a gesture based on position information; a control unit that performs control according to the gesture when the operation information indicates a gesture; and When the operation information does not indicate a gesture, an image generation unit that generates an image indicating the specified position based on the specified position information, and a projection unit that projects an image that indicates the specified position, To do.
また、本発明に係るプログラムは、プロジェクターの有するコンピューターを、前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、前記操作情報がジェスチャーを示すものでない場合、前記指示位置情報に基づき、前記指示位置を示す画像を生成する画像生成部として機能させることを特徴とする。 Further, the program according to the present invention includes a computer having a projector, an instruction position information generation unit that generates instruction position information indicating an instruction position based on the operation information, and the operation information is a gesture based on the instruction position information. A gesture determination unit that determines whether the operation information indicates a gesture, a control unit that performs control according to the gesture, and a case where the operation information does not indicate a gesture, It is made to function as an image generation part which produces | generates the image which shows the said instruction | indication position based on the said instruction | indication position information.
また、本発明に係る情報記憶媒体は、プロジェクターの有するコンピューターにより読み取り可能なプログラムを記憶した情報記憶媒体であって、上記プログラムを記憶したことを特徴とする。 An information storage medium according to the present invention is an information storage medium storing a program readable by a computer included in the projector, and stores the program.
本発明によれば、プロジェクターは、操作情報に応じて指示位置を示す画像を生成することができる上、当該操作情報がジェスチャーを示すものである場合に当該ジェスチャーに応じた制御を行うことができるため、プレゼンテーションを中断することなく、同一の装置からの操作情報に応じて種々の制御を行うことができる。 According to the present invention, the projector can generate an image indicating the designated position according to the operation information, and can perform control according to the gesture when the operation information indicates a gesture. Therefore, various controls can be performed according to operation information from the same apparatus without interrupting the presentation.
また、前記制御部は、前記制御として、画像の拡大または縮小を行う場合、前記操作情報で示される移動量および指示時間の少なくとも一方に基づき、前記画像の拡大率または縮小率を決定してもよい。 In addition, when the image is enlarged or reduced as the control, the control unit may determine the enlargement rate or reduction rate of the image based on at least one of the movement amount and the instruction time indicated by the operation information. Good.
これによれば、プロジェクターは、操作情報で示される移動量等に応じて画像の拡大率等を決定することにより、ユーザーは、より柔軟に画像の拡大等を行うことができる。 According to this, the projector can enlarge the image more flexibly by determining the enlargement ratio of the image according to the movement amount indicated by the operation information.
また、前記画像生成部は、前記指示位置を示す画像として、前記操作情報に応じてカーソル画像を移動させる画像を生成してもよい。 Further, the image generation unit may generate an image that moves a cursor image in accordance with the operation information as an image indicating the designated position.
これによれば、プロジェクターは、ジェスチャーを判定しつつ、カーソル画像を移動させる画像を生成することができる。 According to this, the projector can generate an image for moving the cursor image while determining a gesture.
また、前記画像生成部は、前記指示位置を示す画像として、前記操作情報に応じて前記指示位置の軌跡を示す画像を生成してもよい。 Further, the image generation unit may generate an image indicating a locus of the designated position in accordance with the operation information as an image indicating the designated position.
これによれば、プロジェクターは、ジェスチャーを判定しつつ、指示位置の軌跡を示す画像を生成することができる。 According to this, the projector can generate an image indicating the locus of the designated position while determining the gesture.
また、前記操作情報入力部は、タブレットまたはマウスから前記操作情報を入力してもよい。 The operation information input unit may input the operation information from a tablet or a mouse.
これによれば、ユーザーは、タブレットまたはマウスを用いて軌跡の描画だけでなく、種々の制御も行うことができる。 According to this, the user can perform not only drawing of a locus but also various controls using a tablet or a mouse.
また、前記操作情報入力部は、タブレットから前記操作情報を入力し、前記ジェスチャー判定部は、前記タブレットのジェスチャー領域で操作が行われた場合に前記操作情報が画像の拡大、縮小、回転または選択のジェスチャーを示すものであるかどうかを判定してもよい。 The operation information input unit inputs the operation information from a tablet, and the gesture determination unit is configured to enlarge, reduce, rotate, or select the operation information when an operation is performed in a gesture area of the tablet. It may be determined whether or not the gesture is indicated.
これによれば、プロジェクターは、タブレットの領域に応じてジェスチャーを判定することができるため、より正確にジェスチャーの判定を行うことができる。 According to this, since the projector can determine the gesture according to the area of the tablet, the gesture can be determined more accurately.
また、前記操作情報入力部は、マウスから前記操作情報を入力し、前記ジェスチャー判定部は、前記画像のジェスチャー領域で操作が行われた場合に前記操作情報が画像の拡大、縮小、回転または選択のジェスチャーを示すものであるかどうかを判定してもよい。 Further, the operation information input unit inputs the operation information from a mouse, and the gesture determination unit is configured to enlarge, reduce, rotate or select the operation information when an operation is performed in the gesture area of the image. It may be determined whether or not the gesture is indicated.
これによれば、プロジェクターは、画像における操作位置に応じてジェスチャーを判定することができるため、より正確にジェスチャーの判定を行うことができる。 According to this, since the projector can determine the gesture according to the operation position in the image, the determination of the gesture can be performed more accurately.
以下、本発明をプロジェクターに適用した実施例について、図面を参照しつつ説明する。なお、以下に示す実施例は、特許請求の範囲に記載された発明の内容を何ら限定するものではない。また、以下の実施例に示す構成のすべてが、特許請求の範囲に記載された発明の解決手段として必須であるとは限らない。 Embodiments in which the present invention is applied to a projector will be described below with reference to the drawings. In addition, the Example shown below does not limit the content of the invention described in the claim at all. In addition, all the configurations shown in the following embodiments are not necessarily essential as means for solving the invention described in the claims.
(第1の実施例)
図1は、第1の実施例における投写状況を示す図である。プロジェクター100は、PC50と無線で接続されており、ペンタブレット30とUSBケーブル40で接続されている。プロジェクター100は、PC50からの画像情報に基づき、スクリーン10に画像20を投写する。
(First embodiment)
FIG. 1 is a diagram showing a projection situation in the first embodiment. The
ユーザーは、ペンタブレット30を用いて画像20の回転、拡大、縮小やプロジェクター100の電源オフといった種々の制御を行う。
The user uses the
次に、このような機能を有するプロジェクター100の機能ブロックについて説明する。図2は、第1の実施例におけるプロジェクター100の機能ブロック図である。
Next, functional blocks of the
プロジェクター100は、操作情報を入力する操作情報入力部110と、操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部120と、指示位置情報に基づき、操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部130と、画像データ142、ジェスチャー判定データ144等を記憶する記憶部140を含んで構成されている。
The
なお、ジェスチャー判定データ144の項目としては、例えば、操作情報の生成元の装置種別を示す「種別」、ジェスチャーの操作内容および操作領域を示す「ジェスチャー内容」、当該ジェスチャーによる制御内容を示す「制御内容」等が該当する。
The items of the
また、プロジェクター100は、PC50等から画像情報を入力する画像情報入力部150と、操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部170と、操作情報がジェスチャーを示すものでない場合、指示位置情報に基づき、指示位置を示す画像20を生成する画像生成部160と、画像20を投写する投写部190を含んで構成されている。
Further, the
なお、プロジェクター100は、これらの各部の機能を、以下のハードウェアを用いて実装してもよい。例えば、プロジェクター100は、操作情報入力部110はUSBインターフェイス等、指示位置情報生成部120、ジェスチャー判定部130、制御部170はCPU等、記憶部140はRAM等、画像情報入力部150は無線LANユニット等、画像生成部160は画像処理回路等、投写部190はランプ、液晶パネル、液晶駆動回路、レンズ等を用いて実装してもよい。
Note that the
また、プロジェクター100は、ジェスチャー判定部130等の機能を情報記憶媒体200に記憶されたプログラムを読み取って実装してもよい。このような情報記憶媒体200としては、例えば、CD−ROM、DVD−ROM、ROM、RAM、HDD等を適用できる。
Further, the
次に、プロジェクター100による画像20の投写手順について説明する。図3は、第1の実施例における投写手順を示すフローチャートである。
Next, a procedure for projecting the
画像情報入力部150は、無線通信によってPC50から画像情報(例えば、RGB信号等)を入力する(ステップS1)。操作情報入力部110は、USBケーブル40を介してペンタブレット30から操作情報(例えば、ペンダウンイベントの発生、ペンアップイベントの発生、ペンダウン状態、操作位置等を示す情報)を入力する(ステップS2)。
The image
例えば、ユーザーが、ペンタブレット30にペン先を押しつけた際の操作情報は、ペンダウンイベントが発生したこと、ペンタブレット30における押圧位置等を示す情報になる。また、例えば、ユーザーが、ペンタブレット30にペン先を押しつけたままペン先を移動させた際の操作情報は、ペンダウン状態であること、ペンタブレット30における押圧位置等を示す情報になる。また、例えば、ユーザーが、ペンタブレット30からペン先を離した際の操作情報は、ペンアップイベントが発生したこと、ペンアップ直前の押圧位置等を示す情報になる。
For example, the operation information when the user presses the pen tip against the
指示位置情報生成部120は、操作情報に基づき、指示位置情報を生成する(ステップS3)。なお、指示位置情報は、例えば、装置種別がペンタブレットであること、イベント、ペンタブレットにおける押圧位置等を示す情報になる。例えば、ペンタブレットにペン先を押しつけた際の指示位置情報は、装置種別がペンタブレットであること、ペンダウンイベントが発生したこと、ペンタブレットにおける押圧位置(機種に応じて共通座標に座標変換したもの)等を示す情報になる。
The designated position
ジェスチャー判定部130は、指示位置情報と、ジェスチャー判定データ144に基づき、操作情報がジェスチャーを示すものであるかどうかを判定する(ステップS4)。例えば、ジェスチャー判定部130は、指示位置情報で示される装置種別と一致する「種別」をジェスチャー判定データ144から検索し、指示位置情報で示される操作内容と一致する「ジェスチャー内容」を当該種別が該当するジェスチャー判定データ144から検索する。
The
図4(A)は、第1の実施例における右回転時の操作例を示す図であり、図4(B)は、第1の実施例における右回転時のOSD画像340を示す図であり、図4(C)は、第1の実施例における右回転時の変化後の画像301を示す図である。
FIG. 4A is a diagram illustrating an operation example during right rotation in the first embodiment, and FIG. 4B is a diagram illustrating an
本実施例では、ペンタブレット30は、枠38の内側にある描画可能領域内に、軌跡を描くための非ジェスチャー領域34を有するとともに、非ジェスチャー領域34を囲む形でジェスチャー領域36を有している。
In this embodiment, the
図4(A)に示すように、ユーザーが上側のジェスチャー領域36でペンを左から右に移動させる操作を行った場合、ジェスチャー判定部130は、画像20におけるソース画像320を右に90度回転させる右回転ジェスチャーであると判定する。
As shown in FIG. 4A, when the user performs an operation of moving the pen from left to right in the
右回転ジェスチャーである場合、制御部170は、画像生成部160にソース画像320(PC50等からの画像情報に基づく画像)を右に90度回転させる制御を行う。画像生成部160は、当該制御に応じて中央に右回転を示すOSD画像340を含み、かつ、ソース画像320を含む画像300を一旦生成した後、ソース画像320を右に90度回転させたソース画像321を含む画像301を生成する。
In the case of a right rotation gesture, the
図5(A)は、第1の実施例における拡大時の操作例を示す図であり、図5(B)は、第1の実施例における拡大時のOSD画像341を示す図であり、図5(C)は、第1の実施例における拡大時の変化後の画像303を示す図である。
FIG. 5A is a diagram showing an operation example during enlargement in the first embodiment, and FIG. 5B is a diagram showing an
図5(A)に示すように、ユーザーが右側のジェスチャー領域36でペンを下から上に移動させる操作を行った場合、ジェスチャー判定部130は、画像20におけるソース画像320を拡大させる拡大ジェスチャーであると判定する。
As shown in FIG. 5A, when the user performs an operation of moving the pen from the bottom to the top in the
拡大ジェスチャーである場合、制御部170は、画像生成部160にソース画像320を拡大させる制御を行う。画像生成部160は、当該制御に応じて中央に拡大を示すOSD画像341を含み、かつ、ソース画像320を含む画像302を一旦生成した後、ソース画像320を拡大したソース画像322を含む画像303を生成する。
If the gesture is an enlargement gesture, the
図6(A)は、第1の実施例における縮小時の操作例を示す図であり、図6(B)は、第1の実施例における縮小時のOSD画像342を示す図であり、図6(C)は、第1の実施例における縮小時の変化後の画像305を示す図である。
FIG. 6A is a diagram showing an operation example at the time of reduction in the first embodiment, and FIG. 6B is a diagram showing an
図6(A)に示すように、ユーザーが右側のジェスチャー領域36でペンを上から下に移動させる操作を行った場合、ジェスチャー判定部130は、画像20におけるソース画像320を縮小させる縮小ジェスチャーであると判定する。
As shown in FIG. 6A, when the user performs an operation of moving the pen from the top to the bottom in the
縮小ジェスチャーである場合、制御部170は、画像生成部160にソース画像320を縮小させる制御を行う。画像生成部160は、当該制御に応じて中央に縮小を示すOSD画像342を含み、かつ、ソース画像320を含む画像304を一旦生成した後、ソース画像320を縮小したソース画像323を含む画像305を生成する。
If the gesture is a reduction gesture, the
一方、ジェスチャー判定部130によってジェスチャーではないと判定された場合、画像生成部160は、画像情報入力部150からの画像情報と、指示位置情報に基づき、操作情報に応じて指示位置の軌跡を示す画像20を生成する(ステップS6)。
On the other hand, when the
投写部190は、画像20、300〜305を投写する(ステップS7)。プロジェクター100は、終了指示等によって一連の処理(ステップS1〜S8)を終了すべきかどうかを判定し(ステップS8)、終了すべき場合は一連の処理を終了し、終了すべきでない場合は一連の処理を続行する。
The
以上のように、本実施例によれば、プロジェクター100は、操作情報に応じて指示位置の軌跡を示す画像20を生成することができる上、当該操作情報がジェスチャーを示すものである場合に当該ジェスチャーに応じた制御を行うことができるため、プレゼンテーションを中断することなく、同一の装置(ペンタブレット30)からの操作情報に応じて種々の制御を行うことができる。
As described above, according to the present embodiment, the
また、本実施例によれば、プロジェクター100は、ペンタブレット30の領域に応じてジェスチャーを判定することができるため、より正確にジェスチャーの判定を行うことができる。
Further, according to the present embodiment, the
また、本実施例によれば、プロジェクター100は、画像データ142、ジェスチャー判定データ144を用いることにより、種々のジェスチャーに対応することができるとともに、これらのデータを更新することにより、仕様の拡張、変更等にも柔軟に対応することができる。
Further, according to the present embodiment, the
また、本実施例によれば、ユーザーは、ペンタブレット30を用いて軌跡の描画だけでなく、種々の制御も行うことができる。すなわち、ユーザーは、制御を行う場合にOSD画像の表示操作を行ったり、リモコン等を用いた操作を行ったりすることなく、同一の装置(ペンタブレット30)のみを用いて軌跡の描画や種々の制御を行うことができる。
In addition, according to the present embodiment, the user can perform not only drawing of the trajectory but also various controls using the
(第2の実施例)
第1の実施例では、プロジェクター100は、ペンタブレット30からの操作情報を用いたが、マウスからの操作情報を用いてもよい。
(Second embodiment)
In the first embodiment, the
図7は、第2の実施例における投写状況を示す図である。プロジェクター100には、USBケーブル41を介してマウス32が接続されている。また、図8(A)は、第2の実施例における右回転時の操作例を示す図であり、図8(B)は、第2の実施例における右回転時のOSD画像340を示す図であり、図8(C)は、第2の実施例における右回転時の変化後の画像402を示す図である。
FIG. 7 is a diagram showing a projection situation in the second embodiment. A
マウス32の場合の操作情報は、例えば、クリックイベントの発生、ドラッグ解除イベントの発生、ドラッグ状態、操作位置等を示す情報である。また、指示位置情報は、例えば、装置種別がマウスであること、イベント、相対的な移動方向および移動量等を示す情報になる。
The operation information in the case of the
ジェスチャー判定部130は、画像400における現在のカーソル位置(指示位置)を把握している。図8(A)に示すように、現在のカーソル位置が非ジェスチャー領域410ではなく、ジェスチャー領域420内の上側の位置にあり、指示位置情報が右に所定量以上移動したことを示す場合、ジェスチャー判定部130は、右回転ジェスチャーであると判定する。
The
右回転ジェスチャーである場合、制御部170は、画像生成部160にソース画像320を右に90度回転させる制御を行う。画像生成部160は、当該制御に応じて中央に右回転を示すOSD画像340を含み、かつ、ソース画像320を含む画像300を一旦生成した後、ソース画像320を右に90度回転させたソース画像321を含む画像301を生成する。
When the gesture is a right rotation gesture, the
なお、画像生成部160は、ジェスチャーではない場合は指示位置の軌跡を示す画像20を生成する。また、画像生成部160は、ジェスチャーの場合であっても、ジェスチャーの操作が完了する前の指示位置の軌跡を示す画像20を生成してもよい。
Note that the
以上のように、プロジェクター100は、マウス32から操作情報を入力する場合であっても、ペンタブレット30から操作情報を入力する場合と同様の作用効果を奏する。
As described above, even when the operation information is input from the
(その他の実施例)
なお、本発明の適用は上述した実施例に限定されず、種々の変形が可能である。例えば、制御部170は、上述した制御として、画像の拡大または縮小を行う場合、操作情報で示される移動量および指示時間の少なくとも一方に基づき、画像の拡大率または縮小率を決定してもよい。例えば、制御部170は、移動量が大きいほど拡大率や縮小率を大きくしたり、ペンタブレット30のペンダウン継続時間(指示時間)、マウス32のドラッグ継続時間(指示時間)が長いほど拡大率や縮小率を大きくしたりしてもよい。
(Other examples)
In addition, application of this invention is not limited to the Example mentioned above, A various deformation | transformation is possible. For example, when enlarging or reducing the image as the above-described control, the
これによれば、プロジェクター100は、操作情報で示される移動量等に応じて画像の拡大率等を決定することにより、ユーザーは、より柔軟に画像の拡大等を行うことができる。
According to this, the
また、画像生成部160は、指示位置を示す画像として、操作情報に応じてカーソル画像を移動させる画像を生成してもよい。これによれば、プロジェクター100は、ジェスチャーを判定しつつ、カーソル画像を移動させる画像を生成することができる。
Further, the
また、ペンタブレット30等での操作結果は、画像の拡大、画像の縮小、画像の回転、指示位置を示す画像の生成には限定されず、例えば、画像の装飾(ハイライト表示等)、次の画像の表示、前の画像の表示、データの保存、データの読み取り、画像情報の供給装置の変更(いわゆるソース切替)等であってもよい。ユーザーは、これらの操作を行う場合であっても、ペンタブレット30またはマウス32だけを操作すればよいため、中断することなくプレゼンテーションを行うことができる。
The operation result of the
例えば、データの保存を行うジェスチャーはSを逆順(下から上の書き順)に書く操作、データの読み取りを行うジェスチャーはLを逆順(右から左に移動した後に上に移動する書き順)に書く操作、ソース切替を行うジェスチャーは、Vを逆順に書く操作(ビデオ画像情報に切り替え)、Pを逆順に書く操作(PC50からの画像情報に切り替え)、Mを逆順に書く操作(メモリカードからの画像情報に切り替え)等であってもよい。 For example, a gesture for saving data is an operation of writing S in reverse order (from bottom to top), and a gesture for reading data is L in reverse order (write order to move up after moving from right to left). The gesture for performing the writing operation and switching the source includes the operation of writing V in reverse order (switching to video image information), the operation of writing P in reverse order (switching to image information from the PC 50), and the operation of writing M in reverse order (from the memory card) Switching to the image information).
また、操作情報の生成装置は、ペンタブレット30、マウス32には限定されず、例えば、液晶ペンタブレット、タッチパッド、トラックボール等でもよい。また、操作情報の生成装置が1種類である場合、上述した種別の通知、共通座標への変換等は行われなくてもよい。また、操作情報入力部110および指示位置情報生成部120は一体化されてもよく、例えば、指示位置情報生成部がペンタブレット30等から操作情報を入力して指示位置情報を生成してもよい。
Further, the operation information generation device is not limited to the
また、プロジェクター100は、液晶プロジェクター(透過型、LCOS等の反射型)には限定されず、例えば、DMD(Digital Micromirror Device)を用いたプロジェクター等であってもよい。なお、DMDは米国テキサス・インスツルメンツ社の商標である。
The
10 スクリーン、20、300〜305、400〜402 画像、30 ペンタブレット、32 マウス、34、410 非ジェスチャー領域、36、420 ジェスチャー領域、38 枠、40、41 USBケーブル、50 PC、100 プロジェクター、110 操作情報入力部、120 指示位置情報生成部、130 ジェスチャー判定部、140 記憶部、142 画像データ、144 ジェスチャー判定データ、150 画像情報入力部、160 画像生成部、170 制御部、190 投写部、200 情報記憶媒体、320〜323 ソース画像、340〜342 OSD画像 10 screen, 20, 300-305, 400-402 image, 30 pen tablet, 32 mouse, 34, 410 non-gesture area, 36, 420 gesture area, 38 frames, 40, 41 USB cable, 50 PC, 100 projector, 110 Operation information input unit, 120 Pointed position information generation unit, 130 Gesture determination unit, 140 Storage unit, 142 Image data, 144 Gesture determination data, 150 Image information input unit, 160 Image generation unit, 170 Control unit, 190 Projection unit, 200 Information storage medium, 320-323 source image, 340-342 OSD image
Claims (9)
前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、
前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、
前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、
前記操作情報がジェスチャーを示すものでない場合、前記指示位置情報に基づき、前記指示位置を示す画像を生成する画像生成部と、
前記指示位置を示す画像を投写する投写部と、
を含む、
プロジェクター。 An operation information input unit for inputting operation information;
Based on the operation information, an instruction position information generation unit that generates instruction position information indicating an instruction position;
A gesture determination unit that determines whether the operation information indicates a gesture based on the indicated position information;
When the operation information indicates a gesture, a control unit that performs control according to the gesture;
If the operation information does not indicate a gesture, an image generation unit that generates an image indicating the designated position based on the designated position information;
A projection unit that projects an image indicating the indicated position;
including,
projector.
前記制御部は、前記制御として、画像の拡大または縮小を行う場合、前記操作情報で示される移動量および指示時間の少なくとも一方に基づき、前記画像の拡大率または縮小率を決定する、
プロジェクター。 The projector according to claim 1.
The control unit, as the control, determines an enlargement rate or a reduction rate of the image based on at least one of a movement amount and an instruction time indicated by the operation information when the image is enlarged or reduced.
projector.
前記画像生成部は、前記指示位置を示す画像として、前記操作情報に応じてカーソル画像を移動させる画像を生成する、
プロジェクター。 The projector according to claim 1,
The image generation unit generates an image for moving a cursor image according to the operation information as an image indicating the designated position.
projector.
前記画像生成部は、前記指示位置を示す画像として、前記操作情報に応じて前記指示位置の軌跡を示す画像を生成する、
プロジェクター。 The projector according to any one of claims 1 to 3,
The image generation unit generates an image indicating a locus of the designated position according to the operation information as an image indicating the designated position.
projector.
前記操作情報入力部は、タブレットまたはマウスから前記操作情報を入力する、
プロジェクター。 The projector according to any one of claims 1 to 4,
The operation information input unit inputs the operation information from a tablet or a mouse.
projector.
前記操作情報入力部は、タブレットから前記操作情報を入力し、
前記ジェスチャー判定部は、前記タブレットのジェスチャー領域で操作が行われた場合に前記操作情報が画像の拡大、縮小、回転または選択のジェスチャーを示すものであるかどうかを判定する、
プロジェクター。 The projector according to any one of claims 1 to 4,
The operation information input unit inputs the operation information from a tablet,
The gesture determination unit determines whether the operation information indicates a gesture for enlarging, reducing, rotating, or selecting an image when an operation is performed in a gesture area of the tablet;
projector.
前記操作情報入力部は、マウスから前記操作情報を入力し、
前記ジェスチャー判定部は、前記画像のジェスチャー領域で操作が行われた場合に前記操作情報が画像の拡大、縮小、回転または選択のジェスチャーを示すものであるかどうかを判定する、
プロジェクター。 The projector according to any one of claims 1 to 4,
The operation information input unit inputs the operation information from a mouse,
The gesture determination unit determines whether the operation information indicates a gesture for enlarging, reducing, rotating, or selecting an image when an operation is performed in a gesture area of the image;
projector.
前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、
前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、
前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、
前記操作情報がジェスチャーを示すものでない場合、前記指示位置情報に基づき、前記指示位置を示す画像を生成する画像生成部として機能させる、
プログラム。 The computer that the projector has
Based on the operation information, an instruction position information generation unit that generates instruction position information indicating an instruction position;
A gesture determination unit that determines whether the operation information indicates a gesture based on the indicated position information;
When the operation information indicates a gesture, a control unit that performs control according to the gesture;
When the operation information does not indicate a gesture, based on the instruction position information, the operation information is made to function as an image generation unit that generates an image indicating the instruction position.
program.
請求項8に記載のプログラムを記憶した情報記憶媒体。 An information storage medium storing a program readable by a computer of a projector,
An information storage medium storing the program according to claim 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008315334A JP2010139686A (en) | 2008-12-11 | 2008-12-11 | Projector, program, and information storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008315334A JP2010139686A (en) | 2008-12-11 | 2008-12-11 | Projector, program, and information storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010139686A true JP2010139686A (en) | 2010-06-24 |
JP2010139686A5 JP2010139686A5 (en) | 2011-12-15 |
Family
ID=42349899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008315334A Withdrawn JP2010139686A (en) | 2008-12-11 | 2008-12-11 | Projector, program, and information storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010139686A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012164274A (en) * | 2011-02-09 | 2012-08-30 | Dainippon Printing Co Ltd | Computer, input system and program |
JP2012164192A (en) * | 2011-02-08 | 2012-08-30 | Dainippon Printing Co Ltd | Computer, electronic pen input system and program |
JP2012164139A (en) * | 2011-02-07 | 2012-08-30 | Dainippon Printing Co Ltd | Computer, input system and program |
JP2013046151A (en) * | 2011-08-23 | 2013-03-04 | Ricoh Co Ltd | Projector, projection system, and information search display method |
JP2014115802A (en) * | 2012-12-10 | 2014-06-26 | Seiko Epson Corp | Display device and method of controlling display device |
WO2015151505A1 (en) * | 2014-04-01 | 2015-10-08 | セイコーエプソン株式会社 | Bidirectional display method and bidirectional display device |
JP2015197781A (en) * | 2014-04-01 | 2015-11-09 | セイコーエプソン株式会社 | Bidirectional display method and bidirectional display device |
JP2015198321A (en) * | 2014-04-01 | 2015-11-09 | セイコーエプソン株式会社 | Bidirectional projector and bidirectional projection method |
US9904414B2 (en) | 2012-12-10 | 2018-02-27 | Seiko Epson Corporation | Display device, and method of controlling display device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0876926A (en) * | 1994-09-02 | 1996-03-22 | Brother Ind Ltd | Picture display device |
JP2002062980A (en) * | 2000-08-23 | 2002-02-28 | Canon Inc | Input device and electronic board device |
JP2002259002A (en) * | 2001-02-28 | 2002-09-13 | Ricoh Co Ltd | Operation system for document |
JP2005092447A (en) * | 2003-09-16 | 2005-04-07 | Hitachi Software Eng Co Ltd | Method for window control |
JP2006099468A (en) * | 2004-09-29 | 2006-04-13 | Toshiba Corp | Gesture input device, method, and program |
JP2008140182A (en) * | 2006-12-01 | 2008-06-19 | Sharp Corp | Input device, transmission/reception system, input processing method and control program |
-
2008
- 2008-12-11 JP JP2008315334A patent/JP2010139686A/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0876926A (en) * | 1994-09-02 | 1996-03-22 | Brother Ind Ltd | Picture display device |
JP2002062980A (en) * | 2000-08-23 | 2002-02-28 | Canon Inc | Input device and electronic board device |
JP2002259002A (en) * | 2001-02-28 | 2002-09-13 | Ricoh Co Ltd | Operation system for document |
JP2005092447A (en) * | 2003-09-16 | 2005-04-07 | Hitachi Software Eng Co Ltd | Method for window control |
JP2006099468A (en) * | 2004-09-29 | 2006-04-13 | Toshiba Corp | Gesture input device, method, and program |
JP2008140182A (en) * | 2006-12-01 | 2008-06-19 | Sharp Corp | Input device, transmission/reception system, input processing method and control program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012164139A (en) * | 2011-02-07 | 2012-08-30 | Dainippon Printing Co Ltd | Computer, input system and program |
JP2012164192A (en) * | 2011-02-08 | 2012-08-30 | Dainippon Printing Co Ltd | Computer, electronic pen input system and program |
JP2012164274A (en) * | 2011-02-09 | 2012-08-30 | Dainippon Printing Co Ltd | Computer, input system and program |
JP2013046151A (en) * | 2011-08-23 | 2013-03-04 | Ricoh Co Ltd | Projector, projection system, and information search display method |
JP2014115802A (en) * | 2012-12-10 | 2014-06-26 | Seiko Epson Corp | Display device and method of controlling display device |
US9904414B2 (en) | 2012-12-10 | 2018-02-27 | Seiko Epson Corporation | Display device, and method of controlling display device |
WO2015151505A1 (en) * | 2014-04-01 | 2015-10-08 | セイコーエプソン株式会社 | Bidirectional display method and bidirectional display device |
JP2015197781A (en) * | 2014-04-01 | 2015-11-09 | セイコーエプソン株式会社 | Bidirectional display method and bidirectional display device |
JP2015198321A (en) * | 2014-04-01 | 2015-11-09 | セイコーエプソン株式会社 | Bidirectional projector and bidirectional projection method |
CN106164828A (en) * | 2014-04-01 | 2016-11-23 | 精工爱普生株式会社 | Bi-directional display method and bi-directional display device |
US10048905B2 (en) | 2014-04-01 | 2018-08-14 | Seiko Epson Corporation | Interactive display method and interactive display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010139686A (en) | Projector, program, and information storage medium | |
US8610678B2 (en) | Information processing apparatus and method for moving a displayed object between multiple displays | |
US9880697B2 (en) | Remote multi-touch control | |
JP5808712B2 (en) | Video display device | |
JP2012133453A (en) | Information processing device, information processing method and program | |
JP2011134278A (en) | Information processing apparatus and pointing control method | |
TW201421350A (en) | Method for displaying images of touch control device on external display device | |
JP2015007949A (en) | Display device, display controlling method, and computer program | |
JP2006107092A (en) | Information processor and program used in information processor | |
KR102326766B1 (en) | Display device and method of indicating selected at least one of keys | |
EP2998838A1 (en) | Display apparatus and method for controlling the same | |
TWI442305B (en) | A operation method and a system of the multi-touch | |
JP5875262B2 (en) | Display control device | |
WO2017022031A1 (en) | Information terminal device | |
JP2011159082A (en) | Information processing apparatus and image display method | |
US10755461B2 (en) | Display device, display method, and recording medium | |
JP2011232881A (en) | Image processor, display device, image processing method, image processing program and recording medium | |
WO2015029222A1 (en) | Information processing device, display control program, and display control method | |
JP7247554B2 (en) | Display device and display method | |
JP2012146017A (en) | Electronic blackboard system, electronic blackboard system control method, program and recording medium therefor | |
JP2009009612A (en) | Information processing device, method for controlling input operation mode and program executed on information processing device | |
US20170351423A1 (en) | Information processing apparatus, information processing method and computer-readable storage medium storing program | |
JP5165661B2 (en) | Control device, control method, control program, and recording medium | |
JP2014085964A (en) | Information processing method, information processing device, and program | |
JP5472569B2 (en) | Projection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111027 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111027 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130220 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20130419 |