JP2010139686A - Projector, program, and information storage medium - Google Patents

Projector, program, and information storage medium Download PDF

Info

Publication number
JP2010139686A
JP2010139686A JP2008315334A JP2008315334A JP2010139686A JP 2010139686 A JP2010139686 A JP 2010139686A JP 2008315334 A JP2008315334 A JP 2008315334A JP 2008315334 A JP2008315334 A JP 2008315334A JP 2010139686 A JP2010139686 A JP 2010139686A
Authority
JP
Japan
Prior art keywords
image
gesture
operation information
projector
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008315334A
Other languages
Japanese (ja)
Other versions
JP2010139686A5 (en
Inventor
Hiroyuki Hashimoto
浩幸 橋本
Tadashi Shinohara
忠 篠原
Yuuki Ito
勇樹 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008315334A priority Critical patent/JP2010139686A/en
Publication of JP2010139686A publication Critical patent/JP2010139686A/en
Publication of JP2010139686A5 publication Critical patent/JP2010139686A5/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projector, or the like, which carries out various kinds of controls, according to the operational information from the same device, without having to interrupt a presentation. <P>SOLUTION: The projector includes an operational information-inputting part 110 which inputs operational information; an indicated position information-generating part 120, which generates indicated position information which indicates the positions indicated, on the basis of the operational information; a gesture-determining part 130, which determines whether the operational information indicates gestures, on the basis of the designated position information; a control part 170, which makes control which conforms to the gestures, when the operational information indicates the gestures; an image-generating part 160, which generates images which indicate the indicated positions, on the basis of the indicated position information, when the operational information does not indicate the gestures; and a projection part 190, which projects the images which indicate the designated positions. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、プロジェクター、プログラムおよび情報記憶媒体に関する。   The present invention relates to a projector, a program, and an information storage medium.

ユーザーは、プロジェクターを用いて画像を投写している状況で画像の拡大等を行うためには、リモコン(リモートコントローラー)を用いたボタン操作によってOSD(On Screen Display)画像を投写し、拡大したい位置や拡大率等をOSD画像のメニューで選択しなければならなかった。しかし、プロジェクターの場合、1つの画像を多数の聴衆が観察しており、このような状況でプレゼンテーション画像とは異なるOSD画像を投写することは、情報の視認性を低下させる上、プレゼンテーションを中断することになるため、好ましくない。   In order to enlarge an image while projecting an image using a projector, the user projects an OSD (On Screen Display) image by operating a button using a remote controller (remote controller), and the position to be enlarged And the enlargement ratio had to be selected from the OSD image menu. However, in the case of a projector, a large number of audiences are observing one image, and projecting an OSD image different from the presentation image in such a situation lowers the visibility of information and interrupts the presentation. This is not preferable.

また、例えば、特開2008−15402号公報では、携帯電話またはPC(Personal Computer)とプロジェクターを用いた投写システムで、投写されている画像の拡大または縮小を行うためにプロジェクターの操作部やリモコンを用いることが記載されている。
特開2008−15402号公報
Also, for example, in Japanese Patent Laid-Open No. 2008-15402, in a projection system using a mobile phone or a PC (Personal Computer) and a projector, an operation unit or a remote control of the projector is used to enlarge or reduce the projected image. The use is described.
JP 2008-15402 A

しかし、PCや携帯電話を操作している状況で画像の拡大等を行うためには、ユーザーは、PCに接続されたマウスや携帯電話とリモコンを持ち替えて操作する必要があり、操作が煩雑となる。   However, in order to perform image enlargement or the like while operating a PC or a mobile phone, the user needs to move the mouse or mobile phone connected to the PC and the remote control to operate it, and the operation is complicated. Become.

本発明の目的は、プレゼンテーションを中断することなく、同一の装置からの操作情報に応じて種々の制御を行うことが可能なプロジェクター、プログラムおよび情報記憶媒体を提供することにある。   An object of the present invention is to provide a projector, a program, and an information storage medium capable of performing various controls according to operation information from the same apparatus without interrupting a presentation.

上記課題を解決するため、本発明に係るプロジェクターは、操作情報を入力する操作情報入力部と、前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、前記操作情報がジェスチャーを示すものでない場合、前記指示位置情報に基づき、前記指示位置を示す画像を生成する画像生成部と、前記指示位置を示す画像を投写する投写部と、を含むことを特徴とする。   In order to solve the above problems, a projector according to the present invention includes an operation information input unit that inputs operation information, an instruction position information generation unit that generates instruction position information indicating an instruction position based on the operation information, and the instruction A gesture determination unit that determines whether the operation information indicates a gesture based on position information; a control unit that performs control according to the gesture when the operation information indicates a gesture; and When the operation information does not indicate a gesture, an image generation unit that generates an image indicating the specified position based on the specified position information, and a projection unit that projects an image that indicates the specified position, To do.

また、本発明に係るプログラムは、プロジェクターの有するコンピューターを、前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、前記操作情報がジェスチャーを示すものでない場合、前記指示位置情報に基づき、前記指示位置を示す画像を生成する画像生成部として機能させることを特徴とする。   Further, the program according to the present invention includes a computer having a projector, an instruction position information generation unit that generates instruction position information indicating an instruction position based on the operation information, and the operation information is a gesture based on the instruction position information. A gesture determination unit that determines whether the operation information indicates a gesture, a control unit that performs control according to the gesture, and a case where the operation information does not indicate a gesture, It is made to function as an image generation part which produces | generates the image which shows the said instruction | indication position based on the said instruction | indication position information.

また、本発明に係る情報記憶媒体は、プロジェクターの有するコンピューターにより読み取り可能なプログラムを記憶した情報記憶媒体であって、上記プログラムを記憶したことを特徴とする。   An information storage medium according to the present invention is an information storage medium storing a program readable by a computer included in the projector, and stores the program.

本発明によれば、プロジェクターは、操作情報に応じて指示位置を示す画像を生成することができる上、当該操作情報がジェスチャーを示すものである場合に当該ジェスチャーに応じた制御を行うことができるため、プレゼンテーションを中断することなく、同一の装置からの操作情報に応じて種々の制御を行うことができる。   According to the present invention, the projector can generate an image indicating the designated position according to the operation information, and can perform control according to the gesture when the operation information indicates a gesture. Therefore, various controls can be performed according to operation information from the same apparatus without interrupting the presentation.

また、前記制御部は、前記制御として、画像の拡大または縮小を行う場合、前記操作情報で示される移動量および指示時間の少なくとも一方に基づき、前記画像の拡大率または縮小率を決定してもよい。   In addition, when the image is enlarged or reduced as the control, the control unit may determine the enlargement rate or reduction rate of the image based on at least one of the movement amount and the instruction time indicated by the operation information. Good.

これによれば、プロジェクターは、操作情報で示される移動量等に応じて画像の拡大率等を決定することにより、ユーザーは、より柔軟に画像の拡大等を行うことができる。   According to this, the projector can enlarge the image more flexibly by determining the enlargement ratio of the image according to the movement amount indicated by the operation information.

また、前記画像生成部は、前記指示位置を示す画像として、前記操作情報に応じてカーソル画像を移動させる画像を生成してもよい。   Further, the image generation unit may generate an image that moves a cursor image in accordance with the operation information as an image indicating the designated position.

これによれば、プロジェクターは、ジェスチャーを判定しつつ、カーソル画像を移動させる画像を生成することができる。   According to this, the projector can generate an image for moving the cursor image while determining a gesture.

また、前記画像生成部は、前記指示位置を示す画像として、前記操作情報に応じて前記指示位置の軌跡を示す画像を生成してもよい。   Further, the image generation unit may generate an image indicating a locus of the designated position in accordance with the operation information as an image indicating the designated position.

これによれば、プロジェクターは、ジェスチャーを判定しつつ、指示位置の軌跡を示す画像を生成することができる。   According to this, the projector can generate an image indicating the locus of the designated position while determining the gesture.

また、前記操作情報入力部は、タブレットまたはマウスから前記操作情報を入力してもよい。   The operation information input unit may input the operation information from a tablet or a mouse.

これによれば、ユーザーは、タブレットまたはマウスを用いて軌跡の描画だけでなく、種々の制御も行うことができる。   According to this, the user can perform not only drawing of a locus but also various controls using a tablet or a mouse.

また、前記操作情報入力部は、タブレットから前記操作情報を入力し、前記ジェスチャー判定部は、前記タブレットのジェスチャー領域で操作が行われた場合に前記操作情報が画像の拡大、縮小、回転または選択のジェスチャーを示すものであるかどうかを判定してもよい。   The operation information input unit inputs the operation information from a tablet, and the gesture determination unit is configured to enlarge, reduce, rotate, or select the operation information when an operation is performed in a gesture area of the tablet. It may be determined whether or not the gesture is indicated.

これによれば、プロジェクターは、タブレットの領域に応じてジェスチャーを判定することができるため、より正確にジェスチャーの判定を行うことができる。   According to this, since the projector can determine the gesture according to the area of the tablet, the gesture can be determined more accurately.

また、前記操作情報入力部は、マウスから前記操作情報を入力し、前記ジェスチャー判定部は、前記画像のジェスチャー領域で操作が行われた場合に前記操作情報が画像の拡大、縮小、回転または選択のジェスチャーを示すものであるかどうかを判定してもよい。   Further, the operation information input unit inputs the operation information from a mouse, and the gesture determination unit is configured to enlarge, reduce, rotate or select the operation information when an operation is performed in the gesture area of the image. It may be determined whether or not the gesture is indicated.

これによれば、プロジェクターは、画像における操作位置に応じてジェスチャーを判定することができるため、より正確にジェスチャーの判定を行うことができる。   According to this, since the projector can determine the gesture according to the operation position in the image, the determination of the gesture can be performed more accurately.

以下、本発明をプロジェクターに適用した実施例について、図面を参照しつつ説明する。なお、以下に示す実施例は、特許請求の範囲に記載された発明の内容を何ら限定するものではない。また、以下の実施例に示す構成のすべてが、特許請求の範囲に記載された発明の解決手段として必須であるとは限らない。   Embodiments in which the present invention is applied to a projector will be described below with reference to the drawings. In addition, the Example shown below does not limit the content of the invention described in the claim at all. In addition, all the configurations shown in the following embodiments are not necessarily essential as means for solving the invention described in the claims.

(第1の実施例)
図1は、第1の実施例における投写状況を示す図である。プロジェクター100は、PC50と無線で接続されており、ペンタブレット30とUSBケーブル40で接続されている。プロジェクター100は、PC50からの画像情報に基づき、スクリーン10に画像20を投写する。
(First embodiment)
FIG. 1 is a diagram showing a projection situation in the first embodiment. The projector 100 is connected to the PC 50 wirelessly, and is connected to the pen tablet 30 via the USB cable 40. The projector 100 projects the image 20 on the screen 10 based on the image information from the PC 50.

ユーザーは、ペンタブレット30を用いて画像20の回転、拡大、縮小やプロジェクター100の電源オフといった種々の制御を行う。   The user uses the pen tablet 30 to perform various controls such as rotation, enlargement, and reduction of the image 20 and power off of the projector 100.

次に、このような機能を有するプロジェクター100の機能ブロックについて説明する。図2は、第1の実施例におけるプロジェクター100の機能ブロック図である。   Next, functional blocks of the projector 100 having such functions will be described. FIG. 2 is a functional block diagram of the projector 100 according to the first embodiment.

プロジェクター100は、操作情報を入力する操作情報入力部110と、操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部120と、指示位置情報に基づき、操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部130と、画像データ142、ジェスチャー判定データ144等を記憶する記憶部140を含んで構成されている。   The projector 100 includes an operation information input unit 110 that inputs operation information, an instruction position information generation unit 120 that generates instruction position information indicating an instruction position based on the operation information, and a gesture that the operation information is based on the instruction position information. It includes a gesture determination unit 130 that determines whether or not the image is to be shown, and a storage unit 140 that stores image data 142, gesture determination data 144, and the like.

なお、ジェスチャー判定データ144の項目としては、例えば、操作情報の生成元の装置種別を示す「種別」、ジェスチャーの操作内容および操作領域を示す「ジェスチャー内容」、当該ジェスチャーによる制御内容を示す「制御内容」等が該当する。   The items of the gesture determination data 144 include, for example, “type” indicating the device type from which the operation information is generated, “gesture content” indicating the operation content and operation area of the gesture, and “control” indicating the control content by the gesture. “Content” etc.

また、プロジェクター100は、PC50等から画像情報を入力する画像情報入力部150と、操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部170と、操作情報がジェスチャーを示すものでない場合、指示位置情報に基づき、指示位置を示す画像20を生成する画像生成部160と、画像20を投写する投写部190を含んで構成されている。   Further, the projector 100 includes an image information input unit 150 that inputs image information from the PC 50 or the like, a control unit 170 that performs control according to the gesture when the operation information indicates a gesture, and the operation information that indicates a gesture. When not indicated, the image generation unit 160 includes an image generation unit 160 that generates an image 20 indicating the designated position and a projection unit 190 that projects the image 20 based on the designated position information.

なお、プロジェクター100は、これらの各部の機能を、以下のハードウェアを用いて実装してもよい。例えば、プロジェクター100は、操作情報入力部110はUSBインターフェイス等、指示位置情報生成部120、ジェスチャー判定部130、制御部170はCPU等、記憶部140はRAM等、画像情報入力部150は無線LANユニット等、画像生成部160は画像処理回路等、投写部190はランプ、液晶パネル、液晶駆動回路、レンズ等を用いて実装してもよい。   Note that the projector 100 may implement the functions of these units using the following hardware. For example, in the projector 100, the operation information input unit 110 is a USB interface, the pointing position information generation unit 120, the gesture determination unit 130, the control unit 170 is a CPU, the storage unit 140 is a RAM, the image information input unit 150 is a wireless LAN. For example, the image generation unit 160 may be mounted using an image processing circuit, the projection unit 190 may be mounted using a lamp, a liquid crystal panel, a liquid crystal driving circuit, a lens, or the like.

また、プロジェクター100は、ジェスチャー判定部130等の機能を情報記憶媒体200に記憶されたプログラムを読み取って実装してもよい。このような情報記憶媒体200としては、例えば、CD−ROM、DVD−ROM、ROM、RAM、HDD等を適用できる。   Further, the projector 100 may implement the functions such as the gesture determination unit 130 by reading a program stored in the information storage medium 200. As such an information storage medium 200, for example, a CD-ROM, DVD-ROM, ROM, RAM, HDD, or the like can be applied.

次に、プロジェクター100による画像20の投写手順について説明する。図3は、第1の実施例における投写手順を示すフローチャートである。   Next, a procedure for projecting the image 20 by the projector 100 will be described. FIG. 3 is a flowchart showing a projection procedure in the first embodiment.

画像情報入力部150は、無線通信によってPC50から画像情報(例えば、RGB信号等)を入力する(ステップS1)。操作情報入力部110は、USBケーブル40を介してペンタブレット30から操作情報(例えば、ペンダウンイベントの発生、ペンアップイベントの発生、ペンダウン状態、操作位置等を示す情報)を入力する(ステップS2)。   The image information input unit 150 inputs image information (for example, RGB signals) from the PC 50 by wireless communication (step S1). The operation information input unit 110 inputs operation information (for example, information indicating the occurrence of a pen-down event, the occurrence of a pen-up event, a pen-down state, an operation position, etc.) from the pen tablet 30 via the USB cable 40 (step S2). ).

例えば、ユーザーが、ペンタブレット30にペン先を押しつけた際の操作情報は、ペンダウンイベントが発生したこと、ペンタブレット30における押圧位置等を示す情報になる。また、例えば、ユーザーが、ペンタブレット30にペン先を押しつけたままペン先を移動させた際の操作情報は、ペンダウン状態であること、ペンタブレット30における押圧位置等を示す情報になる。また、例えば、ユーザーが、ペンタブレット30からペン先を離した際の操作情報は、ペンアップイベントが発生したこと、ペンアップ直前の押圧位置等を示す情報になる。   For example, the operation information when the user presses the pen tip against the pen tablet 30 is information indicating that a pen down event has occurred, a pressed position on the pen tablet 30, and the like. In addition, for example, the operation information when the user moves the pen tip while pressing the pen tip against the pen tablet 30 is information indicating that the pen is in a pen-down state, a pressed position on the pen tablet 30, and the like. For example, the operation information when the user releases the pen tip from the pen tablet 30 is information indicating that a pen-up event has occurred, a pressing position immediately before pen-up, and the like.

指示位置情報生成部120は、操作情報に基づき、指示位置情報を生成する(ステップS3)。なお、指示位置情報は、例えば、装置種別がペンタブレットであること、イベント、ペンタブレットにおける押圧位置等を示す情報になる。例えば、ペンタブレットにペン先を押しつけた際の指示位置情報は、装置種別がペンタブレットであること、ペンダウンイベントが発生したこと、ペンタブレットにおける押圧位置(機種に応じて共通座標に座標変換したもの)等を示す情報になる。   The designated position information generation unit 120 generates designated position information based on the operation information (step S3). The indicated position information is, for example, information indicating that the device type is a pen tablet, an event, a pressed position on the pen tablet, and the like. For example, the indication position information when the pen tip is pressed against the pen tablet is that the device type is a pen tablet, that a pen down event has occurred, the pressed position on the pen tablet (coordinated to common coordinates according to the model) Information).

ジェスチャー判定部130は、指示位置情報と、ジェスチャー判定データ144に基づき、操作情報がジェスチャーを示すものであるかどうかを判定する(ステップS4)。例えば、ジェスチャー判定部130は、指示位置情報で示される装置種別と一致する「種別」をジェスチャー判定データ144から検索し、指示位置情報で示される操作内容と一致する「ジェスチャー内容」を当該種別が該当するジェスチャー判定データ144から検索する。   The gesture determination unit 130 determines whether or not the operation information indicates a gesture based on the indicated position information and the gesture determination data 144 (step S4). For example, the gesture determination unit 130 searches the gesture determination data 144 for a “type” that matches the device type indicated by the indicated position information, and the type of gesture information that matches the operation content indicated by the indicated position information is A search is performed from the corresponding gesture determination data 144.

図4(A)は、第1の実施例における右回転時の操作例を示す図であり、図4(B)は、第1の実施例における右回転時のOSD画像340を示す図であり、図4(C)は、第1の実施例における右回転時の変化後の画像301を示す図である。   FIG. 4A is a diagram illustrating an operation example during right rotation in the first embodiment, and FIG. 4B is a diagram illustrating an OSD image 340 during right rotation in the first embodiment. FIG. 4C is a diagram illustrating the image 301 after the change at the time of the right rotation in the first embodiment.

本実施例では、ペンタブレット30は、枠38の内側にある描画可能領域内に、軌跡を描くための非ジェスチャー領域34を有するとともに、非ジェスチャー領域34を囲む形でジェスチャー領域36を有している。   In this embodiment, the pen tablet 30 has a non-gesture area 34 for drawing a trajectory in a drawable area inside the frame 38, and a gesture area 36 surrounding the non-gesture area 34. Yes.

図4(A)に示すように、ユーザーが上側のジェスチャー領域36でペンを左から右に移動させる操作を行った場合、ジェスチャー判定部130は、画像20におけるソース画像320を右に90度回転させる右回転ジェスチャーであると判定する。   As shown in FIG. 4A, when the user performs an operation of moving the pen from left to right in the upper gesture area 36, the gesture determination unit 130 rotates the source image 320 in the image 20 to the right by 90 degrees. It is determined that this is a clockwise rotation gesture.

右回転ジェスチャーである場合、制御部170は、画像生成部160にソース画像320(PC50等からの画像情報に基づく画像)を右に90度回転させる制御を行う。画像生成部160は、当該制御に応じて中央に右回転を示すOSD画像340を含み、かつ、ソース画像320を含む画像300を一旦生成した後、ソース画像320を右に90度回転させたソース画像321を含む画像301を生成する。   In the case of a right rotation gesture, the control unit 170 controls the image generation unit 160 to rotate the source image 320 (an image based on image information from the PC 50 or the like) 90 degrees to the right. The image generation unit 160 includes an OSD image 340 showing a right rotation at the center according to the control, and once generates the image 300 including the source image 320, the source image 320 is rotated 90 degrees to the right. An image 301 including the image 321 is generated.

図5(A)は、第1の実施例における拡大時の操作例を示す図であり、図5(B)は、第1の実施例における拡大時のOSD画像341を示す図であり、図5(C)は、第1の実施例における拡大時の変化後の画像303を示す図である。   FIG. 5A is a diagram showing an operation example during enlargement in the first embodiment, and FIG. 5B is a diagram showing an OSD image 341 during enlargement in the first embodiment. FIG. 5C is a diagram illustrating the image 303 after the change at the time of enlargement in the first embodiment.

図5(A)に示すように、ユーザーが右側のジェスチャー領域36でペンを下から上に移動させる操作を行った場合、ジェスチャー判定部130は、画像20におけるソース画像320を拡大させる拡大ジェスチャーであると判定する。   As shown in FIG. 5A, when the user performs an operation of moving the pen from the bottom to the top in the gesture area 36 on the right side, the gesture determination unit 130 performs an enlargement gesture for enlarging the source image 320 in the image 20. Judge that there is.

拡大ジェスチャーである場合、制御部170は、画像生成部160にソース画像320を拡大させる制御を行う。画像生成部160は、当該制御に応じて中央に拡大を示すOSD画像341を含み、かつ、ソース画像320を含む画像302を一旦生成した後、ソース画像320を拡大したソース画像322を含む画像303を生成する。   If the gesture is an enlargement gesture, the control unit 170 controls the image generation unit 160 to enlarge the source image 320. The image generation unit 160 includes an OSD image 341 showing enlargement in the center in accordance with the control, and once generates the image 302 including the source image 320, the image 303 includes the source image 322 obtained by enlarging the source image 320. Is generated.

図6(A)は、第1の実施例における縮小時の操作例を示す図であり、図6(B)は、第1の実施例における縮小時のOSD画像342を示す図であり、図6(C)は、第1の実施例における縮小時の変化後の画像305を示す図である。   FIG. 6A is a diagram showing an operation example at the time of reduction in the first embodiment, and FIG. 6B is a diagram showing an OSD image 342 at the time of reduction in the first embodiment. FIG. 6C is a diagram illustrating the image 305 after the change at the time of reduction in the first embodiment.

図6(A)に示すように、ユーザーが右側のジェスチャー領域36でペンを上から下に移動させる操作を行った場合、ジェスチャー判定部130は、画像20におけるソース画像320を縮小させる縮小ジェスチャーであると判定する。   As shown in FIG. 6A, when the user performs an operation of moving the pen from the top to the bottom in the right gesture area 36, the gesture determination unit 130 uses a reduction gesture for reducing the source image 320 in the image 20. Judge that there is.

縮小ジェスチャーである場合、制御部170は、画像生成部160にソース画像320を縮小させる制御を行う。画像生成部160は、当該制御に応じて中央に縮小を示すOSD画像342を含み、かつ、ソース画像320を含む画像304を一旦生成した後、ソース画像320を縮小したソース画像323を含む画像305を生成する。   If the gesture is a reduction gesture, the control unit 170 controls the image generation unit 160 to reduce the source image 320. The image generation unit 160 includes an OSD image 342 showing reduction at the center in accordance with the control, and once generates an image 304 including the source image 320, and then includes an image 305 including the source image 323 obtained by reducing the source image 320. Is generated.

一方、ジェスチャー判定部130によってジェスチャーではないと判定された場合、画像生成部160は、画像情報入力部150からの画像情報と、指示位置情報に基づき、操作情報に応じて指示位置の軌跡を示す画像20を生成する(ステップS6)。   On the other hand, when the gesture determination unit 130 determines that the gesture is not a gesture, the image generation unit 160 shows the locus of the designated position according to the operation information based on the image information from the image information input unit 150 and the designated position information. An image 20 is generated (step S6).

投写部190は、画像20、300〜305を投写する(ステップS7)。プロジェクター100は、終了指示等によって一連の処理(ステップS1〜S8)を終了すべきかどうかを判定し(ステップS8)、終了すべき場合は一連の処理を終了し、終了すべきでない場合は一連の処理を続行する。   The projection unit 190 projects the images 20, 300 to 305 (step S7). The projector 100 determines whether or not to end the series of processes (steps S1 to S8) according to an end instruction or the like (step S8), ends the series of processes if it should end, and if not to end the series of processes. continue processing.

以上のように、本実施例によれば、プロジェクター100は、操作情報に応じて指示位置の軌跡を示す画像20を生成することができる上、当該操作情報がジェスチャーを示すものである場合に当該ジェスチャーに応じた制御を行うことができるため、プレゼンテーションを中断することなく、同一の装置(ペンタブレット30)からの操作情報に応じて種々の制御を行うことができる。   As described above, according to the present embodiment, the projector 100 can generate the image 20 indicating the locus of the designated position in accordance with the operation information, and when the operation information indicates a gesture, Since the control according to the gesture can be performed, various controls can be performed according to the operation information from the same device (pen tablet 30) without interrupting the presentation.

また、本実施例によれば、プロジェクター100は、ペンタブレット30の領域に応じてジェスチャーを判定することができるため、より正確にジェスチャーの判定を行うことができる。   Further, according to the present embodiment, the projector 100 can determine a gesture according to the area of the pen tablet 30, and thus can determine the gesture more accurately.

また、本実施例によれば、プロジェクター100は、画像データ142、ジェスチャー判定データ144を用いることにより、種々のジェスチャーに対応することができるとともに、これらのデータを更新することにより、仕様の拡張、変更等にも柔軟に対応することができる。   Further, according to the present embodiment, the projector 100 can cope with various gestures by using the image data 142 and the gesture determination data 144, and can update the specifications by updating these data. It is possible to respond flexibly to changes and the like.

また、本実施例によれば、ユーザーは、ペンタブレット30を用いて軌跡の描画だけでなく、種々の制御も行うことができる。すなわち、ユーザーは、制御を行う場合にOSD画像の表示操作を行ったり、リモコン等を用いた操作を行ったりすることなく、同一の装置(ペンタブレット30)のみを用いて軌跡の描画や種々の制御を行うことができる。   In addition, according to the present embodiment, the user can perform not only drawing of the trajectory but also various controls using the pen tablet 30. That is, when performing control, the user does not perform an OSD image display operation or perform an operation using a remote controller or the like, and can draw a locus or perform various operations using only the same device (pen tablet 30). Control can be performed.

(第2の実施例)
第1の実施例では、プロジェクター100は、ペンタブレット30からの操作情報を用いたが、マウスからの操作情報を用いてもよい。
(Second embodiment)
In the first embodiment, the projector 100 uses the operation information from the pen tablet 30, but may use the operation information from the mouse.

図7は、第2の実施例における投写状況を示す図である。プロジェクター100には、USBケーブル41を介してマウス32が接続されている。また、図8(A)は、第2の実施例における右回転時の操作例を示す図であり、図8(B)は、第2の実施例における右回転時のOSD画像340を示す図であり、図8(C)は、第2の実施例における右回転時の変化後の画像402を示す図である。   FIG. 7 is a diagram showing a projection situation in the second embodiment. A mouse 32 is connected to the projector 100 via a USB cable 41. FIG. 8A is a diagram illustrating an example of an operation during a right rotation in the second embodiment, and FIG. 8B is a diagram illustrating an OSD image 340 during a right rotation in the second embodiment. FIG. 8C is a diagram showing the image 402 after the change in the right rotation in the second embodiment.

マウス32の場合の操作情報は、例えば、クリックイベントの発生、ドラッグ解除イベントの発生、ドラッグ状態、操作位置等を示す情報である。また、指示位置情報は、例えば、装置種別がマウスであること、イベント、相対的な移動方向および移動量等を示す情報になる。   The operation information in the case of the mouse 32 is information indicating the occurrence of a click event, the occurrence of a drag release event, the drag state, the operation position, and the like, for example. The designated position information is information indicating that the device type is a mouse, an event, a relative movement direction, a movement amount, and the like.

ジェスチャー判定部130は、画像400における現在のカーソル位置(指示位置)を把握している。図8(A)に示すように、現在のカーソル位置が非ジェスチャー領域410ではなく、ジェスチャー領域420内の上側の位置にあり、指示位置情報が右に所定量以上移動したことを示す場合、ジェスチャー判定部130は、右回転ジェスチャーであると判定する。   The gesture determination unit 130 grasps the current cursor position (instructed position) in the image 400. As shown in FIG. 8 (A), when the current cursor position is not the non-gesture area 410 but the upper position in the gesture area 420, the pointing position information indicates that it has moved to the right by a predetermined amount or more. The determination unit 130 determines that the gesture is a clockwise rotation gesture.

右回転ジェスチャーである場合、制御部170は、画像生成部160にソース画像320を右に90度回転させる制御を行う。画像生成部160は、当該制御に応じて中央に右回転を示すOSD画像340を含み、かつ、ソース画像320を含む画像300を一旦生成した後、ソース画像320を右に90度回転させたソース画像321を含む画像301を生成する。   When the gesture is a right rotation gesture, the control unit 170 controls the image generation unit 160 to rotate the source image 320 to the right by 90 degrees. The image generation unit 160 includes an OSD image 340 showing a right rotation at the center according to the control, and once generates the image 300 including the source image 320, the source image 320 is rotated 90 degrees to the right. An image 301 including the image 321 is generated.

なお、画像生成部160は、ジェスチャーではない場合は指示位置の軌跡を示す画像20を生成する。また、画像生成部160は、ジェスチャーの場合であっても、ジェスチャーの操作が完了する前の指示位置の軌跡を示す画像20を生成してもよい。   Note that the image generation unit 160 generates the image 20 indicating the locus of the designated position when the gesture is not a gesture. In addition, even in the case of a gesture, the image generation unit 160 may generate the image 20 indicating the locus of the designated position before the gesture operation is completed.

以上のように、プロジェクター100は、マウス32から操作情報を入力する場合であっても、ペンタブレット30から操作情報を入力する場合と同様の作用効果を奏する。   As described above, even when the operation information is input from the mouse 32, the projector 100 has the same operational effects as when the operation information is input from the pen tablet 30.

(その他の実施例)
なお、本発明の適用は上述した実施例に限定されず、種々の変形が可能である。例えば、制御部170は、上述した制御として、画像の拡大または縮小を行う場合、操作情報で示される移動量および指示時間の少なくとも一方に基づき、画像の拡大率または縮小率を決定してもよい。例えば、制御部170は、移動量が大きいほど拡大率や縮小率を大きくしたり、ペンタブレット30のペンダウン継続時間(指示時間)、マウス32のドラッグ継続時間(指示時間)が長いほど拡大率や縮小率を大きくしたりしてもよい。
(Other examples)
In addition, application of this invention is not limited to the Example mentioned above, A various deformation | transformation is possible. For example, when enlarging or reducing the image as the above-described control, the control unit 170 may determine the enlargement or reduction rate of the image based on at least one of the movement amount indicated by the operation information and the instruction time. . For example, the control unit 170 increases the enlargement rate or the reduction rate as the movement amount increases, or increases the enlargement rate or reduction rate as the pen down duration (instruction time) of the pen tablet 30 or the drag duration (instruction time) of the mouse 32 is longer. The reduction rate may be increased.

これによれば、プロジェクター100は、操作情報で示される移動量等に応じて画像の拡大率等を決定することにより、ユーザーは、より柔軟に画像の拡大等を行うことができる。   According to this, the projector 100 determines the image enlargement rate or the like according to the movement amount or the like indicated by the operation information, so that the user can enlarge the image more flexibly.

また、画像生成部160は、指示位置を示す画像として、操作情報に応じてカーソル画像を移動させる画像を生成してもよい。これによれば、プロジェクター100は、ジェスチャーを判定しつつ、カーソル画像を移動させる画像を生成することができる。   Further, the image generation unit 160 may generate an image that moves the cursor image according to the operation information as an image indicating the designated position. According to this, the projector 100 can generate an image for moving the cursor image while determining a gesture.

また、ペンタブレット30等での操作結果は、画像の拡大、画像の縮小、画像の回転、指示位置を示す画像の生成には限定されず、例えば、画像の装飾(ハイライト表示等)、次の画像の表示、前の画像の表示、データの保存、データの読み取り、画像情報の供給装置の変更(いわゆるソース切替)等であってもよい。ユーザーは、これらの操作を行う場合であっても、ペンタブレット30またはマウス32だけを操作すればよいため、中断することなくプレゼンテーションを行うことができる。   The operation result of the pen tablet 30 or the like is not limited to image enlargement, image reduction, image rotation, and generation of an image indicating the designated position. For example, image decoration (highlight display etc.), next Display of the previous image, display of the previous image, storage of data, reading of data, change of the supply device of image information (so-called source switching), and the like. Even when performing these operations, the user only has to operate the pen tablet 30 or the mouse 32, so that the user can make a presentation without interruption.

例えば、データの保存を行うジェスチャーはSを逆順(下から上の書き順)に書く操作、データの読み取りを行うジェスチャーはLを逆順(右から左に移動した後に上に移動する書き順)に書く操作、ソース切替を行うジェスチャーは、Vを逆順に書く操作(ビデオ画像情報に切り替え)、Pを逆順に書く操作(PC50からの画像情報に切り替え)、Mを逆順に書く操作(メモリカードからの画像情報に切り替え)等であってもよい。   For example, a gesture for saving data is an operation of writing S in reverse order (from bottom to top), and a gesture for reading data is L in reverse order (write order to move up after moving from right to left). The gesture for performing the writing operation and switching the source includes the operation of writing V in reverse order (switching to video image information), the operation of writing P in reverse order (switching to image information from the PC 50), and the operation of writing M in reverse order (from the memory card) Switching to the image information).

また、操作情報の生成装置は、ペンタブレット30、マウス32には限定されず、例えば、液晶ペンタブレット、タッチパッド、トラックボール等でもよい。また、操作情報の生成装置が1種類である場合、上述した種別の通知、共通座標への変換等は行われなくてもよい。また、操作情報入力部110および指示位置情報生成部120は一体化されてもよく、例えば、指示位置情報生成部がペンタブレット30等から操作情報を入力して指示位置情報を生成してもよい。   Further, the operation information generation device is not limited to the pen tablet 30 and the mouse 32, and may be a liquid crystal pen tablet, a touch pad, a trackball, or the like. Further, when there is only one type of operation information generation device, the above-described type notification, conversion to common coordinates, and the like may not be performed. Further, the operation information input unit 110 and the designated position information generation unit 120 may be integrated. For example, the designated position information generation unit may input the operation information from the pen tablet 30 or the like and generate the designated position information. .

また、プロジェクター100は、液晶プロジェクター(透過型、LCOS等の反射型)には限定されず、例えば、DMD(Digital Micromirror Device)を用いたプロジェクター等であってもよい。なお、DMDは米国テキサス・インスツルメンツ社の商標である。   The projector 100 is not limited to a liquid crystal projector (transmission type, reflection type such as LCOS), and may be a projector using a DMD (Digital Micromirror Device), for example. DMD is a trademark of Texas Instruments Incorporated.

第1の実施例における投写状況を示す図である。It is a figure which shows the projection condition in a 1st Example. 第1の実施例におけるプロジェクターの機能ブロック図である。It is a functional block diagram of the projector in a 1st Example. 第1の実施例における投写手順を示すフローチャートである。It is a flowchart which shows the projection procedure in a 1st Example. 図4(A)は、第1の実施例における右回転時の操作例を示す図であり、図4(B)は、第1の実施例における右回転時のOSD画像を示す図であり、図4(C)は、第1の実施例における右回転時の変化後の画像を示す図である。FIG. 4A is a diagram illustrating an operation example during right rotation in the first embodiment, and FIG. 4B is a diagram illustrating an OSD image during right rotation in the first embodiment. FIG. 4C is a diagram illustrating an image after change at the time of right rotation in the first embodiment. 図5(A)は、第1の実施例における拡大時の操作例を示す図であり、図5(B)は、第1の実施例における拡大時のOSD画像を示す図であり、図5(C)は、第1の実施例における拡大時の変化後の画像を示す図である。FIG. 5A is a diagram showing an operation example at the time of enlargement in the first embodiment, and FIG. 5B is a diagram showing an OSD image at the time of enlargement in the first embodiment. (C) is a diagram showing an image after change at the time of enlargement in the first embodiment. 図6(A)は、第1の実施例における縮小時の操作例を示す図であり、図6(B)は、第1の実施例における縮小時のOSD画像を示す図であり、図6(C)は、第1の実施例における縮小時の変化後の画像を示す図である。6A is a diagram illustrating an operation example at the time of reduction in the first embodiment, and FIG. 6B is a diagram illustrating an OSD image at the time of reduction in the first embodiment. (C) is a diagram showing an image after change at the time of reduction in the first embodiment. 第2の実施例における投写状況を示す図である。It is a figure which shows the projection condition in a 2nd Example. 図8(A)は、第2の実施例における右回転時の操作例を示す図であり、図8(B)は、第2の実施例における右回転時のOSD画像を示す図であり、図8(C)は、第2の実施例における右回転時の変化後の画像を示す図である。FIG. 8A is a diagram illustrating an operation example during right rotation in the second embodiment, and FIG. 8B is a diagram illustrating an OSD image during right rotation in the second embodiment. FIG. 8C is a diagram illustrating an image after change at the time of right rotation in the second embodiment.

符号の説明Explanation of symbols

10 スクリーン、20、300〜305、400〜402 画像、30 ペンタブレット、32 マウス、34、410 非ジェスチャー領域、36、420 ジェスチャー領域、38 枠、40、41 USBケーブル、50 PC、100 プロジェクター、110 操作情報入力部、120 指示位置情報生成部、130 ジェスチャー判定部、140 記憶部、142 画像データ、144 ジェスチャー判定データ、150 画像情報入力部、160 画像生成部、170 制御部、190 投写部、200 情報記憶媒体、320〜323 ソース画像、340〜342 OSD画像   10 screen, 20, 300-305, 400-402 image, 30 pen tablet, 32 mouse, 34, 410 non-gesture area, 36, 420 gesture area, 38 frames, 40, 41 USB cable, 50 PC, 100 projector, 110 Operation information input unit, 120 Pointed position information generation unit, 130 Gesture determination unit, 140 Storage unit, 142 Image data, 144 Gesture determination data, 150 Image information input unit, 160 Image generation unit, 170 Control unit, 190 Projection unit, 200 Information storage medium, 320-323 source image, 340-342 OSD image

Claims (9)

操作情報を入力する操作情報入力部と、
前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、
前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、
前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、
前記操作情報がジェスチャーを示すものでない場合、前記指示位置情報に基づき、前記指示位置を示す画像を生成する画像生成部と、
前記指示位置を示す画像を投写する投写部と、
を含む、
プロジェクター。
An operation information input unit for inputting operation information;
Based on the operation information, an instruction position information generation unit that generates instruction position information indicating an instruction position;
A gesture determination unit that determines whether the operation information indicates a gesture based on the indicated position information;
When the operation information indicates a gesture, a control unit that performs control according to the gesture;
If the operation information does not indicate a gesture, an image generation unit that generates an image indicating the designated position based on the designated position information;
A projection unit that projects an image indicating the indicated position;
including,
projector.
請求項1に記載のプロジェクターにおいて、
前記制御部は、前記制御として、画像の拡大または縮小を行う場合、前記操作情報で示される移動量および指示時間の少なくとも一方に基づき、前記画像の拡大率または縮小率を決定する、
プロジェクター。
The projector according to claim 1.
The control unit, as the control, determines an enlargement rate or a reduction rate of the image based on at least one of a movement amount and an instruction time indicated by the operation information when the image is enlarged or reduced.
projector.
請求項1、2のいずれかに記載のプロジェクターにおいて、
前記画像生成部は、前記指示位置を示す画像として、前記操作情報に応じてカーソル画像を移動させる画像を生成する、
プロジェクター。
The projector according to claim 1,
The image generation unit generates an image for moving a cursor image according to the operation information as an image indicating the designated position.
projector.
請求項1〜3のいずれかに記載のプロジェクターにおいて、
前記画像生成部は、前記指示位置を示す画像として、前記操作情報に応じて前記指示位置の軌跡を示す画像を生成する、
プロジェクター。
The projector according to any one of claims 1 to 3,
The image generation unit generates an image indicating a locus of the designated position according to the operation information as an image indicating the designated position.
projector.
請求項1〜4のいずれかに記載のプロジェクターにおいて、
前記操作情報入力部は、タブレットまたはマウスから前記操作情報を入力する、
プロジェクター。
The projector according to any one of claims 1 to 4,
The operation information input unit inputs the operation information from a tablet or a mouse.
projector.
請求項1〜4のいずれかに記載のプロジェクターにおいて、
前記操作情報入力部は、タブレットから前記操作情報を入力し、
前記ジェスチャー判定部は、前記タブレットのジェスチャー領域で操作が行われた場合に前記操作情報が画像の拡大、縮小、回転または選択のジェスチャーを示すものであるかどうかを判定する、
プロジェクター。
The projector according to any one of claims 1 to 4,
The operation information input unit inputs the operation information from a tablet,
The gesture determination unit determines whether the operation information indicates a gesture for enlarging, reducing, rotating, or selecting an image when an operation is performed in a gesture area of the tablet;
projector.
請求項1〜4のいずれかに記載のプロジェクターにおいて、
前記操作情報入力部は、マウスから前記操作情報を入力し、
前記ジェスチャー判定部は、前記画像のジェスチャー領域で操作が行われた場合に前記操作情報が画像の拡大、縮小、回転または選択のジェスチャーを示すものであるかどうかを判定する、
プロジェクター。
The projector according to any one of claims 1 to 4,
The operation information input unit inputs the operation information from a mouse,
The gesture determination unit determines whether the operation information indicates a gesture for enlarging, reducing, rotating, or selecting an image when an operation is performed in a gesture area of the image;
projector.
プロジェクターの有するコンピューターを、
前記操作情報に基づき、指示位置を示す指示位置情報を生成する指示位置情報生成部と、
前記指示位置情報に基づき、前記操作情報がジェスチャーを示すものであるかどうかを判定するジェスチャー判定部と、
前記操作情報がジェスチャーを示すものである場合、当該ジェスチャーに応じた制御を行う制御部と、
前記操作情報がジェスチャーを示すものでない場合、前記指示位置情報に基づき、前記指示位置を示す画像を生成する画像生成部として機能させる、
プログラム。
The computer that the projector has
Based on the operation information, an instruction position information generation unit that generates instruction position information indicating an instruction position;
A gesture determination unit that determines whether the operation information indicates a gesture based on the indicated position information;
When the operation information indicates a gesture, a control unit that performs control according to the gesture;
When the operation information does not indicate a gesture, based on the instruction position information, the operation information is made to function as an image generation unit that generates an image indicating the instruction position.
program.
プロジェクターの有するコンピューターにより読み取り可能なプログラムを記憶した情報記憶媒体であって、
請求項8に記載のプログラムを記憶した情報記憶媒体。
An information storage medium storing a program readable by a computer of a projector,
An information storage medium storing the program according to claim 8.
JP2008315334A 2008-12-11 2008-12-11 Projector, program, and information storage medium Withdrawn JP2010139686A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008315334A JP2010139686A (en) 2008-12-11 2008-12-11 Projector, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008315334A JP2010139686A (en) 2008-12-11 2008-12-11 Projector, program, and information storage medium

Publications (2)

Publication Number Publication Date
JP2010139686A true JP2010139686A (en) 2010-06-24
JP2010139686A5 JP2010139686A5 (en) 2011-12-15

Family

ID=42349899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008315334A Withdrawn JP2010139686A (en) 2008-12-11 2008-12-11 Projector, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP2010139686A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164274A (en) * 2011-02-09 2012-08-30 Dainippon Printing Co Ltd Computer, input system and program
JP2012164192A (en) * 2011-02-08 2012-08-30 Dainippon Printing Co Ltd Computer, electronic pen input system and program
JP2012164139A (en) * 2011-02-07 2012-08-30 Dainippon Printing Co Ltd Computer, input system and program
JP2013046151A (en) * 2011-08-23 2013-03-04 Ricoh Co Ltd Projector, projection system, and information search display method
JP2014115802A (en) * 2012-12-10 2014-06-26 Seiko Epson Corp Display device and method of controlling display device
WO2015151505A1 (en) * 2014-04-01 2015-10-08 セイコーエプソン株式会社 Bidirectional display method and bidirectional display device
JP2015197781A (en) * 2014-04-01 2015-11-09 セイコーエプソン株式会社 Bidirectional display method and bidirectional display device
JP2015198321A (en) * 2014-04-01 2015-11-09 セイコーエプソン株式会社 Bidirectional projector and bidirectional projection method
US9904414B2 (en) 2012-12-10 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876926A (en) * 1994-09-02 1996-03-22 Brother Ind Ltd Picture display device
JP2002062980A (en) * 2000-08-23 2002-02-28 Canon Inc Input device and electronic board device
JP2002259002A (en) * 2001-02-28 2002-09-13 Ricoh Co Ltd Operation system for document
JP2005092447A (en) * 2003-09-16 2005-04-07 Hitachi Software Eng Co Ltd Method for window control
JP2006099468A (en) * 2004-09-29 2006-04-13 Toshiba Corp Gesture input device, method, and program
JP2008140182A (en) * 2006-12-01 2008-06-19 Sharp Corp Input device, transmission/reception system, input processing method and control program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876926A (en) * 1994-09-02 1996-03-22 Brother Ind Ltd Picture display device
JP2002062980A (en) * 2000-08-23 2002-02-28 Canon Inc Input device and electronic board device
JP2002259002A (en) * 2001-02-28 2002-09-13 Ricoh Co Ltd Operation system for document
JP2005092447A (en) * 2003-09-16 2005-04-07 Hitachi Software Eng Co Ltd Method for window control
JP2006099468A (en) * 2004-09-29 2006-04-13 Toshiba Corp Gesture input device, method, and program
JP2008140182A (en) * 2006-12-01 2008-06-19 Sharp Corp Input device, transmission/reception system, input processing method and control program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164139A (en) * 2011-02-07 2012-08-30 Dainippon Printing Co Ltd Computer, input system and program
JP2012164192A (en) * 2011-02-08 2012-08-30 Dainippon Printing Co Ltd Computer, electronic pen input system and program
JP2012164274A (en) * 2011-02-09 2012-08-30 Dainippon Printing Co Ltd Computer, input system and program
JP2013046151A (en) * 2011-08-23 2013-03-04 Ricoh Co Ltd Projector, projection system, and information search display method
JP2014115802A (en) * 2012-12-10 2014-06-26 Seiko Epson Corp Display device and method of controlling display device
US9904414B2 (en) 2012-12-10 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
WO2015151505A1 (en) * 2014-04-01 2015-10-08 セイコーエプソン株式会社 Bidirectional display method and bidirectional display device
JP2015197781A (en) * 2014-04-01 2015-11-09 セイコーエプソン株式会社 Bidirectional display method and bidirectional display device
JP2015198321A (en) * 2014-04-01 2015-11-09 セイコーエプソン株式会社 Bidirectional projector and bidirectional projection method
CN106164828A (en) * 2014-04-01 2016-11-23 精工爱普生株式会社 Bi-directional display method and bi-directional display device
US10048905B2 (en) 2014-04-01 2018-08-14 Seiko Epson Corporation Interactive display method and interactive display device

Similar Documents

Publication Publication Date Title
JP2010139686A (en) Projector, program, and information storage medium
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
US9880697B2 (en) Remote multi-touch control
JP5808712B2 (en) Video display device
JP2012133453A (en) Information processing device, information processing method and program
JP2011134278A (en) Information processing apparatus and pointing control method
TW201421350A (en) Method for displaying images of touch control device on external display device
JP2015007949A (en) Display device, display controlling method, and computer program
JP2006107092A (en) Information processor and program used in information processor
KR102326766B1 (en) Display device and method of indicating selected at least one of keys
EP2998838A1 (en) Display apparatus and method for controlling the same
TWI442305B (en) A operation method and a system of the multi-touch
JP5875262B2 (en) Display control device
WO2017022031A1 (en) Information terminal device
JP2011159082A (en) Information processing apparatus and image display method
US10755461B2 (en) Display device, display method, and recording medium
JP2011232881A (en) Image processor, display device, image processing method, image processing program and recording medium
WO2015029222A1 (en) Information processing device, display control program, and display control method
JP7247554B2 (en) Display device and display method
JP2012146017A (en) Electronic blackboard system, electronic blackboard system control method, program and recording medium therefor
JP2009009612A (en) Information processing device, method for controlling input operation mode and program executed on information processing device
US20170351423A1 (en) Information processing apparatus, information processing method and computer-readable storage medium storing program
JP5165661B2 (en) Control device, control method, control program, and recording medium
JP2014085964A (en) Information processing method, information processing device, and program
JP5472569B2 (en) Projection system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130220

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130419