JP5664725B2 - Projector, image projection system, and image projection method - Google Patents

Projector, image projection system, and image projection method Download PDF

Info

Publication number
JP5664725B2
JP5664725B2 JP2013172013A JP2013172013A JP5664725B2 JP 5664725 B2 JP5664725 B2 JP 5664725B2 JP 2013172013 A JP2013172013 A JP 2013172013A JP 2013172013 A JP2013172013 A JP 2013172013A JP 5664725 B2 JP5664725 B2 JP 5664725B2
Authority
JP
Japan
Prior art keywords
image
projector
unit
position information
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013172013A
Other languages
Japanese (ja)
Other versions
JP2013238891A (en
Inventor
田中 宏幸
宏幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013172013A priority Critical patent/JP5664725B2/en
Publication of JP2013238891A publication Critical patent/JP2013238891A/en
Application granted granted Critical
Publication of JP5664725B2 publication Critical patent/JP5664725B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、プロジェクター、画像投写システムおよび画像投写方法に関する。   The present invention relates to a projector, an image projection system, and an image projection method.

特開2003−276399号公報に記載されているように、PCと、電子ペンと、赤外線カメラと、プロジェクターを用いた電子黒板システムが提案されている。また、特開2005−286575号公報に記載されているように、撮像部と、投写部を用いて画像の歪みの補正等を行うプロジェクターが提案されている。   As described in JP 2003-276399 A, an electronic blackboard system using a PC, an electronic pen, an infrared camera, and a projector has been proposed. Further, as described in Japanese Patent Application Laid-Open No. 2005-286575, a projector that corrects image distortion using an imaging unit and a projection unit has been proposed.

特開2003−276399号公報JP 2003-276399 A 特開2005−286575号公報JP 2005-286575 A

例えば、これらのプロジェクターを組み合わせる場合、赤外線カメラと通常のカメラをプロジェクターに設ける必要があり、ユーザーは撮像機能を有効に活用できない。   For example, when these projectors are combined, it is necessary to provide an infrared camera and a normal camera in the projector, and the user cannot effectively use the imaging function.

本発明にかかるいくつかの態様は、上記課題を解決することにより、撮像機能をより有効に活用することが可能なプロジェクター、画像投写システムおよび画像投写方法を提供するものである。   Some aspects of the present invention provide a projector, an image projection system, and an image projection method capable of effectively utilizing an imaging function by solving the above-described problems.

本発明の態様の1つであるプロジェクターは、投写対象領域を可視光帯域で撮像して第1の撮像画像を生成し、不可視光の波長を有する指示光を含む前記投写対象領域を、不可視光帯域で撮像して第2の撮像画像を生成する撮像部と、前記第1の撮像画像に基づき、台形歪み補正を行う画像生成部と、前記第2の撮像画像に基づき、前記指示光の位置を示す位置情報を生成する位置情報生成部と、前記台形歪み補正の行われた状態で前記位置情報に基づく画像を投写する投写部と、を含むことを特徴とする。   A projector that is one aspect of the present invention images a projection target region in a visible light band to generate a first captured image, and the projection target region including instruction light having a wavelength of invisible light is converted into invisible light. An imaging unit that captures images in a band to generate a second captured image, an image generation unit that performs trapezoidal distortion correction based on the first captured image, and a position of the instruction light based on the second captured image And a projection unit that projects an image based on the position information in a state where the trapezoidal distortion correction is performed.

また、本発明の態様の1つである画像投写システムは、上記プロジェクターと、前記画像供給装置と、を含む画像投写システムであって、前記画像供給装置は、前記画像情報を前記プロジェクターに送信し、前記プロジェクターから前記位置情報を受信する供給側インターフェイス部と、前記位置情報に基づき、前記画像情報を生成する画像情報生成部と、を含むことを特徴とする。   An image projection system according to an aspect of the present invention is an image projection system including the projector and the image supply device, and the image supply device transmits the image information to the projector. And a supply-side interface unit that receives the position information from the projector, and an image information generation unit that generates the image information based on the position information.

また、本発明の態様の1つである画像投写方法は、撮像部が、投写対象領域を可視光帯域で撮像して第1の撮像画像を生成し、画像生成部が、前記第1の撮像画像に基づき、台形歪み補正を行い、前記撮像部が、不可視光の波長を有する指示光を含む前記投写対象領域を、不可視光帯域で撮像して第2の撮像画像を生成し、位置情報生成部が、前記第2の撮像画像に基づき、前記指示光の位置を示す位置情報を生成し、投写部が、前記台形歪み補正の行われた状態で前記位置情報に基づく画像を投写することを特徴とする。   In the image projection method according to one aspect of the present invention, the imaging unit captures the projection target area in the visible light band to generate a first captured image, and the image generation unit performs the first imaging. Based on the image, trapezoidal distortion correction is performed, and the imaging unit captures the projection target area including the instruction light having the wavelength of invisible light in the invisible light band to generate a second captured image, and generates position information. A unit generates position information indicating the position of the indication light based on the second captured image, and the projection unit projects an image based on the position information in a state where the trapezoidal distortion correction is performed. Features.

本発明によれば、プロジェクター等は、1つの撮像部を用いて台形歪み補正を行い、台形歪み補正の行われた状態で指示光の位置情報に基づく画像を投写することができるため、撮像機能をより有効に活用することができる。   According to the present invention, the projector or the like can perform trapezoidal distortion correction using a single imaging unit, and can project an image based on the position information of the indication light in a state where the keystone distortion correction has been performed. Can be used more effectively.

また、前記撮像部は、不可視光の透過率が可視光の透過率よりも高い第1のフィルターと、前記第1の撮像画像および前記第2の撮像画像を生成する撮像センサーと、前記第1の撮像画像の生成時に、前記第1のフィルターを前記撮像領域外に移動させ、前記第2の撮像画像の生成時に、前記第1のフィルターを前記撮像領域に移動させる駆動部と、を含んでもよい。   In addition, the imaging unit includes a first filter whose invisible light transmittance is higher than the visible light transmittance, an image sensor that generates the first captured image and the second captured image, and the first filter. A drive unit that moves the first filter to the outside of the imaging region when generating the captured image, and moves the first filter to the imaging region when generating the second captured image. Good.

また、前記撮像部は、可視光の透過率が不可視光の透過率よりも高い第2のフィルターを有し、前記第1の撮像画像の生成時に、不可視光の透過率が可視光の透過率よりも高い第1のフィルターを介して前記投写対象領域を撮像して前記第1の撮像画像を生成し、前記第2の撮像画像の生成時に、前記第1のフィルターを介さずに前記投写対象領域を撮像して前記第2の撮像画像を生成してもよい。   The imaging unit includes a second filter having a visible light transmittance higher than an invisible light transmittance. When the first captured image is generated, the invisible light transmittance is a visible light transmittance. The projection target area is imaged through a higher first filter to generate the first captured image, and the projection target is not transmitted through the first filter when generating the second captured image. The region may be imaged to generate the second captured image.

これによれば、プロジェクター等は、第1のフィルターを移動させることによって光の透過機能を変化させることにより、撮像機能をより有効に活用することができる。   According to this, the projector or the like can use the imaging function more effectively by changing the light transmission function by moving the first filter.

また、前記投写部は、前記指示光の位置調整を行うための位置調整画像と、前記台形歪み補正を行うための台形歪み補正画像とを投写し、あるいは、前記指示光の位置調整および前記台形歪み補正を行うためのキャリブレーション画像を投写してもよい。   Further, the projection unit projects a position adjustment image for adjusting the position of the indication light and a trapezoidal distortion correction image for performing the trapezoidal distortion correction, or adjusts the position of the indication light and the trapezoid. A calibration image for performing distortion correction may be projected.

これによれば、プロジェクター等は、位置調整と台形歪み補正を行うための画像を投写することにより、より正確に位置調整と台形歪み補正を行うことができる。   According to this, a projector or the like can perform position adjustment and keystone distortion correction more accurately by projecting an image for position adjustment and keystone distortion correction.

また、前記画像生成部は、前記台形歪み補正の補正状態を示す状態情報を生成し、前記位置情報生成部は、前記状態情報に基づき、前記補正状態に応じた前記位置情報を生成してもよい。   The image generation unit may generate state information indicating a correction state of the trapezoidal distortion correction, and the position information generation unit may generate the position information corresponding to the correction state based on the state information. Good.

これによれば、プロジェクター等は、台形歪み補正の補正状態に応じた位置情報を生成することにより、より正確に指示光の位置に応じた画像を投写することができる。   According to this, the projector or the like can project an image corresponding to the position of the instruction light more accurately by generating the position information corresponding to the correction state of the trapezoidal distortion correction.

また、前記プロジェクターは、前記位置情報を画像供給装置に送信し、前記画像供給装置から前記位置情報に応じた画像を示す画像情報を受信する投写側インターフェイス部を含んでもよい。   The projector may include a projection-side interface unit that transmits the position information to an image supply apparatus and receives image information indicating an image corresponding to the position information from the image supply apparatus.

これによれば、プロジェクター等は、例えば、画像供給装置からの位置情報に応じた画像を示す画像情報に基づく画像を投写することにより、指示光の位置に応じた画像を投写することができる。   According to this, the projector or the like can project an image corresponding to the position of the instruction light by projecting an image based on image information indicating an image corresponding to the position information from the image supply device, for example.

図1(A)は、第1の実施例における画像投写状態を示す図である。図1(B)は、第1の実施例におけるプロジェクターの斜視図である。FIG. 1A is a diagram illustrating an image projection state in the first embodiment. FIG. 1B is a perspective view of the projector in the first embodiment. 第1の実施例におけるプロジェクターとPCの機能ブロック図である。It is a functional block diagram of the projector and PC in a 1st Example. 図3(A)は、第1の実施例における撮像部の構成の一例を示す図である。図3(B)は、第1の実施例における撮像部の構成の他の一例を示す図である。FIG. 3A is a diagram illustrating an example of the configuration of the imaging unit in the first embodiment. FIG. 3B is a diagram illustrating another example of the configuration of the imaging unit in the first embodiment. 第1の実施例における画像投写手順を示すフローチャートである。It is a flowchart which shows the image projection procedure in a 1st Example. 第1の実施例における台形歪み補正画像の一例を示す図である。It is a figure which shows an example of the trapezoid distortion correction image in a 1st Example. 第1の実施例における位置調整画像の一例を示す図である。It is a figure which shows an example of the position adjustment image in a 1st Example. 第1の実施例における位置調整画像の他の一例を示す図である。It is a figure which shows another example of the position adjustment image in a 1st Example. 第2の実施例におけるプロジェクターとPCの機能ブロック図である。It is a functional block diagram of the projector and PC in a 2nd Example. 第2の実施例における画像投写手順を示すフローチャートである。It is a flowchart which shows the image projection procedure in a 2nd Example. 第2の実施例におけるキャリブレーション画像の一例を示す図である。It is a figure which shows an example of the calibration image in a 2nd Example.

以下、本発明をプロジェクターに適用した実施例について、図面を参照しつつ説明する。なお、以下に示す実施例は、特許請求の範囲に記載された発明の内容を何ら限定するものではない。また、以下の実施例に示す構成のすべてが、特許請求の範囲に記載された発明の解決手段として必須であるとは限らない。   Embodiments in which the present invention is applied to a projector will be described below with reference to the drawings. In addition, the Example shown below does not limit the content of the invention described in the claim at all. In addition, all of the configurations shown in the following embodiments are not necessarily essential as means for solving the problems described in the claims.

(第1の実施例)
図1(A)は、第1の実施例における画像投写状態を示す図である。図1(B)は、第1の実施例におけるプロジェクター100の斜視図である。プロジェクター100は、投写対象領域を有するスクリーン10に画像20を投写し、撮像部130を用いてスクリーン10に投写された画像20を含む撮像範囲30を撮像する機能を有している。
(First embodiment)
FIG. 1A is a diagram illustrating an image projection state in the first embodiment. FIG. 1B is a perspective view of the projector 100 in the first embodiment. The projector 100 has a function of projecting an image 20 onto the screen 10 having a projection target area and capturing an imaging range 30 including the image 20 projected onto the screen 10 using the imaging unit 130.

また、プロジェクター100は、USBケーブル等を介して画像供給装置の一種であるPC200と接続されている。プロジェクター100は、PC200から画像情報を受信し、電子ペン40による指示光(本実施例では赤外光)の位置を示す位置情報をPC200に送信する。PC200は、当該位置情報に応じた画像情報を生成してプロジェクター100に送信し、プロジェクター100は、当該画像情報に基づく画像を投写する。すなわち、プロジェクター100およびPC200は、電子ペン40による指示に応じた画像を投写するインタラクティブな投写システムとして機能する。   The projector 100 is connected to a PC 200 that is a type of image supply device via a USB cable or the like. The projector 100 receives image information from the PC 200 and transmits position information indicating the position of instruction light (infrared light in this embodiment) from the electronic pen 40 to the PC 200. The PC 200 generates image information corresponding to the position information and transmits the image information to the projector 100, and the projector 100 projects an image based on the image information. That is, the projector 100 and the PC 200 function as an interactive projection system that projects an image according to an instruction from the electronic pen 40.

次に、このような機能を有するプロジェクター100とPC200の機能ブロックについて説明する。図2は、第1の実施例におけるプロジェクター100とPC200の機能ブロック図である。   Next, functional blocks of the projector 100 and the PC 200 having such functions will be described. FIG. 2 is a functional block diagram of the projector 100 and the PC 200 in the first embodiment.

プロジェクター100は、撮像画像を生成する撮像部130と、撮像画像に基づいて位置情報を生成する位置情報生成部140と、位置情報を送信して画像情報を受信する投写側インターフェイス部110と、画像情報等に基づいて画像を生成する画像生成部120と、操作部150と、画像を投写する投写部190を含んで構成されている。   The projector 100 includes an imaging unit 130 that generates a captured image, a position information generation unit 140 that generates position information based on the captured image, a projection-side interface unit 110 that transmits position information and receives image information, and an image. The image generation unit 120 includes an image generation unit 120 that generates an image based on information and the like, an operation unit 150, and a projection unit 190 that projects an image.

また、PC200は、位置情報を受信して画像情報を送信する供給側インターフェイス部210と、画像情報を生成する画像情報生成部220と、画像情報に基づいて画像を表示する表示部290を含んで構成されている。   The PC 200 includes a supply-side interface unit 210 that receives position information and transmits image information, an image information generation unit 220 that generates image information, and a display unit 290 that displays an image based on the image information. It is configured.

ここで、撮像部130の構成についてより詳細に説明する。図3(A)は、第1の実施例における撮像部の構成の一例を示す図である。図3(B)は、第1の実施例における撮像部の構成の他の一例を示す図である。   Here, the configuration of the imaging unit 130 will be described in more detail. FIG. 3A is a diagram illustrating an example of the configuration of the imaging unit in the first embodiment. FIG. 3B is a diagram illustrating another example of the configuration of the imaging unit in the first embodiment.

撮像部130は、撮像レンズ131と、赤外光等の不可視光の透過率が可視光の透過率よりも高い第1のフィルター132と、可視光の透過率が不可視光の透過率よりも高い第2のフィルター134と、撮像センサー135と、第1のフィルター132を撮像領域(例えば、図3(A)および図3(B)に1点鎖線で示す光軸を中心とする撮像レンズ131を透過した光の範囲等)の内部および外部に移動させる駆動部133と、駆動部133を制御する制御部136を含んで構成されている。なお、一般的には、図3(A)に示すように、第2のフィルター134の機能が撮像センサー135に内蔵されている。   The imaging unit 130 includes an imaging lens 131, a first filter 132 whose invisible light transmittance such as infrared light is higher than the visible light transmittance, and a visible light transmittance higher than the invisible light transmittance. The second filter 134, the imaging sensor 135, and the first filter 132 are arranged in an imaging region (for example, an imaging lens 131 centered on the optical axis indicated by a one-dot chain line in FIGS. 3A and 3B). A driving unit 133 that moves in and out of the transmitted light range and the like, and a control unit 136 that controls the driving unit 133 are included. In general, the function of the second filter 134 is built in the imaging sensor 135 as shown in FIG.

また、プロジェクター100およびPC200は、以下のハードウェアを用いてこれらの各部として機能してもよい。例えば、プロジェクター100およびPC200は、投写側インターフェイス部110、供給側インターフェイス部210はUSBインターフェイス等、位置情報生成部140、画像情報生成部220はCPU等、画像生成部120は画像処理回路等、撮像部130は撮像レンズ、フィルター、フィルターを駆動するモーター、CCDセンサー、CPU等、操作部150は操作ボタン等、投写部190はランプ、液晶パネル、液晶駆動回路、投写レンズ等、表示部290は液晶ディスプレイ等を用いてもよい。   In addition, the projector 100 and the PC 200 may function as these units using the following hardware. For example, in the projector 100 and the PC 200, the projection-side interface unit 110, the supply-side interface unit 210 is a USB interface, the position information generation unit 140, the image information generation unit 220 is a CPU, the image generation unit 120 is an image processing circuit, and the like. The unit 130 is an imaging lens, a filter, a motor for driving the filter, a CCD sensor, a CPU, the operation unit 150 is an operation button, the projection unit 190 is a lamp, a liquid crystal panel, a liquid crystal drive circuit, a projection lens, etc., and the display unit 290 is a liquid crystal A display or the like may be used.

次に、これらの各部を用いた画像の投写手順について説明する。図4は、第1の実施例における画像投写手順を示すフローチャートである。   Next, an image projection procedure using these units will be described. FIG. 4 is a flowchart showing an image projection procedure in the first embodiment.

プロジェクター100は、台形歪み補正と指示光の位置調整を行うことによってキャリブレーションを行い、キャリブレーション後に指示光の位置に応じた画像を投写するインタラクティブ処理を実行する。   The projector 100 performs calibration by correcting keystone distortion and adjusting the position of the instruction light, and executes interactive processing for projecting an image according to the position of the instruction light after calibration.

ユーザーは、操作部150に含まれる操作パネルまたは図示しないリモートコントローラーを操作して台形歪み補正と指示光の位置調整を行うためのプロジェクター100のセットアップを開始する。   The user operates an operation panel included in the operation unit 150 or a remote controller (not shown) to start setup of the projector 100 for performing trapezoidal distortion correction and position adjustment of instruction light.

制御部136は、台形歪み補正を行う場合、可視光を検出しやすくするため、駆動部133を制御して第1のフィルター132を撮像領域外に移動させる(ステップS1)。これにより、撮像部130は可視光帯域でスクリーン10を撮像することができる。画像生成部120は、内部のプログラムまたは画像データに基づいて台形歪み補正画像を生成する。投写部190は当該台形歪み補正画像を投写する(ステップS2)。撮像部130は、スクリーン10に投写された台形歪み補正画像を含む撮像範囲30を撮像して第1の撮像画像を生成する(ステップS3)。画像生成部120は、第1の撮像画像に基づき、台形歪み補正を行う(ステップS4)。   When performing the trapezoidal distortion correction, the control unit 136 controls the driving unit 133 to move the first filter 132 outside the imaging region in order to facilitate detection of visible light (step S1). Thereby, the imaging unit 130 can capture the screen 10 in the visible light band. The image generation unit 120 generates a trapezoidal distortion corrected image based on an internal program or image data. The projection unit 190 projects the trapezoidal distortion corrected image (step S2). The imaging unit 130 captures the imaging range 30 including the trapezoidal distortion correction image projected on the screen 10 and generates a first captured image (step S3). The image generation unit 120 performs trapezoidal distortion correction based on the first captured image (step S4).

図5は、第1の実施例における台形歪み補正画像300の一例を示す図である。台形歪み補正画像300は、長方形が2行2列で接続して配置されたパターン画像を含む。図5に示すように台形歪み補正画像300は、パターン画像における各線の端点または交点として合計9個の基準点を有している。なお、スクリーン10とプロジェクター100が正対していない場合、台形歪み補正画像300は、図1(A)の画像20のように台形状に歪んだ状態で投写される。   FIG. 5 is a diagram illustrating an example of the trapezoidal distortion correction image 300 in the first embodiment. The trapezoidal distortion correction image 300 includes a pattern image in which rectangles are connected in 2 rows and 2 columns. As shown in FIG. 5, the trapezoidal distortion corrected image 300 has a total of nine reference points as the end points or intersections of the lines in the pattern image. When the screen 10 and the projector 100 do not face each other, the trapezoidal distortion corrected image 300 is projected in a trapezoidally distorted state as the image 20 in FIG.

位置情報生成部140は、第1の撮像画像に基づいて撮像センサー135の結像領域における各基準点の位置(例えば、XY座標値等)を示す位置情報を生成する。画像生成部120は、当該位置情報に基づいて画像の歪みの状態を把握し、液晶パネルの画像形成領域における台形歪み補正後に画像を生成すべき補正目標領域の各頂点の座標を決定することにより、台形歪み補正を行う。画像生成部120が補正目標領域に画像を生成することにより、スクリーン10において歪みのない画像が投写される。なお、画像の歪みがないか、あるいは、画像の歪みがほとんどない場合、プロジェクター100は、台形歪み補正を行わなくてもよい。   The position information generation unit 140 generates position information indicating the position (for example, XY coordinate value) of each reference point in the imaging region of the image sensor 135 based on the first captured image. The image generation unit 120 grasps the state of image distortion based on the position information, and determines the coordinates of each vertex of the correction target area where the image should be generated after the trapezoidal distortion correction in the image forming area of the liquid crystal panel. Perform keystone distortion correction. When the image generation unit 120 generates an image in the correction target area, an image without distortion is projected on the screen 10. If there is no image distortion or there is almost no image distortion, the projector 100 may not perform the trapezoidal distortion correction.

プロジェクター100は、電子ペン40による指示位置を正確に検出するため、台形歪み補正後に位置調整を行う。位置調整を行う場合、電子ペン40による赤外光を取得しやすくするため、制御部136は、駆動部133を制御して第1のフィルター132を撮像領域内に移動させる(ステップS5)。これにより、撮像部130は不可視光帯域でスクリーン10を撮像することができる。なお、第1のフィルター132と第2のフィルター134が重なっている場合、不可視光の透過率が可視光の透過率よりも高いものとする。   The projector 100 adjusts the position after correcting the keystone distortion in order to accurately detect the position indicated by the electronic pen 40. When performing position adjustment, in order to make it easy to acquire infrared light from the electronic pen 40, the control unit 136 controls the drive unit 133 to move the first filter 132 into the imaging region (step S5). Thereby, the imaging unit 130 can capture the screen 10 in the invisible light band. Note that in the case where the first filter 132 and the second filter 134 overlap, the transmittance of invisible light is higher than the transmittance of visible light.

画像生成部120は、PC200からの画像情報に基づいて位置調整画像を生成する。投写部190は当該位置調整画像を投写する(ステップS6)。   The image generation unit 120 generates a position adjustment image based on image information from the PC 200. The projection unit 190 projects the position adjustment image (step S6).

図6は、第1の実施例における位置調整画像310の一例を示す図である。また、図7は、第1の実施例における位置調整画像311の他の一例を示す図である。位置調整画像310、311は、水平に3個ずつ、垂直に3個ずつで合計9個の測定点を有する。   FIG. 6 is a diagram illustrating an example of the position adjustment image 310 in the first embodiment. FIG. 7 is a diagram illustrating another example of the position adjustment image 311 in the first embodiment. The position-adjusted images 310 and 311 have a total of nine measurement points, three in the horizontal direction and three in the vertical direction.

実際には、ユーザーが測定点を指示しやすくするため、画像生成部120は、左上の測定点から右下の測定点まで測定点を1つずつ示す位置調整画像を生成する。例えば、位置調整画像310では左上の測定点のみが表示され、位置調整画像311では中央上の測定点のみが表示されている。   Actually, in order to make it easy for the user to specify the measurement points, the image generation unit 120 generates a position adjustment image indicating the measurement points one by one from the upper left measurement point to the lower right measurement point. For example, only the upper left measurement point is displayed in the position adjustment image 310, and only the upper measurement point is displayed in the position adjustment image 311.

ユーザーは、スクリーン10に投写された位置調整画像310、311の測定点を、電子ペン40を用いて指示する。例えば、ユーザーが電子ペン40をスクリーン10に押し当てることによって電子ペン40の先端から赤外光が発光される。撮像部130は、位置の指示された位置調整画像310、311を含む撮像範囲30を撮像して第2の撮像画像を生成する(ステップS7)。   The user instructs the measurement points of the position adjustment images 310 and 311 projected on the screen 10 using the electronic pen 40. For example, infrared light is emitted from the tip of the electronic pen 40 when the user presses the electronic pen 40 against the screen 10. The imaging unit 130 captures the imaging range 30 including the position adjustment images 310 and 311 in which the position is instructed, and generates a second captured image (step S7).

PC200は、第2の撮像画像に基づき、電子ペン40による指示位置の調整を行う(ステップS8)。より具体的には、例えば、位置情報生成部140は、第2の撮像画像に基づいて撮像センサー135の結像領域における赤外光の位置を示す位置情報を生成する。投写側インターフェイス部110は、当該位置情報をPC200に送信する。   The PC 200 adjusts the indicated position with the electronic pen 40 based on the second captured image (step S8). More specifically, for example, the position information generation unit 140 generates position information indicating the position of infrared light in the imaging region of the image sensor 135 based on the second captured image. The projection-side interface unit 110 transmits the position information to the PC 200.

供給側インターフェイス部210は、当該位置情報を受信し、画像情報生成部221は、当該位置情報で示される測定点の位置と、標準環境で測定された当該測定点の位置とを比較し、両者の相違に応じて位置調整データを生成する。   The supply-side interface unit 210 receives the position information, and the image information generation unit 221 compares the position of the measurement point indicated by the position information with the position of the measurement point measured in the standard environment. The position adjustment data is generated according to the difference.

プロジェクター100は、上述した9個の測定点の位置調整が終了したかどうかを判定する(ステップS9)。上述した9個の測定点の位置調整が終了することにより、位置調整が終了する。PC200は、位置調整データに基づき、標準環境と実際の投写環境の相違を把握することができる。   The projector 100 determines whether or not the position adjustment of the nine measurement points described above has been completed (step S9). When the position adjustment of the nine measurement points described above is completed, the position adjustment is completed. The PC 200 can grasp the difference between the standard environment and the actual projection environment based on the position adjustment data.

上述した台形歪み補正と位置調整が終了することにより、キャリブレーションが終了する。キャリブレーションの終了後、画像情報生成部220は、プレゼンテーション用の画像情報を生成する。供給側インターフェイス部210は、当該画像情報をプロジェクター100に送信する。   When the trapezoidal distortion correction and the position adjustment described above are completed, the calibration is completed. After the calibration is completed, the image information generation unit 220 generates image information for presentation. The supply side interface unit 210 transmits the image information to the projector 100.

投写側インターフェイス部110は、当該画像情報を受信する。画像生成部120は、当該画像情報に基づき、画像を生成する。投写部190は、画像をスクリーン10に投写する(ステップS10)。   The projection side interface unit 110 receives the image information. The image generation unit 120 generates an image based on the image information. The projection unit 190 projects an image on the screen 10 (step S10).

ユーザーは、画像がスクリーン10に投写された状態で、電子ペン40を用いて所望の位置を指示する。例えば、画像が問題と問題に対する回答の選択肢を示す画像である場合、ユーザーは、電子ペン40で回答の部分を押すことによって赤外光を発光する。   The user indicates a desired position using the electronic pen 40 in a state where the image is projected on the screen 10. For example, when the image is an image showing a question and answer options for the question, the user emits infrared light by pressing the answer part with the electronic pen 40.

撮像部130は、位置の指示された状態の画像を撮像して第3の撮像画像を生成する(ステップS11)。位置情報生成部140は、第3の撮像画像に基づき、結像領域における指示位置を示す位置情報を生成する。投写側インターフェイス部110は、当該位置情報をPC200に送信する(ステップS12)。   The imaging unit 130 captures an image in a state in which the position is instructed to generate a third captured image (step S11). The position information generation unit 140 generates position information indicating the designated position in the imaging region based on the third captured image. The projection-side interface unit 110 transmits the position information to the PC 200 (step S12).

供給側インターフェイス部210は、当該位置情報を受信する。画像情報生成部220は、当該位置情報と、位置調整データに基づき、実際の指示位置を決定して当該指示位置に応じた画像を示す画像情報を生成する。例えば、画像情報生成部220は、ユーザーが指示した回答が正解である場合は解答と正解であることを示す画像の画像情報を生成する。供給側インターフェイス部210は、当該画像情報をプロジェクター100に送信する。   The supply-side interface unit 210 receives the position information. The image information generation unit 220 determines an actual designated position based on the position information and the position adjustment data, and generates image information indicating an image corresponding to the designated position. For example, the image information generation unit 220 generates image information of an image indicating that the answer is correct and the correct answer when the answer specified by the user is correct. The supply side interface unit 210 transmits the image information to the projector 100.

投写側インターフェイス部110は、当該画像情報を受信する。画像生成部120は、当該画像情報に基づき、解答と正解であることを示す画像を生成する。投写部190は、当該画像を投写する(ステップS10)。   The projection side interface unit 110 receives the image information. The image generation unit 120 generates an image indicating an answer and a correct answer based on the image information. The projection unit 190 projects the image (step S10).

このように、インタラクティブ処理では、プロジェクター100は、ステップS10〜S12の処理を繰り返し実行する。   As described above, in the interactive process, the projector 100 repeatedly executes the processes of steps S10 to S12.

以上のように、本実施例によれば、プロジェクター100は、1つの撮像部130を用いて台形歪み補正を行い、台形歪み補正の行われた状態で指示光の位置情報に基づく画像を投写することができるため、撮像機能をより有効に活用することができる。   As described above, according to the present embodiment, the projector 100 performs the trapezoidal distortion correction using the single imaging unit 130 and projects an image based on the position information of the instruction light in a state where the keystone distortion correction is performed. Therefore, the imaging function can be utilized more effectively.

また、本実施例によれば、プロジェクター100は、1つの撮像部130を用いて自動台形歪み補正機能と電子ペン40を用いたインタラクティブ処理機能を実現することができる。   In addition, according to the present embodiment, the projector 100 can realize an automatic trapezoidal distortion correction function and an interactive processing function using the electronic pen 40 by using one imaging unit 130.

また、本実施例によれば、プロジェクター100は、台形歪み補正画像300と位置調整画像310、311を投写することにより、より正確に位置調整と台形歪み補正を行うことができる。   Further, according to the present embodiment, the projector 100 can perform position adjustment and keystone distortion correction more accurately by projecting the keystone distortion correction image 300 and the position adjustment images 310 and 311.

また、本実施例によれば、プロジェクター100は、例えば、PC200からの位置情報に応じた画像を示す画像情報に基づく画像を投写することにより、指示光の位置に応じた画像を投写することができる。   Further, according to the present embodiment, the projector 100 can project an image according to the position of the instruction light by projecting an image based on image information indicating an image corresponding to the position information from the PC 200, for example. it can.

(第2の実施例)
第1の実施例では、プロジェクター100は、台形歪み補正画像300と位置調整画像310、311を投写したが、台形歪み補正と位置調整の両方を実行可能なキャリブレーション画像を投写してもよい。また、第1の実施例では、PC200が実際の環境と標準環境での指示位置の相違を把握して実際の指示位置を決定したが、プロジェクターが実際の環境と標準環境での指示位置の相違を把握して実際の指示位置を決定してもよい。
(Second embodiment)
In the first embodiment, the projector 100 projects the trapezoidal distortion correction image 300 and the position adjustment images 310 and 311. However, the projector 100 may project a calibration image capable of performing both the keystone distortion correction and the position adjustment. In the first embodiment, the PC 200 grasps the difference between the designated positions in the actual environment and the standard environment and determines the actual designated position. However, the projector differs in the designated position in the actual environment and the standard environment. It is also possible to determine the actual designated position by grasping.

図8は、第2の実施例におけるプロジェクター101とPC201の機能ブロック図である。プロジェクター101は、撮像部130と、位置情報生成部141と、投写側インターフェイス部110と、画像生成部121と、操作部150と、画像を投写する投写部190を含んで構成されている。プロジェクター101は、画像生成部121が台形歪み補正の補正状態を示す状態情報を位置情報生成部141に送信し、位置情報生成部141が当該状態情報に応じて位置情報を生成する点でプロジェクター100と異なっている。   FIG. 8 is a functional block diagram of the projector 101 and the PC 201 in the second embodiment. The projector 101 includes an imaging unit 130, a position information generation unit 141, a projection-side interface unit 110, an image generation unit 121, an operation unit 150, and a projection unit 190 that projects an image. The projector 101 is such that the image generation unit 121 transmits state information indicating the correction state of the trapezoidal distortion correction to the position information generation unit 141, and the position information generation unit 141 generates the position information according to the state information. Is different.

また、PC201は、供給側インターフェイス部210と、画像情報生成部221と、画像情報に基づいて画像を表示する表示部290を含んで構成されている。PC201は、画像情報生成部221が実際の環境と標準環境での指示位置の相違を把握して実際の指示位置を決定する機能を有していない点でPC200と異なっている。   The PC 201 includes a supply-side interface unit 210, an image information generation unit 221, and a display unit 290 that displays an image based on the image information. The PC 201 is different from the PC 200 in that the image information generation unit 221 does not have a function of determining the actual designated position by grasping the difference between the designated position in the actual environment and the standard environment.

次に、これらの各部を用いた画像の投写手順について説明する。図9は、第2の実施例における画像投写手順を示すフローチャートである。   Next, an image projection procedure using these units will be described. FIG. 9 is a flowchart showing an image projection procedure in the second embodiment.

プロジェクター101は、第1の実施例と同様に、操作部150等を用いたユーザーによるセットアップ開始指示に応じて台形歪み補正と指示光の位置調整を行うことによってキャリブレーションを行い、キャリブレーション後に指示光の位置に応じた画像を投写するインタラクティブ処理を実行する。   As in the first embodiment, the projector 101 performs calibration by performing trapezoidal distortion correction and position adjustment of the instruction light in accordance with a setup start instruction from the user using the operation unit 150 or the like, and instructs after the calibration. Interactive processing for projecting an image according to the position of light is executed.

制御部136は、駆動部133を制御して第1のフィルター132を撮像領域外に移動させる(ステップS21)。画像生成部121は、内部のプログラムまたは画像データに基づいてキャリブレーション画像を生成する。投写部190は当該キャリブレーション画像を投写する(ステップS22)。   The control unit 136 controls the drive unit 133 to move the first filter 132 out of the imaging region (step S21). The image generation unit 121 generates a calibration image based on an internal program or image data. The projection unit 190 projects the calibration image (step S22).

図10は、第2の実施例におけるキャリブレーション画像320の一例を示す図である。キャリブレーション画像320は、長方形が3行4列で接続して配置されたパターン画像を含む。図10に示すようにキャリブレーション画像320は、パターン画像における各線の端点または交点として合計20個の基準点を有している。   FIG. 10 is a diagram illustrating an example of the calibration image 320 in the second embodiment. The calibration image 320 includes a pattern image in which rectangles are arranged in 3 rows and 4 columns. As shown in FIG. 10, the calibration image 320 has a total of 20 reference points as the end points or intersections of each line in the pattern image.

撮像部130は、スクリーン10に投写されたキャリブレーション画像320を含む撮像範囲30を撮像して第4の撮像画像を生成する(ステップS23)。位置情報生成部141は、第4の撮像画像に基づき、各基準点の結像領域における位置を示す位置情報(交点位置情報)を生成する(ステップS24)。   The imaging unit 130 captures the imaging range 30 including the calibration image 320 projected on the screen 10 to generate a fourth captured image (step S23). The position information generation unit 141 generates position information (intersection position information) indicating the position of each reference point in the imaging region based on the fourth captured image (step S24).

画像生成部121は、当該交点位置情報に基づいて画像の歪みの状態を把握し、液晶パネルの画像形成領域における台形歪み補正後に画像を生成すべき補正目標領域の各頂点の座標を決定することにより、台形歪み補正を行う。また、画像生成部121は、当該画像の歪みの状態を示す状態情報を生成する(ステップS25)。   The image generation unit 121 grasps the state of image distortion based on the intersection position information, and determines the coordinates of each vertex of the correction target area where the image should be generated after the trapezoidal distortion correction in the image forming area of the liquid crystal panel. To correct trapezoidal distortion. Further, the image generation unit 121 generates state information indicating the state of distortion of the image (step S25).

また、位置情報生成部141は、交点位置情報と、状態情報に基づき、台形歪み補正が行われた状態における各基準点の補正量を決定することにより、指示位置の調整を行うための位置調整データを生成する(ステップS26)。   Further, the position information generation unit 141 determines the correction amount of each reference point in the state where the trapezoidal distortion correction is performed based on the intersection position information and the state information, thereby adjusting the position for adjusting the indicated position. Data is generated (step S26).

上述した台形歪み補正と位置調整が終了することにより、キャリブレーションが終了する。キャリブレーションの終了後、プロジェクター101は、電子ペン40による赤外光を取得しやすくするため、制御部136は、駆動部133を制御して第1のフィルター132を撮像領域内に移動させる(ステップS27)。   When the trapezoidal distortion correction and the position adjustment described above are completed, the calibration is completed. After the calibration, the projector 101 controls the drive unit 133 to move the first filter 132 into the imaging region in order to make it easier for the projector 101 to acquire infrared light from the electronic pen 40 (Step 1). S27).

画像情報生成部221は、プレゼンテーション用の画像情報を生成する。供給側インターフェイス部210は、当該画像情報をプロジェクター101に送信する。投写側インターフェイス部110は、当該画像情報を受信する。画像生成部121は、当該画像情報に基づき、画像を生成する。投写部190は、画像をスクリーン10に投写する(ステップS28)。   The image information generation unit 221 generates image information for presentation. The supply side interface unit 210 transmits the image information to the projector 101. The projection side interface unit 110 receives the image information. The image generation unit 121 generates an image based on the image information. The projection unit 190 projects an image on the screen 10 (step S28).

ユーザーは、画像がスクリーン10に投写された状態で、電子ペン40を用いて所望の位置を指示する。撮像部130は、位置の指示された状態の画像を撮像して第5の撮像画像を生成する(ステップS29)。位置情報生成部141は、第3の撮像画像と、状態情報に基づき、台形歪み補正が行われた状態における指示位置を示す位置情報を生成し、当該位置情報と、位置調整データに基づき、台形歪み補正が行われた状態の撮像部130の結像領域における指示位置を示す位置情報を生成する。投写側インターフェイス部110は、当該位置情報をPC201に送信する(ステップS30)。   The user indicates a desired position using the electronic pen 40 in a state where the image is projected on the screen 10. The imaging unit 130 captures an image in a position-instructed state and generates a fifth captured image (step S29). The position information generation unit 141 generates position information indicating the indicated position in a state where the trapezoidal distortion correction is performed based on the third captured image and the state information, and based on the position information and the position adjustment data, Position information indicating the indicated position in the imaging region of the imaging unit 130 in a state where distortion correction has been performed is generated. The projection-side interface unit 110 transmits the position information to the PC 201 (step S30).

供給側インターフェイス部210は、当該位置情報を受信する。画像情報生成部221は、当該位置情報に基づき、画像における実際の指示位置を決定して当該指示位置に応じた画像を示す画像情報を生成する。供給側インターフェイス部210は、当該画像情報をプロジェクター101に送信する。   The supply-side interface unit 210 receives the position information. Based on the position information, the image information generation unit 221 determines an actual designated position in the image and generates image information indicating an image corresponding to the designated position. The supply side interface unit 210 transmits the image information to the projector 101.

投写側インターフェイス部110は、当該画像情報を受信する。画像生成部121は、当該画像情報に基づき、画像を生成する。投写部190は、当該画像を投写する(ステップS28)。   The projection side interface unit 110 receives the image information. The image generation unit 121 generates an image based on the image information. The projection unit 190 projects the image (step S28).

このように、インタラクティブ処理では、プロジェクター101は、ステップS28〜S30の処理を繰り返し実行する。   As described above, in the interactive process, the projector 101 repeatedly executes the processes of steps S28 to S30.

以上のように、本実施例によれば、プロジェクター101は、第1の実施例と同様の作用効果を奏する。また、本実施例によれば、プロジェクター101は、台形歪み補正の補正状態に応じた位置情報を生成することにより、より正確に指示光の位置に応じた画像を投写することができる。   As described above, according to the present embodiment, the projector 101 has the same operational effects as the first embodiment. Further, according to the present embodiment, the projector 101 can project the image according to the position of the instruction light more accurately by generating the position information according to the correction state of the trapezoidal distortion correction.

また、本実施例によれば、プロジェクター101は、台形歪み補正と指示位置調整の両方を行うためのキャリブレーション画像320を用いることにより、キャリブレーション時間を短縮することができる上、電子ペン40を用いることなく指示位置の調整を行うことができる。   According to the present embodiment, the projector 101 can shorten the calibration time by using the calibration image 320 for performing both the trapezoidal distortion correction and the pointing position adjustment, and the electronic pen 40 can be used. The designated position can be adjusted without using it.

(その他の実施例)
なお、本発明の適用は上述した実施例に限定されず、種々の変形が可能である。例えば、位置情報生成部140、141は、位置情報だけでなく、電子ペン40の発光パターンを示す発光状態情報もPC200、201に送信してもよい。
(Other examples)
In addition, application of this invention is not limited to the Example mentioned above, A various deformation | transformation is possible. For example, the position information generation units 140 and 141 may transmit not only the position information but also the light emission state information indicating the light emission pattern of the electronic pen 40 to the PCs 200 and 201.

これによれば、プロジェクター100、101は、例えば、クリック、ドラッグ等の操作に応じた発光パターンをPC200、201に伝達することができるため、PC200、201はより複雑な操作に対応した画像情報を生成することができる。   According to this, since the projectors 100 and 101 can transmit a light emission pattern corresponding to an operation such as click and drag to the PCs 200 and 201, the PCs 200 and 201 can receive image information corresponding to more complicated operations. Can be generated.

また、指示光は、赤外光に限定されず、例えば、紫外光等であってもよい。また、第1のフィルター132の移動方法としては、例えば、平行移動、回転移動等の種々の方法を採用可能である。   Further, the indicator light is not limited to infrared light, and may be, for example, ultraviolet light. In addition, as a moving method of the first filter 132, various methods such as parallel movement and rotational movement can be employed, for example.

また、駆動部は、第1のフィルター132に代えて第2のフィルター134を移動させてもよく、第1のフィルター132と第2のフィルター134の両方を移動させてもよい。例えば、第1のフィルター132が撮像領域に設けられた状態で、駆動部は、第1の撮像画像の生成時に第2のフィルター134を撮像領域に移動させ、第2の撮像画像の生成時に第2のフィルター134を撮像領域外に移動させてもよい。なお、この場合、第1のフィルター132と第2のフィルター134が重なった状態では可視光の透過率が不可視光の透過率よりも高いものとする。   Further, the drive unit may move the second filter 134 instead of the first filter 132, or may move both the first filter 132 and the second filter 134. For example, in a state where the first filter 132 is provided in the imaging region, the driving unit moves the second filter 134 to the imaging region when generating the first captured image, and the second filter 134 is generated when generating the second captured image. The second filter 134 may be moved outside the imaging region. In this case, it is assumed that the visible light transmittance is higher than the invisible light transmittance when the first filter 132 and the second filter 134 overlap.

また、インタラクティブ処理で用いられる画像は、問題の画像、解答の画像に限定されず、例えば、電子ペン40の移動軌跡を描く画像、電子ペン40の操作に応じて下線を引く等の演出を行う画像等のインタラクティブ処理で用いられる種々の画像を採用可能である。   The images used in the interactive processing are not limited to the problem image and the answer image. For example, an image that draws the movement locus of the electronic pen 40 and an effect such as underlining according to the operation of the electronic pen 40 are performed. Various images used in interactive processing such as images can be employed.

また、位置情報生成部140が生成する位置情報は、撮像部130の結像領域における座標を示す情報に限定されず、例えば、液晶パネルの画像形成領域における座標を示す情報等であってもよい。   Further, the position information generated by the position information generation unit 140 is not limited to information indicating the coordinates in the imaging region of the imaging unit 130, and may be information indicating the coordinates in the image forming region of the liquid crystal panel, for example. .

また、プロジェクター100は、液晶プロジェクター(透過型、LCOS等の反射型)に限定されず、例えば、DMD(Digital Micromirror Device)を用いたプロジェクター等であってもよい。なお、DMDは米国テキサス・インスツルメンツ社の商標である。また、プロジェクター100の機能を複数の装置(例えば、PCとプロジェクター、カメラとプロジェクター等)に分散してもよい。   Further, the projector 100 is not limited to a liquid crystal projector (transmission type, reflection type such as LCOS), and may be a projector using DMD (Digital Micromirror Device), for example. DMD is a trademark of Texas Instruments Incorporated. Further, the function of the projector 100 may be distributed to a plurality of devices (for example, a PC and a projector, a camera and a projector, etc.).

また、画像供給装置は、PC200に限定されず、例えば、携帯電話、ゲーム装置、HDDレコーダー、DVDプレーヤー等であってもよい。   Further, the image supply device is not limited to the PC 200, and may be, for example, a mobile phone, a game device, an HDD recorder, a DVD player, or the like.

10 スクリーン、20 画像、30 撮像範囲、40 電子ペン、100、101 プロジェクター、110 投写側インターフェイス部、120、121 画像生成部、130 撮像部、131 撮像レンズ、132 第1のフィルター、133 駆動部、134 第2のフィルター、135 撮像センサー、136 制御部、140、141 位置情報生成部、150 操作部、190 投写部、200、201 PC(画像供給装置)、210 供給側インターフェイス部、220、221 画像情報生成部、290 表示部、300 台形歪み補正画像、310、311 位置調整画像、320 キャリブレーション画像。   10 screen, 20 images, 30 imaging range, 40 electronic pen, 100, 101 projector, 110 projection-side interface unit, 120, 121 image generation unit, 130 imaging unit, 131 imaging lens, 132 first filter, 133 drive unit, 134 Second filter, 135 Image sensor, 136 Control unit, 140, 141 Position information generation unit, 150 Operation unit, 190 Projection unit, 200, 201 PC (image supply device), 210 Supply side interface unit, 220, 221 Image Information generation unit, 290 display unit, 300 trapezoidal distortion correction image, 310, 311 position adjustment image, 320 calibration image.

Claims (6)

投写対象領域を可視光帯域で撮像して第1の撮像画像を生成し、不可視光の波長を有する指示光を含む前記投写対象領域を、第1のフィルターを介し不可視光帯域で撮像して第2の撮像画像を生成する撮像部と、
前記第1の撮像画像に基づき、前記指示光の位置を示す位置情報を調整するための位置調整データを生成し、前記位置調整データ及び前記第2の撮像画像に基づき、前記位置情報を生成する位置情報生成部と、
前記位置情報に基づく画像を投写する投写部と、
前記第1のフィルターを移動させる駆動部と、
を含み、
前記駆動部は、前記撮像部により前記第1の撮像画像を撮像するときに前記第1のフィルターを前記撮像部の撮像領域外に移動させ、前記撮像部により前記第2の撮像画像を撮像するときに前記第1のフィルターを前記撮像領域に移動させることを特徴とする、
プロジェクター。
The projection target area is imaged in the visible light band to generate a first captured image, and the projection target area including the instruction light having the wavelength of invisible light is imaged in the invisible light band through the first filter. An imaging unit that generates two captured images;
Based on the first captured image, position adjustment data for adjusting position information indicating the position of the indication light is generated, and the position information is generated based on the position adjustment data and the second captured image. A position information generation unit;
A projection unit that projects an image based on the position information;
A drive unit for moving the first filter;
Including
The driving unit moves the first filter outside the imaging region of the imaging unit when the imaging unit captures the first captured image, and captures the second captured image by the imaging unit. Sometimes moving the first filter to the imaging region,
projector.
請求項1に記載のプロジェクターにおいて、
前記投写部は、前記位置調整データを生成するためのキャリブレーション画像を投写する、
プロジェクター。
The projector according to claim 1.
The projection unit projects a calibration image for generating the position adjustment data;
projector.
請求項2に記載のプロジェクターにおいて、
前記撮像部は、前記投写部により投写された前記キャリブレーション画像を、前記第1のフィルターを介さずに撮像して前記第1の撮像画像を生成する、
プロジェクター。
The projector according to claim 2 ,
The imaging unit generates the first captured image by capturing the calibration image projected by the projection unit without passing through the first filter.
projector.
請求項1〜3のいずれかに記載のプロジェクターにおいて、
前記位置情報を画像供給装置に送信し、前記画像供給装置から前記位置情報に応じた画像を示す画像情報を受信する投写側インターフェイス部を含むプロジェクター。
The projector according to any one of claims 1 to 3,
A projector including a projection-side interface unit that transmits the position information to an image supply apparatus and receives image information indicating an image corresponding to the position information from the image supply apparatus.
請求項4に記載のプロジェクターと、
前記画像供給装置と、
を含む画像投写システムであって、
前記画像供給装置は、
前記画像情報を前記プロジェクターに送信し、前記プロジェクターから前記位置情報を受信する供給側インターフェイス部と、
前記位置情報に基づき、前記画像情報を生成する画像情報生成部と、
を含む、
画像投写システム。
A projector according to claim 4;
The image supply device;
An image projection system comprising:
The image supply device includes:
A supply-side interface unit that transmits the image information to the projector and receives the position information from the projector;
An image information generation unit that generates the image information based on the position information;
including,
Image projection system.
撮像部を有するプロジェクターによる画像投写方法であって、
前記撮像部によって、投写対象領域を可視光帯域で撮像して第1の撮像画像を生成し、
前記撮像部によって、不可視光の波長を有する指示光を含む前記投写対象領域を、第1のフィルターを介し不可視光帯域で撮像して第2の撮像画像を生成し、
前記第1の撮像画像に基づき、前記指示光の位置を示す位置情報を調整するための位置調整データを生成し、
前記位置調整データ及び前記第2の撮像画像に基づき、前記位置情報を生成し、
前記位置情報に基づく画像を投写する、
ことを含み、
前記第1の撮像画像を撮像するときに前記第1のフィルターを前記撮像部の撮像領域外に移動させ、前記第2の撮像画像を撮像するときに前記第1のフィルターを前記撮像領域に移動させることを特徴とする、
画像投写方法。
An image projection method using a projector having an imaging unit,
The imaging unit captures a projection target region in a visible light band to generate a first captured image,
The imaging unit captures the projection target area including the instruction light having the wavelength of invisible light in the invisible light band through the first filter to generate a second captured image,
Based on the first captured image, generating position adjustment data for adjusting position information indicating the position of the instruction light,
Based on the position adjustment data and the second captured image, the position information is generated,
Projecting an image based on the position information;
Including
When capturing the first captured image, the first filter is moved outside the imaging region of the imaging unit, and when capturing the second captured image, the first filter is moved to the imaging region. Characterized by
Image projection method.
JP2013172013A 2013-08-22 2013-08-22 Projector, image projection system, and image projection method Active JP5664725B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013172013A JP5664725B2 (en) 2013-08-22 2013-08-22 Projector, image projection system, and image projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013172013A JP5664725B2 (en) 2013-08-22 2013-08-22 Projector, image projection system, and image projection method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009162463A Division JP5428600B2 (en) 2009-07-09 2009-07-09 Projector, image projection system, and image projection method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014246577A Division JP2015053734A (en) 2014-12-05 2014-12-05 Projector, image projection system, and image projection method

Publications (2)

Publication Number Publication Date
JP2013238891A JP2013238891A (en) 2013-11-28
JP5664725B2 true JP5664725B2 (en) 2015-02-04

Family

ID=49763891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013172013A Active JP5664725B2 (en) 2013-08-22 2013-08-22 Projector, image projection system, and image projection method

Country Status (1)

Country Link
JP (1) JP5664725B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015149648A (en) * 2014-02-07 2015-08-20 株式会社リコー Image projection device, image projection system, and control method of image projection device
JP2018056800A (en) * 2016-09-29 2018-04-05 セイコーエプソン株式会社 Projector system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3640156B2 (en) * 2000-02-22 2005-04-20 セイコーエプソン株式会社 Pointed position detection system and method, presentation system, and information storage medium
JP2003348385A (en) * 2002-03-20 2003-12-05 Fuji Photo Optical Co Ltd Camera system for calligraphic works and paintings and presentation method using the same
JP2005092592A (en) * 2003-09-18 2005-04-07 Nec Viewtechnology Ltd Projector and projection system
JP4371749B2 (en) * 2003-09-19 2009-11-25 Necディスプレイソリューションズ株式会社 Projector and its test pattern detection method
JP3769568B2 (en) * 2003-11-17 2006-04-26 Necビューテクノロジー株式会社 Projector having an image sensor with a spectrum selection mechanism
JP4978152B2 (en) * 2006-10-25 2012-07-18 セイコーエプソン株式会社 Projector, program, and information storage medium

Also Published As

Publication number Publication date
JP2013238891A (en) 2013-11-28

Similar Documents

Publication Publication Date Title
JP5428600B2 (en) Projector, image projection system, and image projection method
CN103019638B (en) Display device, projector and display packing
JP6369810B2 (en) Projection image display system, projection image display method, and projection display device
US8282219B2 (en) Projector and control method
US9521383B2 (en) Image processing apparatus, projector, and image processing method
JP5768639B2 (en) Pointer control device, projector and program
US20190124309A1 (en) Projector and method for controlling projector
US8736774B1 (en) Projection apparatus, projection method and computer-readable storage medium for correcting a projection state being projected onto curved surface
JP2015043066A (en) Image projection device
US8670038B2 (en) Projection display device and method of controlling the same
JP2011013396A (en) Projector, image projection system and image projection method
US10812764B2 (en) Display apparatus, display system, and method for controlling display apparatus
JP2010273289A (en) Electronic information board system, computer terminal, and calibration method
JP5664725B2 (en) Projector, image projection system, and image projection method
JP2015053734A (en) Projector, image projection system, and image projection method
JP5742379B2 (en) Projection system and projection method
JP6304135B2 (en) Pointer control device, projector and program
US9787961B2 (en) Projector and method for controlling projector
JP5354163B2 (en) Projector, program and information storage medium
JP5488584B2 (en) Image processing apparatus and program
JP2014057237A (en) Computer input system, coordinate conversion device and program
JP2020046629A (en) Information processing apparatus, projection device, control method, and program
JP2019191431A (en) Image projection device and method for controlling image projection device
JP2015097042A (en) Image correction system and coordinate input device
WO2014069224A1 (en) Two-dimensional image processing device, two-dimensional luminance colorimeter, two-dimensional image processing device, and two-dimensional image processing program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130918

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141124

R150 Certificate of patent or registration of utility model

Ref document number: 5664725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350