JP4150924B2 - Image processing system, projector, program, information storage medium, and image processing method - Google Patents

Image processing system, projector, program, information storage medium, and image processing method Download PDF

Info

Publication number
JP4150924B2
JP4150924B2 JP2004078412A JP2004078412A JP4150924B2 JP 4150924 B2 JP4150924 B2 JP 4150924B2 JP 2004078412 A JP2004078412 A JP 2004078412A JP 2004078412 A JP2004078412 A JP 2004078412A JP 4150924 B2 JP4150924 B2 JP 4150924B2
Authority
JP
Japan
Prior art keywords
projection
image
area
imaging
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004078412A
Other languages
Japanese (ja)
Other versions
JP2005038388A (en
Inventor
雅暢 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004078412A priority Critical patent/JP4150924B2/en
Priority to KR1020040049117A priority patent/KR100660039B1/en
Priority to KR20-2004-0018384U priority patent/KR200362482Y1/en
Priority to US10/880,642 priority patent/US7419268B2/en
Priority to EP04253992.4A priority patent/EP1494486B1/en
Priority to CNB2004100500795A priority patent/CN100476572C/en
Priority to TW093120038A priority patent/TWI253006B/en
Publication of JP2005038388A publication Critical patent/JP2005038388A/en
Priority to US12/222,027 priority patent/US7695143B2/en
Application granted granted Critical
Publication of JP4150924B2 publication Critical patent/JP4150924B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/72Modifying the appearance of television pictures by optical filters or diffusing screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像の歪み補正が可能な画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法に関する。   The present invention relates to an image processing system capable of correcting image distortion, a projector, a program, an information storage medium, and an image processing method.

プロジェクタ等の画像投写装置からの投写光の光軸とスクリーン等の投写対象物との相対的な角度によって画像が歪んでしまい、縦方向や横方向にいわゆる台形歪みが発生してしまう場合がある。   The image may be distorted depending on the relative angle between the optical axis of the projection light from the image projection apparatus such as a projector and the projection target such as a screen, and so-called trapezoidal distortion may occur in the vertical and horizontal directions. .

したがって、画像表示装置は、画像を表示する場合には、画像の歪みをなくした状態で画像を表示する必要がある。   Therefore, when displaying an image, the image display apparatus needs to display the image in a state in which the distortion of the image is eliminated.

しかし、一般的な画像の歪み補正機能付きプロジェクタは、傾きセンサーを内蔵して画像の縦方向の歪みのみを補正し、画像の横方向の歪みは補正できていない。   However, a general projector with an image distortion correction function has a built-in tilt sensor to correct only the vertical distortion of the image and cannot correct the horizontal distortion of the image.

また、画像の横方向の歪みを補正する場合、ユーザーがマウス等を用いてスクリーンの4隅の点を指示することにより、プロジェクタは当該指示情報に基づいて半自動的に画像の歪みを補正している。また、ユーザーにとっては、マウス等を用いてスクリーンの4隅の点を指示することは煩雑である。   Also, when correcting the horizontal distortion of the image, the projector uses a mouse or the like to indicate the four corner points of the screen, so that the projector semi-automatically corrects the image distortion based on the instruction information. Yes. In addition, it is troublesome for the user to designate the four corner points of the screen using a mouse or the like.

このような課題を解決するため、例えば、特許文献1では、モニタカメラより入力された映像信号に基づき、モニタカメラにより撮像された画像内のスクリーンの位置を検出し、検出されたスクリーンの位置のデータにより映写画像の台形歪みを調整するプロジェクタの自動画面位置調整装置が開示されている。   In order to solve such a problem, for example, in Patent Document 1, based on a video signal input from a monitor camera, a screen position in an image captured by the monitor camera is detected, and the detected screen position is determined. An automatic screen position adjustment device for a projector that adjusts trapezoidal distortion of a projected image based on data is disclosed.

また、特許文献1の手法では、特許文献1の明細書の段落番号0029に記載されているように、撮像されたモニタ画面内のスクリーンの対向辺の長さを比較して台形歪みを調整している。
特開2000−241874号公報 特開2002−247614号公報
Further, in the method of Patent Document 1, as described in paragraph No. 0029 of the specification of Patent Document 1, the trapezoidal distortion is adjusted by comparing the lengths of opposite sides of the screen in the captured monitor screen. ing.
JP 2000-241874 A JP 2002-247614 A

しかし、スクリーン等の投写対象物の縦横比(アスペクト比)が既知でない場合、プロジェクタは、スクリーンの対向辺の長さを比較するだけでは画像の歪みを適切に把握することはできない。   However, when the aspect ratio (aspect ratio) of a projection object such as a screen is not known, the projector cannot properly grasp the distortion of the image only by comparing the lengths of the opposite sides of the screen.

また、特許文献2では、プロジェクタが撮像部を用いてスクリーンの外形を識別し、識別した外形と同じ外形になるように画像を補正するプロジェクタが開示されている。   Japanese Patent Application Laid-Open No. 2004-228620 discloses a projector that identifies an external shape of a screen using an imaging unit and corrects an image so that the external shape is the same as the identified external shape.

しかし、プロジェクタが、特許文献2のようにスクリーンの外形の形状に画像の形状を変化させてしまうと、変化後の画像が元の画像の外形とは異なってしまうことになる。この場合、観察者に元の画像とは異なる印象を与えてしまうため、このような処理方式を採用することは好ましくない。   However, if the projector changes the shape of the image to the shape of the outer shape of the screen as in Patent Document 2, the image after the change will be different from the outer shape of the original image. In this case, since an impression different from that of the original image is given to the observer, it is not preferable to employ such a processing method.

また、投写対象物の縦横比を基準とする場合であっても、所望の縦横比で投写画像が表示されることが望ましい。   Further, even when the aspect ratio of the projection object is used as a reference, it is desirable that the projected image is displayed with a desired aspect ratio.

本発明は、上記の課題に鑑みなされたものであり、その目的は、投写対象物の縦横比と画像の歪みを把握して投写画像の歪みを補正することが可能な画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing system, a projector, and an image processing system capable of grasping the aspect ratio of the projection object and the distortion of the image and correcting the distortion of the projected image. To provide a program, an information storage medium, and an image processing method.

上記課題を解決するため、画像処理システムおよびプロジェクタは、任意の単色で構成される単色キャリブレーション画像を投写対象物へ向け投写するとともに、画像全体の領域より小さい第1の単色の領域を含み、かつ、当該領域以外の領域が当該第1の単色以外の第2の単色で構成される複数色キャリブレーション画像を前記投写対象物へ向け投写する画像投写手段と、
前記投写対象物に投写された前記単色キャリブレーション画像を撮像して第1の撮像情報を生成するとともに、前記投写対象物に投写された前記複数色キャリブレーション画像を撮像して第2の撮像情報を生成する撮像手段と、
前記第1の撮像情報に基づく画素ごとの画像信号値の差異に基づき、前記撮像手段の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成する投写対象領域情報生成手段と、
前記第1の撮像情報と、前記第2の撮像情報との差異に基づき、前記撮像領域における前記第1の単色の領域を部分投写領域として検出し、当該部分投写領域に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成する投写領域情報生成手段と、
前記投写対象領域情報と、前記投写領域情報とに基づき、画像歪み補正用情報を生成する補正用情報生成手段と、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正する歪み補正手段と、
を含み、
前記画像投写手段は、前記歪み補正手段によって補正された画像信号に基づき、画像を投写することを特徴とする。
In order to solve the above problems, an image processing system and a projector project a single-color calibration image composed of an arbitrary single color toward a projection target, and include a first monochrome region smaller than the entire image region, And an image projecting means for projecting a multi-color calibration image in which a region other than the region is composed of a second single color other than the first single color toward the projection target;
The first imaging information is generated by capturing the single color calibration image projected on the projection object, and the second imaging information is generated by capturing the multi-color calibration image projected on the projection object. Imaging means for generating
Projection target area information generation means for generating projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging means based on the difference in image signal value for each pixel based on the first imaging information. When,
Based on the difference between the first imaging information and the second imaging information, the first monochrome area in the imaging area is detected as a partial projection area, and based on the partial projection area, in the imaging area Projection area information generating means for generating projection area information indicating the coordinates of the four corners of the projection area;
Correction information generating means for generating image distortion correction information based on the projection target area information and the projection area information;
Distortion correction means for correcting the image signal based on the image distortion correction information so that the distortion of the image is corrected;
Including
The image projecting unit projects an image based on the image signal corrected by the distortion correcting unit.

また、本発明に係るプログラムは、コンピュータにより読み取り可能なプログラムであって、
コンピュータを、
任意の単色で構成される単色キャリブレーション画像を投写対象物へ向け投写するとともに、画像全体の領域より小さい第1の単色の領域を含み、かつ、当該領域以外の領域が当該第1の単色以外の第2の単色で構成される複数色キャリブレーション画像を前記投写対象物へ向け投写する画像投写手段と、
前記投写対象物に投写された前記単色キャリブレーション画像を撮像して第1の撮像情報を生成するとともに、前記投写対象物に投写された前記複数色キャリブレーション画像を撮像して第2の撮像情報を生成する撮像手段と、
前記第1の撮像情報に基づく画素ごとの画像信号値の差異に基づき、前記撮像手段の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成する投写対象領域情報生成手段と、
前記第1の撮像情報と、前記第2の撮像情報との差異に基づき、前記撮像領域における前記第1の単色の領域を部分投写領域として検出し、当該部分投写領域に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成する投写領域情報生成手段と、
前記投写対象領域情報と、前記投写領域情報とに基づき、画像歪み補正用情報を生成する補正用情報生成手段と、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正する歪み補正手段として機能させ、
前記画像投写手段は、前記歪み補正手段によって補正された画像信号に基づき、画像を投写することを特徴とする。
The program according to the present invention is a computer-readable program,
Computer
A single color calibration image composed of any single color is projected onto the projection target, includes a first monochrome region smaller than the entire image region, and a region other than the first region is other than the first monochrome color. Image projection means for projecting a multi-color calibration image composed of the second single color onto the projection object;
The first imaging information is generated by capturing the single color calibration image projected on the projection object, and the second imaging information is generated by capturing the multi-color calibration image projected on the projection object. Imaging means for generating
Projection target area information generation means for generating projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging means based on the difference in image signal value for each pixel based on the first imaging information. When,
Based on the difference between the first imaging information and the second imaging information, the first monochrome area in the imaging area is detected as a partial projection area, and based on the partial projection area, in the imaging area Projection area information generating means for generating projection area information indicating the coordinates of the four corners of the projection area;
Correction information generating means for generating image distortion correction information based on the projection target area information and the projection area information;
Based on the image distortion correction information, function as a distortion correction unit that corrects the image signal so that the distortion of the image is corrected,
The image projecting unit projects an image based on the image signal corrected by the distortion correcting unit.

また、本発明に係る情報記憶媒体は、コンピュータにより読み取り可能なプログラムを記憶した情報記憶媒体であって、
上記プログラムを記憶したことを特徴とする。
An information storage medium according to the present invention is an information storage medium storing a computer-readable program,
The program is stored.

また、本発明に係る画像処理方法は、任意の単色で構成される単色キャリブレーション画像を、画像投写部を用いて投写対象物へ向け投写し、
前記投写対象物に投写された前記単色キャリブレーション画像を、撮像部を用いて撮像して第1の撮像情報を生成し、
画像全体の領域より小さい第1の単色の領域を含み、かつ、当該領域以外の領域が当該第1の単色以外の第2の単色で構成される複数色キャリブレーション画像を、前記画像投写部を用いて前記投写対象物へ向け投写し、
前記投写対象物に投写された前記複数色キャリブレーション画像を、前記撮像部を用いて撮像して第2の撮像情報を生成し、
前記第1の撮像情報に基づく画素ごとの画像信号値の差異に基づき、前記撮像の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成し、
前記第1の撮像情報と、前記第2の撮像情報との差異に基づき、前記撮像領域における前記第1の単色の領域を部分投写領域として検出し、当該部分投写領域に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成し、
前記投写対象領域情報と、前記投写領域情報とに基づき、画像歪み補正用情報を生成し、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正し、
補正された画像信号に基づき、前記画像投写部を用いて画像を投写することを特徴とする。
Further, the image processing method according to the present invention projects a single-color calibration image composed of any single color onto a projection object using an image projection unit ,
Imaging the monochromatic calibration image projected on the projection object using an imaging unit to generate first imaging information;
A multi-color calibration image including a first single color area smaller than the entire image area and a region other than the first region composed of a second single color other than the first single color is displayed on the image projection unit. Use to project toward the projection object,
The multi-color calibration image projected on the projection target is imaged using the imaging unit to generate second imaging information,
Based on the difference in image signal value for each pixel based on the first imaging information, generating projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging unit ,
Based on the difference between the first imaging information and the second imaging information, the first monochrome area in the imaging area is detected as a partial projection area, and based on the partial projection area, in the imaging area Generating projection area information indicating the coordinates of the four corners of the projection area;
Based on the projection area information and the projection area information, image distortion correction information is generated,
Based on the image distortion correction information, correct the image signal so that the image distortion is corrected,
An image is projected using the image projection unit based on the corrected image signal.

本発明によれば、画像処理システム等は、撮像情報に基づく画像信号値(例えば、輝度値等)の差異に基づいて投写対象物(例えば、スクリーン等)の外形を把握することができる。   According to the present invention, an image processing system or the like can grasp the outer shape of a projection target (for example, a screen or the like) based on a difference in image signal values (for example, a luminance value) based on imaging information.

また、本発明によれば、キャリブレーション画像が投写対象物よりも大きく投写されている場合であっても、画像処理システム等は、複数色キャリブレーション画像を用いることにより、元の画像の形状のまま縮小した第1の単色(例えば、白、白に近いグレー等)の領域を投写対象物上に形成することができる。   Further, according to the present invention, even when the calibration image is projected larger than the projection object, the image processing system or the like uses the multi-color calibration image to restore the shape of the original image. A region of the first single color (for example, white, gray close to white, etc.) that has been reduced can be formed on the projection target.

そして、画像処理システム等は、投写対象物上に形成された第1の単色の単色領域を撮像することにより、画像の歪みを把握することができる。   Then, the image processing system or the like can grasp the distortion of the image by imaging the first monochrome region formed on the projection target.

また、画像処理システム等は、当該歪み補正後の画像の投写位置と、歪み補正前の画像の投写位置との差異に基づき、どの程度画像を調整すればよいかを示す画像歪み補正用情報を生成することができ、画像の歪みを適切に補正することができる。   Also, the image processing system or the like provides image distortion correction information indicating how much the image should be adjusted based on the difference between the projection position of the image after distortion correction and the projection position of the image before distortion correction. And distortion of the image can be corrected appropriately.

また、前記画像処理システム、前記プロジェクタ、前記プログラムおよび前記情報記憶媒体において、前記第1の単色の領域は、画像全体の領域をn分の1に縮小した領域であって、
前記投写領域情報生成手段は、前記部分投写領域をn倍した領域を前記投写領域として検出してもよい。
In the image processing system, the projector, the program, and the information storage medium, the first monochrome area is an area obtained by reducing the entire image area to 1 / n,
The projection area information generation unit may detect an area obtained by multiplying the partial projection area by n as the projection area.

また、前記画像処理方法において、前記第1の単色の領域は、画像全体の領域をn分の1に縮小した領域であって、
前記部分投写領域をn倍した領域を前記投写領域として検出してもよい。
In the image processing method, the first monochrome region is a region obtained by reducing the entire image region to 1 / n,
An area obtained by multiplying the partial projection area by n may be detected as the projection area.

これによれば、画像処理システム等は、より効率的に投写領域を検出することができる。   According to this, the image processing system or the like can detect the projection area more efficiently.

また、前記画像処理システム、前記プロジェクタ、前記プログラムおよび前記情報記憶媒体において、前記補正用情報生成手段は、
前記投写対象領域情報に基づき、前記撮像領域の2次元平面に前記撮像手段の光軸を3次元目として加えた3次元空間における原点と、前記投写対象物の4隅との前記光軸上の相対距離を演算し、
前記投写対象領域情報と、前記相対距離とに基づき、前記投写対象物の4隅の前記3次元空間における座標を演算し、
当該座標に基づき、前記投写対象物の対向しない2辺の長さをそれぞれ演算することにより前記投写対象物の縦横比を示す第1の縦横比を演算し、
当該第1の縦横比と、前記単色キャリブレーション画像、前記複数色キャリブレーション画像または前記画像投写手段の有する投写用パネルの縦横比を示す第2の縦横比と、前記投写対象領域情報とに基づき、歪みのない状態であって、かつ、前記第2の縦横比で、前記画像投写手段が前記投写対象物に投写した場合の画像の4隅の前記撮像領域における座標を演算し、
当該画像の4隅の前記撮像領域における座標と、前記投写領域情報とに基づき、前記画像歪み補正用情報を生成してもよい。
In the image processing system, the projector, the program, and the information storage medium, the correction information generation unit includes:
Based on the projection target area information, on the optical axis of the origin in a three-dimensional space obtained by adding the optical axis of the imaging means as the third dimension to the two-dimensional plane of the imaging area, and the four corners of the projection target Calculate the relative distance,
Based on the projection target area information and the relative distance, the coordinates in the three-dimensional space of the four corners of the projection target are calculated,
Based on the coordinates, the first aspect ratio indicating the aspect ratio of the projection object is calculated by calculating the lengths of two opposite sides of the projection object,
Based on the first aspect ratio, the second aspect ratio indicating the aspect ratio of the projection panel included in the single color calibration image, the multiple color calibration image, or the image projection unit, and the projection target area information. Calculating the coordinates in the imaging region at the four corners of the image when the image projection means projects onto the projection object in the second aspect ratio without distortion,
The image distortion correction information may be generated based on the coordinates in the imaging area at the four corners of the image and the projection area information.

また、前記画像処理方法において、前記投写対象領域情報に基づき、前記撮像領域の2次元平面に前記撮像の光軸を3次元目として加えた3次元空間における原点と、前記投写対象物の4隅との前記光軸上の相対距離を演算し、
前記投写対象領域情報と、前記相対距離とに基づき、前記投写対象物の4隅の前記3次元空間における座標を演算し、
当該座標に基づき、前記投写対象物の対向しない2辺の長さをそれぞれ演算することにより前記投写対象物の縦横比を示す第1の縦横比を演算し、
当該第1の縦横比と、前記単色キャリブレーション画像、前記複数色キャリブレーション画像または前記画像投写の有する投写用パネルの縦横比を示す第2の縦横比と、前記投写対象領域情報とに基づき、歪みのない状態であって、かつ、前記第2の縦横比で、前記投写対象物に投写された場合の画像の4隅の前記撮像領域における座標を演算し、
当該画像の4隅の前記撮像領域における座標と、前記投写領域情報とに基づき、前記画像歪み補正用情報を生成してもよい。
Further, in the image processing method, based on the projection target region information, an origin in a three-dimensional space obtained by adding the optical axis of the imaging unit as a third dimension to a two-dimensional plane of the imaging region, and 4 of the projection target Calculate the relative distance on the optical axis with the corner,
Based on the projection target area information and the relative distance, the coordinates in the three-dimensional space of the four corners of the projection target are calculated,
Based on the coordinates, the first aspect ratio indicating the aspect ratio of the projection object is calculated by calculating the lengths of two opposite sides of the projection object,
Based on the first aspect ratio, the second aspect ratio indicating the aspect ratio of the single color calibration image, the multiple color calibration image, or the projection panel of the image projection unit , and the projection target area information. Calculating coordinates in the imaging region at the four corners of the image when projected onto the projection object in the second aspect ratio without distortion,
The image distortion correction information may be generated based on the coordinates in the imaging area at the four corners of the image and the projection area information.

また、本発明に係る画像処理システムおよびプロジェクタは、キャリブレーション画像を投写対象物に向け投写する画像投写手段と、
前記キャリブレーション画像を撮像して撮像情報を生成する撮像手段と、
前記撮像情報に基づき、前記撮像手段の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成する投写対象領域情報生成手段と、
前記撮像情報に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成する投写領域情報生成手段と、
前記投写対象領域情報と、前記投写領域情報とに基づき、画像歪み補正用情報を生成する補正用情報生成手段と、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正する歪み補正手段と、
を含み、
前記画像投写手段は、前記歪み補正手段によって補正された画像信号に基づき、画像を投写し、
前記補正用情報生成手段は、前記投写対象領域情報に基づき、前記投写対象物の縦横比を示す第1の縦横比を把握し、当該第1の縦横比に応じて所望の縦横比を示す第2の縦横比で画像が表示されるように、前記投写領域情報に基づき、前記画像投写手段の有する投写用パネルにおける投写領域の4隅の座標を示す投写座標系投写領域情報を生成するとともに、当該投写座標系投写領域情報に基づき、前記画像歪み補正用情報を生成することを特徴とする。
An image processing system and a projector according to the present invention include an image projecting unit that projects a calibration image onto a projection target,
Imaging means for capturing the calibration image and generating imaging information;
Projection target area information generating means for generating projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging means based on the imaging information;
Projection area information generating means for generating projection area information indicating the coordinates of the four corners of the projection area in the imaging area based on the imaging information;
Correction information generating means for generating image distortion correction information based on the projection target area information and the projection area information;
Distortion correction means for correcting the image signal based on the image distortion correction information so that the distortion of the image is corrected;
Including
The image projection unit projects an image based on the image signal corrected by the distortion correction unit,
The correction information generating means grasps a first aspect ratio indicating an aspect ratio of the projection target based on the projection target area information, and indicates a first aspect ratio indicating a desired aspect ratio according to the first aspect ratio. Generating projection coordinate system projection area information indicating the coordinates of the four corners of the projection area in the projection panel of the image projection means based on the projection area information so that an image is displayed with an aspect ratio of 2. The image distortion correction information is generated based on the projection coordinate system projection area information.

また、本発明に係るプログラムは、コンピュータにより読み取り可能なプログラムであって、
コンピュータを、
キャリブレーション画像を投写対象物に向け投写する画像投写手段と、
前記キャリブレーション画像を撮像して撮像情報を生成する撮像手段と、
前記撮像情報に基づき、前記撮像手段の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成する投写対象領域情報生成手段と、
前記撮像情報に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成する投写領域情報生成手段と、
前記投写対象領域情報と、前記投写領域情報とに基づき、前記投写対象領域に所望の縦横比で画像が投写されるように画像歪み補正用情報を生成する補正用情報生成手段と、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正する歪み補正手段として機能させ、
前記画像投写手段は、前記歪み補正手段によって補正された画像信号に基づき、画像を投写し、
前記補正用情報生成手段は、前記投写対象領域情報に基づき、前記投写対象物の縦横比を示す第1の縦横比を把握し、当該第1の縦横比に応じて所望の縦横比を示す第2の縦横比で画像が表示されるように、前記投写領域情報に基づき、前記画像投写手段の有する投写用パネルにおける投写領域の4隅の座標を示す投写座標系投写領域情報を生成するとともに、当該投写座標系投写領域情報に基づき、前記画像歪み補正用情報を生成することを特徴とする。
The program according to the present invention is a computer-readable program,
Computer
Image projection means for projecting the calibration image onto the projection object;
Imaging means for capturing the calibration image and generating imaging information;
Projection target area information generating means for generating projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging means based on the imaging information;
Projection area information generating means for generating projection area information indicating the coordinates of the four corners of the projection area in the imaging area based on the imaging information;
Correction information generating means for generating image distortion correction information based on the projection target area information and the projection area information so that an image is projected on the projection target area at a desired aspect ratio;
Based on the image distortion correction information, function as a distortion correction unit that corrects the image signal so that the distortion of the image is corrected,
The image projection unit projects an image based on the image signal corrected by the distortion correction unit,
The correction information generating means grasps a first aspect ratio indicating an aspect ratio of the projection target based on the projection target area information, and indicates a first aspect ratio indicating a desired aspect ratio according to the first aspect ratio. Generating projection coordinate system projection area information indicating the coordinates of the four corners of the projection area in the projection panel of the image projection means based on the projection area information so that an image is displayed with an aspect ratio of 2. The image distortion correction information is generated based on the projection coordinate system projection area information.

また、本発明に係る情報記憶媒体は、コンピュータにより読み取り可能なプログラムを記憶した情報記憶媒体であって、上記プログラムを記憶したことを特徴とする。   An information storage medium according to the present invention is an information storage medium storing a computer-readable program, and stores the program.

また、本発明に係る画像処理方法は、キャリブレーション画像を投写対象物に向け投写し、
前記キャリブレーション画像を撮像して撮像情報を生成し、
前記撮像情報に基づき、前記撮像手段の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成し、
前記撮像情報に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成し、
前記投写領域情報に基づき、前記画像投写手段の有する投写用パネルにおける投写領域の4隅の座標を示す投写座標系投写領域情報を生成し、
前記投写座標系投写領域情報に基づき、前記投写対象物の縦横比を示す第1の縦横比を把握し、
前記第1の縦横比に応じて所望の縦横比を示す第2の縦横比で画像が投写されるように画像歪み補正用情報を生成し、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正し、
補正した画像信号に基づき、画像を投写することを特徴とする。
The image processing method according to the present invention projects a calibration image onto a projection object,
Imaging the calibration image to generate imaging information,
Based on the imaging information, generate projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging means,
Based on the imaging information, generating projection area information indicating the coordinates of the four corners of the projection area in the imaging area,
Based on the projection area information, generating projection coordinate system projection area information indicating the coordinates of the four corners of the projection area in the projection panel of the image projection means,
Based on the projection coordinate system projection area information, grasp the first aspect ratio indicating the aspect ratio of the projection object,
Generating image distortion correction information so that an image is projected at a second aspect ratio indicating a desired aspect ratio in accordance with the first aspect ratio;
Based on the image distortion correction information, correct the image signal so that the image distortion is corrected,
An image is projected based on the corrected image signal.

本発明によれば、画像処理システム等は、投写対象物の形状に合わせるのではなく、画像本来の縦横比で画像が投写されるように画像歪み補正用情報を生成することにより、本来の縦横比で画像を表示することができる。   According to the present invention, the image processing system or the like does not match the shape of the projection target, but generates the image distortion correction information so that the image is projected at the original aspect ratio of the image. An image can be displayed at a ratio.

また、前記画像処理システム、前記プロジェクタ、前記プログラムおよび前記情報記憶媒体において、前記補正用情報生成手段は、前記投写対象領域情報に基づき、前記投写対象物の縦横比を示す第1の縦横比を把握し、当該第1の縦横比に応じて所望の縦横比を示す第2の縦横比で画像が表示されるように、前記投写領域情報に基づき、前記画像投写手段の有する投写用パネルにおける投写領域の4隅の座標を示す投写座標系投写領域情報を生成するとともに、当該投写座標系投写領域情報に基づき、前記画像歪み補正用情報を生成してもよい。   Further, in the image processing system, the projector, the program, and the information storage medium, the correction information generation unit has a first aspect ratio indicating an aspect ratio of the projection target based on the projection target area information. Based on the projection area information, the projection on the projection panel of the image projection unit is grasped so that an image is displayed with a second aspect ratio indicating a desired aspect ratio according to the first aspect ratio. The projection coordinate system projection area information indicating the coordinates of the four corners of the area may be generated, and the image distortion correction information may be generated based on the projection coordinate system projection area information.

また、前記画像処理方法において、前記投写対象領域情報に基づき、前記投写対象物の縦横比を示す第1の縦横比を把握し、
当該第1の縦横比に応じて所望の縦横比を示す第2の縦横比で画像が表示されるように、前記投写領域情報に基づき、投写用パネルにおける投写領域の4隅の座標を示す投写座標系投写領域情報を生成し、
当該投写座標系投写領域情報に基づき、前記画像歪み補正用情報を生成してもよい。
Further, in the image processing method, based on the projection target area information, a first aspect ratio indicating an aspect ratio of the projection target is grasped,
Projection indicating the coordinates of the four corners of the projection area on the projection panel based on the projection area information so that an image is displayed with a second aspect ratio indicating a desired aspect ratio according to the first aspect ratio. Generate coordinate system projection area information,
The image distortion correction information may be generated based on the projection coordinate system projection area information.

これによれば、画像処理システム等は、投写対象物の形状に合わせるのではなく、所望の縦横比で画像が表示されるように画像歪み補正用情報を生成することにより、投写対象物の形状に関わらず、所望の縦横比で画像を表示することができる。   According to this, the image processing system or the like does not match the shape of the projection target object, but generates the image distortion correction information so that the image is displayed with a desired aspect ratio. Regardless, the image can be displayed with a desired aspect ratio.

また、前記画像処理システム、前記プロジェクタ、前記プログラムおよび前記情報記憶媒体において、前記補正用情報生成手段は、
前記投写対象領域情報に基づき、前記撮像領域の2次元平面に前記撮像手段の光軸を3次元目として加えた3次元空間における原点と、前記投写対象物の4隅との前記光軸上の相対距離を演算し、
前記投写対象領域情報と、前記相対距離とに基づき、前記投写対象物の4隅の前記3次元空間における座標を演算し、
当該座標に基づき、前記投写対象物の対向しない2辺の長さをそれぞれ演算することにより前記第1の縦横比を演算してもよい。
In the image processing system, the projector, the program, and the information storage medium, the correction information generation unit includes:
Based on the projection target area information, on the optical axis of the origin in a three-dimensional space obtained by adding the optical axis of the imaging means as the third dimension to the two-dimensional plane of the imaging area, and the four corners of the projection target Calculate the relative distance,
Based on the projection target area information and the relative distance, the coordinates in the three-dimensional space of the four corners of the projection target are calculated,
The first aspect ratio may be calculated by calculating the lengths of two opposite sides of the projection object based on the coordinates.

また、前記画像処理方法において、前記投写対象領域情報に基づき、前記撮像領域の2次元平面に前記撮像の光軸を3次元目として加えた3次元空間における原点と、前記投写対象物の4隅との前記光軸上の相対距離を演算し、
前記投写対象領域情報と、前記相対距離とに基づき、前記投写対象物の4隅の前記3次元空間における座標を演算し、
当該座標に基づき、前記投写対象物の対向しない2辺の長さをそれぞれ演算することにより前記第1の縦横比を演算してもよい。
Further, in the image processing method, based on the projection target region information, an origin in a three-dimensional space obtained by adding the optical axis of the imaging unit as a third dimension to a two-dimensional plane of the imaging region, and 4 of the projection target Calculate the relative distance on the optical axis with the corner,
Based on the projection target area information and the relative distance, the coordinates in the three-dimensional space of the four corners of the projection target are calculated,
The first aspect ratio may be calculated by calculating the lengths of two opposite sides of the projection object based on the coordinates.

これによれば、画像処理システム等は、撮像手段を基準とした3次元空間で画像処理を実行することにより、撮像手段の設置の自由度を向上させることができる。   According to this, the image processing system or the like can improve the degree of freedom of installation of the imaging means by executing image processing in a three-dimensional space with the imaging means as a reference.

また、前記画像処理システム、前記プロジェクタ、前記プログラムおよび前記情報記憶媒体において、前記投写対象領域情報生成手段は、前記撮像領域の中央付近から各画素を放射状に探索するように、前記撮像情報の画像信号値を探索し、探索中の当該画像信号値の差異に基づいて前記投写対象領域を把握して前記投写対象領域情報を生成してもよい。   Further, in the image processing system, the projector, the program, and the information storage medium, the projection target area information generation unit searches the image of the imaging information so as to search each pixel radially from the vicinity of the center of the imaging area. The projection target area information may be generated by searching for a signal value, grasping the projection target area based on a difference between the image signal values being searched.

また、前記画像処理方法において、前記投写対象領域情報を生成する際に、前記撮像領域の中央付近から各画素を放射状に探索するように、前記撮像情報の画像信号値を探索し、探索中の当該画像信号値の差異に基づいて前記投写対象領域を把握して前記投写対象領域情報を生成してもよい。   Further, in the image processing method, when generating the projection target area information, the image signal value of the imaging information is searched so as to search each pixel radially from the vicinity of the center of the imaging area. The projection target area information may be generated by grasping the projection target area based on the difference between the image signal values.

これによれば、画像処理システム等は、撮像領域の中央付近から各画素を放射状に探索するように、撮像情報の画像信号値を探索することにより、ノイズの影響を受けにくく、より正確に投写対象領域を検出することができる。   According to this, an image processing system or the like is less affected by noise and searches more accurately by searching for an image signal value of imaging information so that each pixel is searched radially from the vicinity of the center of the imaging area. The target area can be detected.

以下、本発明を、画像の歪み補正を行うプロジェクタに適用した場合を例に採り、図面を参照しつつ説明する。なお、以下に示す実施形態は、特許請求の範囲に記載された発明の内容を何ら限定するものではない。また、以下の実施形態に示す構成の全てが、特許請求の範囲に記載された発明の解決手段として必須であるとは限らない。   Hereinafter, a case where the present invention is applied to a projector that performs image distortion correction will be described as an example with reference to the drawings. In addition, the embodiment shown below does not limit the content of the invention described in the claim at all. In addition, all of the configurations shown in the following embodiments are not necessarily essential as means for solving the problems described in the claims.

(第1の実施例)
図1は、画像投写時の状態を示す模式図である。
(First embodiment)
FIG. 1 is a schematic diagram showing a state during image projection.

画像処理システムの一種であるプロジェクタ20は、投写対象物の一種であるスクリーン10へ向け画像を投写する。本実施例では、プロジェクタ20は、スクリーン10に正対していない状態となっている。また、プロジェクタ20からの投写光によって形成される投写画像12は、スクリーン10からはみ出している。なお、本実施例では、スクリーン10の裏には壁があり、壁によって投写光が反射されて投写画像12が表示されている。   A projector 20 that is a kind of image processing system projects an image onto a screen 10 that is a kind of projection object. In the present embodiment, the projector 20 is not facing the screen 10. Further, the projected image 12 formed by the projection light from the projector 20 protrudes from the screen 10. In this embodiment, there is a wall behind the screen 10, and the projection image 12 is displayed by reflecting the projection light by the wall.

また、本実施例では、撮像手段の一部であるセンサー60は、投写画像12を含む領域を撮像する。   In the present embodiment, the sensor 60 that is a part of the imaging unit captures an area including the projected image 12.

また、本実施例では、プロジェクタ20は、センサー60による撮像情報に基づき、スクリーン10のアスペクト比(縦横比)を演算する。そして、プロジェクタ20は、当該アスペクト比と、既知である投写画像のアスペクト比に基づき、投写画像12がスクリーン10内に収まり、かつ、投写画像のアスペクト比となるように、画像の歪み補正を行う。   Further, in the present embodiment, the projector 20 calculates the aspect ratio (aspect ratio) of the screen 10 based on the imaging information by the sensor 60. Based on the aspect ratio and the known aspect ratio of the projected image, the projector 20 corrects the distortion of the image so that the projected image 12 is within the screen 10 and has the aspect ratio of the projected image. .

次に、このような機能を実装するためのプロジェクタ20の機能ブロックについて説明する。   Next, functional blocks of the projector 20 for implementing such functions will be described.

図2は、本実施形態の一例に係るプロジェクタ20の機能ブロック図である。   FIG. 2 is a functional block diagram of the projector 20 according to an example of the present embodiment.

プロジェクタ20は、画像信号を入力する信号入力部110と、画像の歪みが補正されるように、入力された画像信号を補正する歪み補正部130と、補正された画像信号を出力する信号出力部160と、画像信号に基づき、画像を投写する画像投写手段の一種である画像投写部190と、キャリブレーション画像情報を生成するキャリブレーション画像情報生成部170とを含んで構成されている。   The projector 20 includes a signal input unit 110 that inputs an image signal, a distortion correction unit 130 that corrects the input image signal so that image distortion is corrected, and a signal output unit that outputs the corrected image signal. 160, an image projecting unit 190 which is a kind of image projecting means for projecting an image based on an image signal, and a calibration image information generating unit 170 for generating calibration image information.

また、プロジェクタ20は、投写画像12を含む領域8を、撮像面を介して撮像して撮像情報を生成する撮像部180と、撮像情報に基づき、センサー60の撮像領域におけるスクリーン10の領域を検出する投写対象領域情報生成手段の一種である投写対象領域情報生成部140と、センサー60の撮像領域における投写画像12の領域を検出する投写領域情報生成部150と、歪み補正用情報を生成する補正用情報生成部120とを含んで構成されている。なお、撮像部180は、センサー60を含む。   In addition, the projector 20 detects the area of the screen 10 in the imaging area of the sensor 60 based on the imaging unit 180 that captures the area 8 including the projection image 12 through the imaging surface and generates imaging information. A projection target area information generation unit 140 that is a kind of projection target area information generation means, a projection area information generation unit 150 that detects the area of the projection image 12 in the imaging area of the sensor 60, and a correction that generates distortion correction information. And a use information generation unit 120. Note that the imaging unit 180 includes a sensor 60.

また、画像投写部190は、空間光変調器192と、空間光変調器192を駆動する駆動部194と、光源196と、レンズ198とを含んで構成されている。   The image projection unit 190 includes a spatial light modulator 192, a drive unit 194 that drives the spatial light modulator 192, a light source 196, and a lens 198.

駆動部194は、信号出力部160からの画像信号に基づき、空間光変調器192を駆動する。そして、画像投写部190は、光源196からの光を、空間光変調器192およびレンズ198を介して投写する。   The drive unit 194 drives the spatial light modulator 192 based on the image signal from the signal output unit 160. Then, the image projection unit 190 projects the light from the light source 196 via the spatial light modulator 192 and the lens 198.

また、上述したプロジェクタ20の各部を実装するためのハードウェアとしては、例えば、以下のものを適用できる。   Further, as hardware for mounting each unit of the projector 20 described above, for example, the following can be applied.

図3は、本実施形態の一例に係るプロジェクタ20のハードウェアブロック図である。   FIG. 3 is a hardware block diagram of the projector 20 according to an example of the present embodiment.

例えば、信号入力部110としては、例えばA/Dコンバーター930等、歪み補正部130としては、例えば画像処理回路970、RAM950、CPU910等、信号出力部160としては、例えばD/Aコンバーター940等、補正用情報生成部120、投写対象領域情報生成部140、投写領域情報生成部150およびキャリブレーション画像情報生成部170としては、例えば画像処理回路970、RAM950等、撮像部180としては、例えばCCDセンサー、CMOSセンサー、RGBセンサー等、空間光変調器192としては、例えば液晶パネル920、液晶パネル920を駆動する液晶ライトバルブ駆動ドライバを記憶するROM960等を用いて実装できる。   For example, the signal input unit 110 may be an A / D converter 930, the distortion correction unit 130 may be an image processing circuit 970, a RAM 950, a CPU 910, or the like, and the signal output unit 160 may be a D / A converter 940, for example. As the correction information generation unit 120, the projection target region information generation unit 140, the projection region information generation unit 150, and the calibration image information generation unit 170, for example, an image processing circuit 970, a RAM 950, etc., and as the imaging unit 180, for example, a CCD sensor As the spatial light modulator 192 such as a CMOS sensor or an RGB sensor, for example, a liquid crystal panel 920, a ROM 960 that stores a liquid crystal light valve driving driver for driving the liquid crystal panel 920, or the like can be used.

なお、これらの各部はシステムバス980を介して相互に情報をやりとりすることが可能である。   Note that these units can exchange information with each other via the system bus 980.

また、これらの各部は、その一部または全部を、回路のようにハードウェア的に実装してもよいし、ドライバのようにソフトウェア的に実装してもよい。   In addition, some or all of these units may be implemented as hardware such as a circuit, or may be implemented as software such as a driver.

さらに、投写対象領域情報生成部140等としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体900からプログラムを読み取って投写対象領域情報生成部140等の機能をコンピュータに実装させてもよい。   Furthermore, the program may be read from an information storage medium 900 that stores a program for causing the computer to function as the projection target area information generation unit 140 or the like, and the functions of the projection target area information generation unit 140 or the like may be implemented in the computer.

このような情報記憶媒体900としては、例えば、CD−ROM、DVD−ROM、ROM、RAM、HDD等を適用でき、そのプログラムの読み取り方式は接触方式であっても、非接触方式であってもよい。   As such an information storage medium 900, for example, a CD-ROM, a DVD-ROM, a ROM, a RAM, an HDD, or the like can be applied, and the program reading method may be a contact method or a non-contact method. Good.

また、情報記憶媒体900に代えて、上述した各機能を実装するためのプログラム等を、伝送路を介してホスト装置等からダウンロードすることによって上述した各機能を実装することも可能である。   Further, in place of the information storage medium 900, the functions described above can be implemented by downloading a program or the like for implementing the functions described above from a host device or the like via a transmission path.

(画像処理の流れの説明)
次に、これらの各部を用いた画像処理の流れについて説明する。
(Description of the flow of image processing)
Next, the flow of image processing using these units will be described.

図4は、本実施形態の一例に係る画像処理の流れを示すフローチャートである。   FIG. 4 is a flowchart showing a flow of image processing according to an example of the present embodiment.

まず、キャリブレーション画像情報生成部170は、全黒(画像全体が黒)の単色のキャリブレーション画像用の画像情報を生成し、信号出力部160は、当該画像情報のデジタル信号を画像投写部190に出力する。   First, the calibration image information generation unit 170 generates image information for an all-black single color calibration image, and the signal output unit 160 outputs a digital signal of the image information to the image projection unit 190. Output to.

画像投写部190は、当該デジタル信号に基づき、スクリーン10へ向け全黒のキャリブレーション画像を投写する(ステップS1)。これにより、スクリーン10には、全黒のキャリブレーション画像が表示される。   The image projection unit 190 projects an all-black calibration image onto the screen 10 based on the digital signal (step S1). As a result, an all-black calibration image is displayed on the screen 10.

撮像部180は、投写画像12を含む領域を、撮像面を介して撮像して第1の撮像情報を生成する(ステップS2)。ここで、撮像情報は、例えば、輝度値、XYZ値等の輝度値を生成可能な画像信号値をセンサー60の画素ごとに示す情報である。なお、ここで、XYZ値とは、国際照明委員会(CIE)によって定められた国際規格で、機器独立色の一種の画像信号値である。   The imaging unit 180 captures an area including the projected image 12 via the imaging surface to generate first imaging information (step S2). Here, the imaging information is information indicating, for each pixel of the sensor 60, an image signal value that can generate a luminance value such as a luminance value or an XYZ value. Here, the XYZ value is an international standard defined by the International Lighting Commission (CIE), and is a kind of image signal value of a device independent color.

図5は、本実施形態の一例に係る撮像領域17を示す模式図である。   FIG. 5 is a schematic diagram illustrating the imaging region 17 according to an example of the present embodiment.

撮像領域17は、センサー60が画像を捉える撮像面に相当する領域であり、センサー60の撮像情報を矩形で模式的に示す領域でもある。撮像領域17としては、具体的には、例えば、CCDセンサーの撮像面の領域等が該当する。   The imaging area 17 is an area corresponding to an imaging surface where the sensor 60 captures an image, and is also an area schematically showing imaging information of the sensor 60 in a rectangle. Specifically, the imaging area 17 corresponds to an area on the imaging surface of a CCD sensor, for example.

本実施例では、センサー60の光軸とレンズ198の光軸が同じ方向に向いており、スクリーン10とプロジェクタ20とが正対していない。このため、図5に示すように、センサー60から見た場合、投写画像12の領域である投写領域13は撮像領域17と同様に矩形で見え、スクリーン10の領域である投写対象領域11は歪んで見える。   In this embodiment, the optical axis of the sensor 60 and the optical axis of the lens 198 are oriented in the same direction, and the screen 10 and the projector 20 are not facing each other. For this reason, as shown in FIG. 5, when viewed from the sensor 60, the projection area 13 that is the area of the projected image 12 looks rectangular like the imaging area 17, and the projection target area 11 that is the area of the screen 10 is distorted. It looks in.

また、本実施例では、投写対象領域情報生成部140は、投写領域13の対角線の交点P0、すなわち、投写領域13の中心P0(必ずしも中心でなくてもよく、中央付近でもよい。)から外側に向かって放射状に輝度値を探索する。そして、投写対象領域情報生成部140は、中心P0からほぼ同じ輝度値が連続している線分P0P1を投写対象領域11の一部として検出する。そして、投写対象領域情報生成部140は、例えば、角度θ分角度を変更して同様の処理を行い、線分P0P2を投写対象領域11の一部として検出する。この線分の距離をLとする。   Further, in the present embodiment, the projection target area information generation unit 140 is outside from the intersection P0 of the diagonal line of the projection area 13, that is, the center P0 of the projection area 13 (not necessarily the center but near the center). Search for luminance values radially toward. Then, the projection target area information generation unit 140 detects a line segment P0P1 in which substantially the same luminance value continues from the center P0 as a part of the projection target area 11. Then, the projection target area information generation unit 140 performs the same processing by changing the angle by the angle θ, for example, and detects the line segment P0P2 as a part of the projection target area 11. Let L be the distance of this line segment.

図6は、角度θと距離Lとの関係を示す模式図である。   FIG. 6 is a schematic diagram showing the relationship between the angle θ and the distance L.

例えば、角度θ(ただし、θは0〜2π)の変化に伴い、距離Lは図6に示すように変化し、角度θ1、θ2、θ3、θ4のそれぞれにおいて、4つの頂点を形成する。   For example, as the angle θ (where θ is 0 to 2π) changes, the distance L changes as shown in FIG. 6 to form four vertices at each of the angles θ1, θ2, θ3, and θ4.

投写対象領域情報生成部140は、撮像領域17の中心P0のセンサー座標(撮像領域17における座標)と、角度θ1、θ2、θ3、θ4の場合の距離L1、L2、L3、L4から投写対象領域11の4隅ABCDのそれぞれのセンサー座標を演算する。   The projection target area information generation unit 140 calculates the projection target area from the sensor coordinates of the center P0 of the imaging area 17 (coordinates in the imaging area 17) and the distances L1, L2, L3, and L4 in the case of angles θ1, θ2, θ3, and θ4. The sensor coordinates of each of the four four corner ABCDs are calculated.

投写対象領域情報生成部140は、この4隅のセンサー座標を示す投写対象領域情報を生成し(ステップS3)、当該投写対象領域情報を補正用情報生成部120に送る。   The projection target area information generation unit 140 generates projection target area information indicating the sensor coordinates of the four corners (step S3), and sends the projection target area information to the correction information generation unit 120.

また、キャリブレーション画像情報生成部170は、例えば中央部分に元の画像を4分の1等の任意の倍率で縮小した白色画像(必ずしも白色でなくてもよく、白色に近いグレー等の単色でもよい。)を含み、当該白色画像の外側が黒色画像(必ずしも黒色でなくてもよく、黒色に近いグレー等でもよい。)の複数色キャリブレーション画像用のキャリブレーション情報を生成する。画像投写部190は、複数色キャリブレーション画像を投写する(ステップS4)。   In addition, the calibration image information generation unit 170 is a white image obtained by reducing the original image at an arbitrary magnification such as a quarter (for example, not necessarily white, but a single color such as gray near white). Calibration information for a multi-color calibration image of a black image (not necessarily black, gray close to black, etc.) may be generated. The image projection unit 190 projects a multi-color calibration image (step S4).

撮像部180は、スクリーン10に投写された複数色キャリブレーション画像の投写画像12を含む領域8を撮像し、第2の撮像情報を生成する(ステップS5)。   The imaging unit 180 captures the region 8 including the projection image 12 of the multi-color calibration image projected on the screen 10, and generates second imaging information (step S5).

この第2の撮像情報の場合、図5に示すように、投写対象領域11内に白色画像の相当する白領域15が形成される。   In the case of the second imaging information, as shown in FIG. 5, a white area 15 corresponding to a white image is formed in the projection target area 11.

投写領域情報生成部150は、白領域15の各画素の輝度値と投写対象領域11の各画素の輝度値とを比較することにより、一定の輝度比となる白領域15を検出する(ステップS6)。   The projection area information generation unit 150 detects the white area 15 having a constant luminance ratio by comparing the luminance value of each pixel in the white area 15 with the luminance value of each pixel in the projection target area 11 (step S6). ).

そして、投写領域情報生成部150は、白領域15の4隅のセンサー座標を、縮小したときの逆の倍率であるn倍することにより、投写領域13のセンサー座標を求める。   Then, the projection area information generation unit 150 obtains the sensor coordinates of the projection area 13 by multiplying the sensor coordinates of the four corners of the white area 15 by n, which is the reverse magnification when the reduction is performed.

投写領域情報生成部150は、投写領域13のセンサー座標を示す投写領域情報を生成し(ステップS7)、投写領域情報を補正用情報生成部120に送る。   The projection area information generation unit 150 generates projection area information indicating the sensor coordinates of the projection area 13 (step S7), and sends the projection area information to the correction information generation unit 120.

補正用情報生成部120は、スクリーン10とセンサー60とのセンサー60の光軸上の相対距離を導出する(ステップS8)。   The correction information generation unit 120 derives the relative distance between the screen 10 and the sensor 60 on the optical axis of the sensor 60 (step S8).

より具体的には、例えば、投写対象領域11のセンサー座標をA(Ax,Ay)、B(Bx,By)、C(Cx,Cy)、D(Dx,Dy)、センサー60の撮像領域17の2次元平面XYにセンサー60の光軸を3次元目Zとして加えたXYZ3次元空間における原点とするXYZ3次元空間において、スクリーン10の4隅の座標をA’(s*Ax,s*Ay,s*Pz)、B’(t*Bx,t*By,t*Pz)、C’(u*Cx,u*Cy,u*Pz)、D’(v*Dx,v*Dy,v*Pz)と仮定する。なお、ここで、Pzは、センサー座標系の原点から撮像領域17として想定する仮想撮像面までのZ軸上の距離である。また、投写対象領域情報生成部140は、センサー60の水平画角θcと水平解像度VRの関係に基づき、Pz=(VR/2)/tan(θc/2)を演算することにより、Pzを求めることができる。   More specifically, for example, the sensor coordinates of the projection target area 11 are A (Ax, Ay), B (Bx, By), C (Cx, Cy), D (Dx, Dy), and the imaging area 17 of the sensor 60. In the XYZ three-dimensional space with the origin in the XYZ three-dimensional space obtained by adding the optical axis of the sensor 60 as the third dimension Z to the two-dimensional plane XY, the coordinates of the four corners of the screen 10 are represented by A ′ (s * Ax, s * Ay, s * Pz), B '(t * Bx, t * By, t * Pz), C' (u * Cx, u * Cy, u * Pz), D '(v * Dx, v * Dy, v * Pz). Here, Pz is the distance on the Z-axis from the origin of the sensor coordinate system to the virtual imaging plane assumed as the imaging area 17. In addition, the projection target area information generation unit 140 calculates Pz = (VR / 2) / tan (θc / 2) based on the relationship between the horizontal angle of view θc of the sensor 60 and the horizontal resolution VR, thereby obtaining Pz. be able to.

図7は、本実施形態の一例に係るXYZ3次元空間の模式図である。   FIG. 7 is a schematic diagram of an XYZ three-dimensional space according to an example of the present embodiment.

スクリーン10が長方形(正方形でもよい。)であることは既知であるため、線分A’B’=線分D’C’の条件が成立する。この条件が成立することを前提とした場合、上記のt、u、vは以下のようになる。   Since it is known that the screen 10 is rectangular (may be square), the condition of line segment A′B ′ = line segment D′ C ′ is satisfied. Assuming that this condition is satisfied, the above t, u, and v are as follows.

t=s*((Dy-Cy)*(Ax-Dx)-(Dx-Cx)*(Ay-Dy))/((Dy-Cy)*(Bx-Dx)-(Dx-Cx)*(By-Dy))
u=s*((By-Dy)*(Ax-Dx)-(Bx-Dx)*(Ay-Dy))/((By-Dy)*(Dx-Cx)-(Bx-Dx)*(Dy-Cy))
v=s-t+u
また、ここで、sを例えば1(1以外でもよい。)と仮定することにより、原点からスクリーン10の4隅ABCDまでの光軸上(Z軸方向成分)の相対距離を得ることができる。
t = s * ((Dy-Cy) * (Ax-Dx)-(Dx-Cx) * (Ay-Dy)) / ((Dy-Cy) * (Bx-Dx)-(Dx-Cx) * ( By-Dy))
u = s * ((By-Dy) * (Ax-Dx)-(Bx-Dx) * (Ay-Dy)) / ((By-Dy) * (Dx-Cx)-(Bx-Dx) * ( Dy-Cy))
v = s-t + u
Here, assuming that s is, for example, 1 (other than 1), a relative distance on the optical axis (Z-axis direction component) from the origin to the four corners ABCD of the screen 10 can be obtained.

そして、補正用情報生成部120は、スクリーン10の対向しない2辺の長さを示す|A’B’|と|B’C’|を比較することにより、スクリーン10のアスペクト比を演算する(ステップS9)。   Then, the correction information generation unit 120 calculates the aspect ratio of the screen 10 by comparing | A′B ′ | and | B′C ′ | indicating the lengths of the two opposite sides of the screen 10 ( Step S9).

さらに、補正用情報生成部120は、補正後の投写領域を導出する(ステップS10)。   Further, the correction information generation unit 120 derives a corrected projection area (step S10).

図8は、本実施形態の一例に係る補正後の投写領域19の模式図である。   FIG. 8 is a schematic diagram of the projection region 19 after correction according to an example of the present embodiment.

例えば、投写画像12のアスペクト比が4:3であり、スクリーン10のアスペクト比が4:2である場合、撮像領域17において、投写対象領域11の左右端から6分の1ずつ内側に入った領域が補正後の投写領域19となる。なお、投写画像12のアスペクト比は4:3、16:9のように一般的に既知である。   For example, when the aspect ratio of the projected image 12 is 4: 3 and the aspect ratio of the screen 10 is 4: 2, in the imaging area 17, the inside of the projection target area 11 is one sixth from the left and right ends. The area becomes the corrected projection area 19. The aspect ratio of the projected image 12 is generally known as 4: 3, 16: 9.

そして、補正用情報生成部120は、撮像領域17における補正後の投写領域19の座標を、空間光変調器192の画像処理用の座標に変換する(ステップS11)。   Then, the correction information generation unit 120 converts the corrected coordinates of the projection area 19 in the imaging area 17 into image processing coordinates of the spatial light modulator 192 (step S11).

さらに、補正用情報生成部120は、例えば、歪み補正後の空間光変調器192の画像処理用の座標と、歪み補正前の空間光変調器192の画像処理量の座標との差分値を演算し、当該差分値を画像歪み補正用情報として生成する。   Furthermore, the correction information generation unit 120 calculates, for example, a difference value between the image processing coordinates of the spatial light modulator 192 after distortion correction and the image processing amount coordinates of the spatial light modulator 192 before distortion correction. Then, the difference value is generated as image distortion correction information.

そして、歪み補正部130は、当該画像歪み補正用情報に基づき、画像の歪みを補正するように画像信号を補正する。   Then, the distortion correction unit 130 corrects the image signal so as to correct image distortion based on the image distortion correction information.

これにより、画像投写部190は、画像の歪みが補正された画像を投写することができる。   Thereby, the image projection unit 190 can project an image in which the distortion of the image is corrected.

以上のように、本実施形態によれば、撮像情報に基づく画像信号値(例えば、輝度値等)の差異に基づいて投写対象物(例えば、スクリーン10等)の外形を把握することができる。   As described above, according to the present embodiment, the outer shape of the projection target (for example, the screen 10) can be grasped based on the difference in the image signal value (for example, the luminance value) based on the imaging information.

また、本実施形態によれば、キャリブレーション画像12がスクリーン10よりも大きく投写されている場合であっても、プロジェクタ20は、複数色キャリブレーション画像を用いることにより、元の画像の形状のまま縮小した単色(例えば、白、白に近いグレー等)の領域をスクリーン10上に形成することができる。   Further, according to the present embodiment, even when the calibration image 12 is projected larger than the screen 10, the projector 20 can maintain the shape of the original image by using the multi-color calibration image. A reduced monochromatic area (for example, white, gray close to white) can be formed on the screen 10.

そして、プロジェクタ20は、投写対象物上に形成された単色領域を撮像することにより、画像の歪みを把握することができる。   And the projector 20 can grasp | ascertain the distortion of an image by imaging the monochrome area | region formed on the projection target object.

さらに、画像処理システム等は、撮像によって把握した投写対象物の縦横比と、キャリブレーション画像の縦横比とに基づき、歪み補正後の画像の投写位置を決定することができる。また、画像処理システム等は、当該歪み補正後の画像の投写位置と、歪み補正前の画像の投写位置との差異に基づき、どの程度画像を調整すればよいかを示す画像歪み補正用情報を生成することができ、画像の歪みを適切に補正することができる。   Furthermore, the image processing system or the like can determine the projection position of the image after distortion correction based on the aspect ratio of the projection target grasped by imaging and the aspect ratio of the calibration image. Also, the image processing system or the like provides image distortion correction information indicating how much the image should be adjusted based on the difference between the projection position of the image after distortion correction and the projection position of the image before distortion correction. And distortion of the image can be corrected appropriately.

また、本実施形態によれば、プロジェクタ20は、スクリーン10の形状に合わせるのではなく、画像本来の縦横比で画像が投写されるように画像歪み補正用情報を生成することにより、本来の縦横比で画像を投写することができる。   In addition, according to the present embodiment, the projector 20 does not match the shape of the screen 10, but generates image distortion correction information so that the image is projected with the original aspect ratio of the image, whereby the original aspect ratio is obtained. An image can be projected at a ratio.

したがって、本実施形態によれば、プロジェクタ20は、プロジェクタ20の使用時に発生する縦方向および横方向の投写された画像の歪みを自動的かつ正確なアスペクト比で補正することができる。特に、プロジェクタ20は、スクリーン10の枠を利用した補正を行うことにより、画像の縦横の歪み検出角度の制約を受けずに補正することができる。   Therefore, according to the present embodiment, the projector 20 can automatically and accurately correct the distortion of the projected image in the vertical and horizontal directions that occurs when the projector 20 is used. In particular, the projector 20 can perform correction using the frame of the screen 10 without being restricted by the distortion detection angle in the vertical and horizontal directions of the image.

さらに、補正後の投写領域の直線成分がスクリーン10の枠と平行になるため、プロジェクタ20が平面に対して傾いて設置されているような場合であっても、プロジェクタ20は、視覚的に見やすい画像をスクリーン10上で表示することができる。   Further, since the linear component of the projection area after correction is parallel to the frame of the screen 10, the projector 20 is visually easy to see even when the projector 20 is installed inclined with respect to a plane. Images can be displayed on the screen 10.

また、プロジェクタ20は、投写対象領域11を検出する際に中心から外側に向かって輝度値を比較することにより、スクリーン10上の障害物の影響を受けにくく、より正確に投写対象領域11を検出することができる。   Further, when the projector 20 detects the projection target area 11, the projector 20 compares the luminance value from the center to the outside, thereby being less affected by an obstacle on the screen 10 and more accurately detecting the projection target area 11. can do.

(第1の実施例の変形例)
なお、本発明の適用は上述した実施例に限定されない。
(Modification of the first embodiment)
In addition, application of this invention is not limited to the Example mentioned above.

例えば、上述した実施例では、プロジェクタ20は、センサー60の撮像領域17の座標を2次元で取り扱い、変数sを1であると仮定して処理を行ったが、センサー60の座標を3次元で取り扱い、変数sを実際のセンサー60に適合した値に設定してもよい。   For example, in the above-described embodiment, the projector 20 handles the coordinates of the imaging region 17 of the sensor 60 in two dimensions and performs the processing assuming that the variable s is 1. However, the projector 60 coordinates the coordinates of the sensor 60 in three dimensions. Handling, the variable s may be set to a value suitable for the actual sensor 60.

図9は、本実施形態の一例に係るセンサー60の撮像平面の模式図である。   FIG. 9 is a schematic diagram of an imaging plane of the sensor 60 according to an example of the present embodiment.

例えば、センサー60の水平解像度がWでセンサー60の水平画角がθhの場合、上述した変数Pz=(W/2)/tan(θh/2)である。   For example, when the horizontal resolution of the sensor 60 is W and the horizontal angle of view of the sensor 60 is θh, the above-described variable Pz = (W / 2) / tan (θh / 2).

そして、補正用情報生成部120は、スクリーン10の3次元座標A’B’C’D’を、センサー3次元座標系(xc,yc,zc)からプロジェクタ3次元座標系(xp,yp,zp)に変換する。より具体的には、補正用情報生成部120は、例えば、4行4列の行列を用い、(xc,yc,zc,1)を(xp,yp,zp,1)に変換してもよい。また、この行列中のパラメータとしては、センサー60とプロジェクタ20の位置関係および角度関係により決定される。   Then, the correction information generation unit 120 converts the three-dimensional coordinates A′B′C′D ′ of the screen 10 from the sensor three-dimensional coordinate system (xc, yc, zc) to the projector three-dimensional coordinate system (xp, yp, zp). ). More specifically, the correction information generation unit 120 may convert (xc, yc, zc, 1) to (xp, yp, zp, 1) using, for example, a 4 × 4 matrix. . The parameters in this matrix are determined by the positional relationship and angular relationship between the sensor 60 and the projector 20.

そして、補正用情報生成部120は、プロジェクタ3次元座標系のスクリーン10の4隅の座標であるa(ax,ay,az)〜d(dx,dy,dz)のうち3点を用いてスクリーン10の法線ベクトルN(Nx,Ny,Nz)を演算する。   Then, the correction information generation unit 120 uses three points among a (ax, ay, az) to d (dx, dy, dz) that are the coordinates of the four corners of the screen 10 of the projector three-dimensional coordinate system. Ten normal vectors N (Nx, Ny, Nz) are calculated.

例えば、a、cおよびdの3点を用いて演算を行う場合、Nx=(dy−cy)*(az−dz)−(dz−cz)*(ay−dy)、Ny=(dz−cz)*(ax−dx)−(dx−cx)*(az−dz)、Zn=(dx−cx)*(ay−dy)−(dy−cy)*(ax−dx)である。   For example, when calculation is performed using three points a, c, and d, Nx = (dy−cy) * (az−dz) − (dz−cz) * (ay−dy), Ny = (dz−cz) ) * (Ax-dx)-(dx-cx) * (az-dz), Zn = (dx-cx) * (ay-dy)-(dy-cy) * (ax-dx).

この法線ベクトルNと、ベクトル(0,0,1)の成す角度(水平θx,垂直θy)がスクリーン10とプロジェクタ20の投写光の光軸の成す角度に相当するため、補正用情報生成部120は、θxおよびθyを用いて補正後の投写領域の4隅の座標を2次元ルックアップテーブルから検索する。   Since the angle (horizontal θx, vertical θy) formed by the normal vector N and the vector (0, 0, 1) corresponds to the angle formed by the optical axis of the projection light of the screen 10 and the projector 20, the correction information generation unit 120 retrieves the coordinates of the four corners of the projection area after correction from the two-dimensional lookup table using θx and θy.

図10は、本実施形態の一例に係る補正後の投写領域の4隅の座標を示す模式図であり、図11は、本実施形態の一例に係る補正後の投写領域の4隅の座標を示す2次元ルックアップテーブルである。   FIG. 10 is a schematic diagram illustrating the coordinates of the four corners of the corrected projection area according to an example of the present embodiment. FIG. 11 illustrates the coordinates of the four corners of the corrected projection area according to the example of the present embodiment. It is a two-dimensional lookup table shown.

図11に示すように、上記2次元ルックアップテーブルでは、θx、θyの値と、補正後の投写領域の4隅の座標EFGHそれぞれのxy座標とが関連づけられている。   As shown in FIG. 11, in the two-dimensional lookup table, the values of θx and θy are associated with the xy coordinates of the four corner coordinates EFGH of the projection area after correction.

補正用情報生成部120は、図11に示す2次元ルックアップテーブルを用いて座標EFGHそれぞれのxy座標を用いて画像歪み補正用情報を生成し、当該画像歪み補正用情報を歪み補正部130に送る。   The correction information generation unit 120 generates image distortion correction information using the xy coordinates of the coordinates EFGH using the two-dimensional lookup table illustrated in FIG. 11, and supplies the image distortion correction information to the distortion correction unit 130. send.

このような手法によってもプロジェクタ20は、スクリーン10の4隅の座標に基づいて画像歪み補正を行うことができる。   Also by such a method, the projector 20 can perform image distortion correction based on the coordinates of the four corners of the screen 10.

(第2の実施例)
次に、所定のアスペクト比で画像を投写するためのプロジェクタ20について説明する。
(Second embodiment)
Next, the projector 20 for projecting an image with a predetermined aspect ratio will be described.

例えば、図1に示すように、投写画像12の一部がスクリーン10の外部に投写されている場合であっても、投写画像12を9等分してその中央の領域である中央領域を基準とすることにより、プロジェクタ20は、スクリーン10内に投写画像の中央領域を捉えることができる。   For example, as shown in FIG. 1, even when a part of the projected image 12 is projected outside the screen 10, the projected image 12 is divided into nine equal parts, and the central area that is the central area is used as a reference. By doing so, the projector 20 can capture the central area of the projected image in the screen 10.

例えば、プロジェクタ20は、全部黒の第1のキャリブレーション画像の各画素と、中央領域が白でその周辺の8つの周辺領域が黒である第2のキャリブレーション画像の各画素とを比較することにより、中央領域のセンサー60の撮像領域17における位置を把握することができる。   For example, the projector 20 compares each pixel of the first calibration image that is all black with each pixel of the second calibration image that is white in the central area and black in the eight peripheral areas around it. Thus, the position of the sensor 60 in the central region in the imaging region 17 can be grasped.

図12は、本実施形態の一例における撮像領域17を示す模式図である。また、図13は、本実施形態の一例に係るスクリーン10を、センサー60を原点として透視投影した場合の模式図である。   FIG. 12 is a schematic diagram illustrating the imaging region 17 in an example of the present embodiment. FIG. 13 is a schematic diagram when the screen 10 according to an example of the present embodiment is perspective-projected with the sensor 60 as an origin.

この場合、センサー60は、撮像領域17における投写対象領域11内に中央領域15を捉えることができる。   In this case, the sensor 60 can capture the central region 15 in the projection target region 11 in the imaging region 17.

例えば、センサー60の撮像領域17の中心を原点とするセンサー座標系を仮定する。また、センサー座標系においては、撮像領域17の横方向をx軸、撮像領域17の縦方向をy軸、撮像領域17の法線方向をz軸と仮定する。   For example, a sensor coordinate system with the center of the imaging region 17 of the sensor 60 as the origin is assumed. In the sensor coordinate system, it is assumed that the horizontal direction of the imaging region 17 is the x axis, the vertical direction of the imaging region 17 is the y axis, and the normal direction of the imaging region 17 is the z axis.

投写対象領域情報生成部140は、センサー座標系における投写対象領域11の座標を示す投写対象領域情報を生成する。また、投写領域情報生成部150は、センサー座標系における投写領域の座標を示す投写領域情報を生成する。   The projection target area information generation unit 140 generates projection target area information indicating the coordinates of the projection target area 11 in the sensor coordinate system. In addition, the projection area information generation unit 150 generates projection area information indicating the coordinates of the projection area in the sensor coordinate system.

撮像領域17における投写対象領域11の4隅の座標をそれぞれE(Ex,Ey)、F(Fx,Fy)、G(Gx,Gy)、H(Hx,Hy)と仮定する。これらの2次元座標は、3次元空間で実在するスクリーン10の4頂点E'F'G'H'をセンサー60の原点Oの法線方向にある仮想撮像面z=Pzに透視投影した座標に相当する。なお、ここで原点Oは、撮像領域17の中心点である。   Assume that the coordinates of the four corners of the projection target region 11 in the imaging region 17 are E (Ex, Ey), F (Fx, Fy), G (Gx, Gy), and H (Hx, Hy), respectively. These two-dimensional coordinates are obtained by perspectively projecting the four vertices E′F′G′H ′ of the screen 10 actually existing in the three-dimensional space onto the virtual imaging plane z = Pz in the normal direction of the origin O of the sensor 60. Equivalent to. Here, the origin O is the center point of the imaging region 17.

よって、仮想撮像面に透視投影されたスクリーン10の4頂点のセンサー3次元座標は、z軸成分が等しいE(Ex,Ey,Pz)、F(Fx,Fy,Pz)、G(Gx,Gy,Pz)、H(Hx,Hy,Pz)と表現できる。ここで、センサー60の水平画角θcと水平解像度VRの関係から投写対象領域情報生成部140は、Pz=(VR/2)/tan(θc/2)を演算することにより、Pzを求めることができる。   Therefore, the sensor three-dimensional coordinates of the four vertices of the screen 10 projected on the virtual imaging surface are E (Ex, Ey, Pz), F (Fx, Fy, Pz), G (Gx, Gy) having the same z-axis component. , Pz) and H (Hx, Hy, Pz). Here, the projection target area information generation unit 140 calculates Pz = (VR / 2) / tan (θc / 2) by calculating Pz = (VR / 2) / tan (θc / 2) from the relationship between the horizontal angle of view θc of the sensor 60 and the horizontal resolution VR. Can do.

また、実在のスクリーン10の4頂点は、センサー60の原点と頂点EFGHを結ぶ先に存在することからs*E(Ex,Ey,Pz)、t*F(Fx,Fy,Pz)、u*G(Gx,Gy,Pz)、v*H(Hx,Hy,Pz)と表現できる。なお、s、t、u、vは実数である。   In addition, since the four vertices of the actual screen 10 exist at the destination connecting the origin of the sensor 60 and the vertex EFGH, s * E (Ex, Ey, Pz), t * F (Fx, Fy, Pz), u * It can be expressed as G (Gx, Gy, Pz), v * H (Hx, Hy, Pz). Note that s, t, u, and v are real numbers.

ここで、実在のスクリーン10は、長方形であるため、辺E'F'と辺G'H'、辺E'H'と辺F'G'のそれぞれが平行であり、かつ、長さが等しいという条件が成立する。投写対象領域情報生成部140は、この条件に基づいてs、t、u、vについて解くことにより、センサー60の3次元座標系におけるスクリーン10の4頂点の座標を求めることができ、補正用情報生成部120は、当該座標に基づき、スクリーン10のアスペクト比を求めることができる。   Here, since the actual screen 10 is rectangular, the sides E'F 'and G'H', the sides E'H 'and F'G' are parallel, and the lengths are equal. The condition is established. The projection target area information generation unit 140 can obtain the coordinates of the four vertices of the screen 10 in the three-dimensional coordinate system of the sensor 60 by solving for s, t, u, and v based on this condition. The generation unit 120 can obtain the aspect ratio of the screen 10 based on the coordinates.

まず、上記前提からE'F'=(t*Fx-s*Ex,t*Fy-s*Ey,t*Pz-s*Pz)であり、H'G'=(u*Gx-v*Hx,u*Gy-v*Hy,u*Pz-v*Pz)である。   First, from the above assumption, E'F '= (t * Fx-s * Ex, t * Fy-s * Ey, t * Pz-s * Pz) and H'G' = (u * Gx-v * Hx, u * Gy-v * Hy, u * Pz-v * Pz).

また、t*Fx-s*Ex=u*Gx-v*Hx、t*Fy-s*Ey,u*Gy-v*Hy、t*Pz-s*Pz=u*Pz-v*Pzである。これからt*Fx-u*Gx+v*Hx=s*Ex・・・(1)、t*Fy-u*Gy+v*Hy=s*Ey・・・(2)、t*Pz-u*Pz+v*Pz=s*Pz・・・(3)の式が成立する。   And t * Fx-s * Ex = u * Gx-v * Hx, t * Fy-s * Ey, u * Gy-v * Hy, t * Pz-s * Pz = u * Pz-v * Pz is there. From now on t * Fx-u * Gx + v * Hx = s * Ex (1), t * Fy-u * Gy + v * Hy = s * Ey (2), t * Pz-u * Pz + v * Pz = s * Pz (3) is established.

また、(3)式をPzで割ることにより、t-u+v=s・・・(4)である。   Further, by dividing the equation (3) by Pz, t−u + v = s (4).

(1)式から(4)式にHxを掛けた値を引くことにより、(Fx-Hx)*t+(Hx-Gx)*u=(Ex-Hx)*s・・・(5)である。   (Fx−Hx) * t + (Hx−Gx) * u = (Ex−Hx) * s (5) by subtracting the value obtained by multiplying the equation (4) by Hx from the equation (1). .

また、(2)式から(4)式にHyを掛けた値を引くことにより、(Fy-Hy)*t+(Hy-Gy)*u=(Ey-Hy)*s・・・(6)である。   Further, by subtracting the value obtained by multiplying the expression (2) by the expression (4) by Hy, (Fy−Hy) * t + (Hy−Gy) * u = (Ey−Hy) * s (6) It is.

(5)式と(6)式において、a=(Fx-Hx)、b=(Hx-Gx)、c=(Ex-Hx)、d=(Fy-Hy)、e=(Hy-Gy)、f=(Ey-Hy)と仮定する。この場合、(5)式はa*t+b*u=c*sと表現でき、(6)式はd*t+e*u=f*sと表現できる。   In Equations (5) and (6), a = (Fx-Hx), b = (Hx-Gx), c = (Ex-Hx), d = (Fy-Hy), e = (Hy-Gy) , F = (Ey-Hy). In this case, Expression (5) can be expressed as a * t + b * u = c * s, and Expression (6) can be expressed as d * t + e * u = f * s.

この方程式を解くことにより、t=s*(e*c-b*f)/(e*a-b*d)であり、u=s*(d*c-a*f)/(d*b-a*e)となる。すなわち、tおよびuをsで表現することができる。ここで、奥行き情報を示す変数sを変化させた場合のスクリーン10の位置について説明する。   By solving this equation, t = s * (e * cb * f) / (e * ab * d) and u = s * (d * ca * f) / (d * ba * e) . That is, t and u can be expressed by s. Here, the position of the screen 10 when the variable s indicating the depth information is changed will be described.

図14は、本実施形態の一例におけるsを変化させた場合の模式図である。   FIG. 14 is a schematic diagram when s is changed in an example of the present embodiment.

図14に示すように、sを変化させた場合であっても、スクリーン10の形状は相似形であるため、アスペクト比は不変である。よって、s=1と仮定することにより、アスペクト比を演算することができる。この場合、s=1、t=(e*c-b*f)/(e*a-b*d)、u=(d*c-a*f)/(d*b-a*e)、v=1-t*uと表現できる。   As shown in FIG. 14, even when s is changed, the shape of the screen 10 is similar and the aspect ratio remains unchanged. Therefore, the aspect ratio can be calculated by assuming that s = 1. In this case, s = 1, t = (e * cb * f) / (e * ab * d), u = (d * ca * f) / (d * ba * e), v = 1-t * u Can be expressed as

このようにして、補正用情報生成部120は、投写対象領域情報生成部140からの投写対象領域情報に基づき、実在のスクリーン10の4頂点の3次元座標を用いてアスペクト比を演算する。ここで、アスペクト比は、対象領域の縦の辺の長さ/対象領域の横の辺の長さであるものとする。例えば、横の長さ:縦の長さ=4:3である場合、アスペクト比は3/4=0.75である。ここでは、投写画像12のアスペクト比が0.75になるように補正することを想定する。   In this way, the correction information generation unit 120 calculates the aspect ratio using the three-dimensional coordinates of the four vertices of the actual screen 10 based on the projection target region information from the projection target region information generation unit 140. Here, the aspect ratio is assumed to be the length of the vertical side of the target area / the length of the horizontal side of the target area. For example, when the horizontal length: the vertical length = 4: 3, the aspect ratio is 3/4 = 0.75. Here, it is assumed that correction is performed so that the aspect ratio of the projected image 12 is 0.75.

図15は、本実施形態の一例に係るスクリーン10と補正後の投写領域との関係を示す図であり、図15(A)は、縦より横が長い場合のスクリーン10を示す図であり、図15(B)は、図15(A)のスクリーン10における補正後の投写領域を示す図である。また、図16は、本実施形態の一例に係るスクリーン10と補正後の投写領域との関係を示す図であり、図16(A)は、縦より横が短い場合のスクリーン10を示す図であり、図16(B)は、図16(A)のスクリーン10における補正後の投写領域を示す図である。   FIG. 15 is a diagram illustrating a relationship between the screen 10 according to an example of the present embodiment and the projection region after correction, and FIG. 15A is a diagram illustrating the screen 10 when the horizontal is longer than the vertical, FIG. 15B is a diagram showing a corrected projection area on the screen 10 of FIG. FIG. 16 is a diagram illustrating a relationship between the screen 10 according to an example of the present embodiment and the projection region after correction, and FIG. 16A is a diagram illustrating the screen 10 when the horizontal is shorter than the vertical. FIG. 16B is a diagram showing a corrected projection area on the screen 10 of FIG.

スクリーン10のアスペクト比が0.75とほぼ等しい場合(0.75に一致しなくても許容範囲内であればよい。)、補正用情報生成部120は、投写画像12の形状をスクリーン10の形状に一致させるように補正用情報を生成する。説明を簡単にするため、本実施例では、補正用情報生成部120は、アスペクト比=0.75の場合は投写画像12の形状をスクリーン10の形状に一致させるように補正用情報を生成するもの仮定する。   When the aspect ratio of the screen 10 is substantially equal to 0.75 (it is acceptable if it does not match 0.75, the correction information generation unit 120 matches the shape of the projected image 12 with the shape of the screen 10). The correction information is generated as follows. In order to simplify the description, in this embodiment, it is assumed that the correction information generation unit 120 generates correction information so that the shape of the projected image 12 matches the shape of the screen 10 when the aspect ratio is 0.75. To do.

また、図15(A)に示すように、アスペクト比<0.75の場合、すなわち、スクリーン10が横長の場合、補正用情報生成部120は、図15(B)に示すように、スクリーン10の左右に余白を有する領域に補正後の投写領域A'B'C'D'が形成されるように補正用情報を生成する。   Further, as shown in FIG. 15A, when the aspect ratio is <0.75, that is, when the screen 10 is horizontally long, the correction information generation unit 120 performs the right and left of the screen 10 as shown in FIG. The correction information is generated so that the corrected projection area A′B′C′D ′ is formed in the area having the margin.

アスペクト比Sa<0.75の場合、A'はE'H'をm:nに分割する点であることからA'=(n*E'+m*H')/(m+n)である。なお、ここで、m+n=1であるものと仮定する。   When the aspect ratio Sa <0.75, A ′ is a point that divides E′H ′ into m: n, and therefore A ′ = (n * E ′ + m * H ′) / (m + n). Here, it is assumed that m + n = 1.

また、スクリーン10の横:縦=sa:1であることから補正後の投写領域のアスペクト比を0.75に維持するためには、m=(1-4*Sa/3)/2,n=1-(1-4*Sa/3)/2にする必要がある。投写領域情報生成部150は、A'以外のB'C'D'も同様に演算する。   Further, since the horizontal of the screen 10: vertical = sa: 1, in order to maintain the corrected projection area aspect ratio at 0.75, m = (1−4 * Sa / 3) / 2, n = 1 -(1-4 * Sa / 3) / 2 is required. The projection area information generation unit 150 similarly calculates B′C′D ′ other than A ′.

また、図16(A)に示すように、アスペクト比>0.75の場合、すなわち、スクリーン10が縦長の場合、補正用情報生成部120は、図16(B)に示すように、スクリーン10の上下に余白を有する領域に補正後の投写領域A'B'C'D'が形成されるように補正用情報を生成する。   Also, as shown in FIG. 16A, when the aspect ratio is> 0.75, that is, when the screen 10 is vertically long, the correction information generating unit 120 moves the top and bottom of the screen 10 as shown in FIG. The correction information is generated so that the corrected projection area A′B′C′D ′ is formed in the area having the margin.

アスペクト比Sa>0.75の場合、A'はE'F'をm:nに分割する点であることからA'=(n*E'+m*F')/(m+n)である。なお、ここで、m+n=1であるものと仮定する。   When the aspect ratio Sa> 0.75, A ′ is a point that divides E′F ′ into m: n, and therefore A ′ = (n * E ′ + m * F ′) / (m + n). Here, it is assumed that m + n = 1.

また、スクリーン10の縦:横=sa:1であることから補正後の投写領域のアスペクト比を0.75に維持するためには、m=(Sa-3/4)/2,n=Sa-(Sa-3/4)/2にする必要がある。投写領域情報生成部150は、A'以外のB'C'D'も同様に演算する。   Since the aspect ratio of the projection area after correction is 0.75, m = (Sa−3 / 4) / 2, n = Sa− ( Sa-3 / 4) / 2 is required. The projection area information generation unit 150 similarly calculates B′C′D ′ other than A ′.

このようにして投写領域情報生成部150は、補正後の投写領域の座標A'B'C'D'を示す投写領域情報を生成することができる。   In this manner, the projection area information generation unit 150 can generate projection area information indicating the corrected projection area coordinates A′B′C′D ′.

さらに、補正用情報生成部120は、投写領域情報生成部150からの投写領域情報に基づき、補正後の投写領域を若干拡大するように補正用情報を生成してもよい。これにより、いわゆる縁なし状態の画像とし、画像の見栄えをよくすることができる。例えば、拡大率をPs、補正後の投写領域の対角線の交点をPとすると、補正用情報生成部120は、拡大後の投写領域の頂点A'=Ps*PA'+OPで求めることができる。補正用情報生成部120は、A'以外のB'C'D'も同様に演算する。   Further, the correction information generation unit 120 may generate the correction information based on the projection area information from the projection area information generation unit 150 so as to slightly enlarge the corrected projection area. Thereby, it is possible to obtain a so-called borderless image and improve the appearance of the image. For example, assuming that the enlargement ratio is Ps and the intersection of the diagonal lines of the corrected projection area is P, the correction information generating unit 120 can obtain the vertex A ′ = Ps * PA ′ + OP of the enlarged projection area. . The correction information generation unit 120 calculates B′C′D ′ other than A ′ in the same manner.

次に、このようにして求めたセンサー座標系におけるA'B'C'D'を、スクリーン10上に透視投影する。この変換処理は、奥行き情報であるzをPzに揃えることによって実行される。   Next, A′B′C′D ′ in the sensor coordinate system obtained in this way is projected on the screen 10 in a perspective manner. This conversion process is executed by aligning z as depth information with Pz.

例えば、補正用情報生成部120は、頂点A'については、A'x=A'x/A'z*Pz、A'y=A'y/A'z*Pz、A'z=A'z/A'z*Pzである。補正用情報生成部120は、A'以外のB'C'D'も同様に演算する。   For example, for the vertex A ′, the correction information generation unit 120 performs A′x = A′x / A′z * Pz, A′y = A′y / A′z * Pz, A′z = A ′. z / A'z * Pz. The correction information generation unit 120 calculates B′C′D ′ other than A ′ in the same manner.

図17は、本実施形態の一例における撮像領域17における補正後の投写領域19を示す模式図である。また、図18は、本実施形態の一例に係る補正後の投写領域を、センサー60を原点として透視投影した場合の模式図である。   FIG. 17 is a schematic diagram illustrating a corrected projection area 19 in the imaging area 17 according to an example of the present embodiment. FIG. 18 is a schematic diagram when a projection region after correction according to an example of the present embodiment is perspective-projected with the sensor 60 as an origin.

最後に、補正用情報生成部120は、スクリーン10上における補正後の投写領域の座標を液晶パネル920における座標に変換する。   Finally, the correction information generation unit 120 converts the coordinates of the corrected projection area on the screen 10 into coordinates on the liquid crystal panel 920.

まず、既知であるセンサー座標系における中央領域の4頂点の座標A(Ax,Ay)、B(Bx,By)、C(Cx,Cy)、D(Dx,Dy)と、液晶パネル920における中央領域の4頂点の座標I(Ix,Iy)、J(Jx,Jy)、K(Kx,Ky)、L(Lx,Ly)との対応関係に基づき、座標変換用パラメータを生成する。   First, the coordinates A (Ax, Ay), B (Bx, By), C (Cx, Cy), and D (Dx, Dy) of the four vertices of the central region in the known sensor coordinate system, and the center in the liquid crystal panel 920 A coordinate conversion parameter is generated based on the correspondence relationship with the coordinates I (Ix, Iy), J (Jx, Jy), K (Kx, Ky), and L (Lx, Ly) of the four vertices of the region.

図19は、本実施形態の一例に係る座標変換用パラメータを求める演算式を示す図である。   FIG. 19 is a diagram illustrating an arithmetic expression for obtaining a coordinate conversion parameter according to an example of the present embodiment.

補正用情報生成部120は、図19に示す座標変換用パラメータPa〜Phを用いて補正後の投写領域A'B'C'D'の座標を液晶パネル920における座標に変換する。   The correction information generation unit 120 converts the coordinates of the corrected projection area A′B′C′D ′ into coordinates on the liquid crystal panel 920 using the coordinate conversion parameters Pa to Ph shown in FIG.

例えば、頂点A'の場合、A'x=(Pa*A'x+Pb*A'y+Pc)/(Pg*A'x+Ph*A'y+1)であり、A'y=(Pd*A'x+Pe*A'y+Pf)/(Pg*A'x+Ph*A'y+1)である。頂点B'C'D'についても同様である。   For example, in the case of the vertex A ′, A′x = (Pa * A′x + Pb * A′y + Pc) / (Pg * A′x + Ph * A′y + 1) and A′y = (Pd * A′x + Pe * A′y + Pf) / (Pg * A′x + Ph * A′y + 1). The same applies to the vertex B'C'D '.

補正用情報生成部120は、元の液晶パネル920における座標と、補正後の液晶パネル920における座標との相違に基づき、補正用情報を生成する。また、歪み補正部130は、当該補正用情報に基づき、画像信号を補正する。また、画像投写部190は、補正された画像信号に基づき、画像を投写する。   The correction information generation unit 120 generates correction information based on the difference between the original coordinates on the liquid crystal panel 920 and the corrected coordinates on the liquid crystal panel 920. Further, the distortion correction unit 130 corrects the image signal based on the correction information. In addition, the image projection unit 190 projects an image based on the corrected image signal.

これにより、プロジェクタ20は、スクリーン10の中央に、スクリーン10をできるだけ有効に活用して歪みのない画像を投写することができる。   Thereby, the projector 20 can project an image without distortion in the center of the screen 10 by using the screen 10 as effectively as possible.

以上のように、本実施形態によれば、プロジェクタ20は、所望のアスペクト比でスクリーン10の領域を有効に使用して画像を投写することができる。これにより、プロジェクタ20は、スクリーン10の形状の影響を受けずに観察者にとって見やすい画像を投写することができる。   As described above, according to the present embodiment, the projector 20 can project an image by effectively using the area of the screen 10 with a desired aspect ratio. Thereby, the projector 20 can project an image that is easy to see for the observer without being affected by the shape of the screen 10.

また、プロジェクタ20は、センサー座標系を用いて演算することにより、プロジェクタ20とセンサー60との位置の違いの影響を受けずに画像を適切に補正することができる。これにより、センサー60としては、例えば、プロジェクタ20に内蔵したセンサー、プロジェクタ20とは離れた位置にあるセンサー、デジタルカメラ等の種々の撮像手段を採用することができる。   Further, the projector 20 can appropriately correct the image without being affected by the difference in position between the projector 20 and the sensor 60 by performing calculation using the sensor coordinate system. Thereby, as the sensor 60, for example, various imaging means such as a sensor built in the projector 20, a sensor at a position away from the projector 20, and a digital camera can be employed.

(変形例)
本発明は、上述した実施例に限定されず、種々の変形が可能である。
(Modification)
The present invention is not limited to the above-described embodiments, and various modifications can be made.

例えば、特に、本発明は、投写画像12がスクリーン10を包含している場合に効果的であるが、プロジェクタ20は、投写画像12とスクリーン10との包含関係を自動判別し、判別結果に応じて適用する画像補正の手法を決定してもよい。   For example, the present invention is particularly effective when the projected image 12 includes the screen 10, but the projector 20 automatically determines the inclusion relationship between the projected image 12 and the screen 10 and responds to the determination result. The image correction method to be applied may be determined.

さらに、例えば、プロジェクタ20がズーム機能を有する場合、プロジェクタ20は、投写画像12がスクリーン10を包含するように、強制的にズーム調整を行って画像を投写してもよい。   Further, for example, when the projector 20 has a zoom function, the projector 20 may forcibly adjust the zoom so that the projected image 12 includes the screen 10 and project the image.

また、上述した実施例では、投写画像12を9等分してその中央の領域である中央領域を基準としたが、プロジェクタ20がスクリーン10内に投写画像の中央領域を捉えることができるものであれば、中央領域の大きさ、位置は任意でよい。   In the above-described embodiment, the projection image 12 is divided into nine equal parts, and the center area, which is the center area, is used as a reference. However, the projector 20 can capture the center area of the projection image in the screen 10. If so, the size and position of the central region may be arbitrary.

また、上述した実施例では、投写対象物としてスクリーン10を用いたが、4隅を検出可能な矩形状のものであれば、投写対象物は、例えば、ホワイトボード、壁等であってもよい。   In the above-described embodiments, the screen 10 is used as the projection target. However, the projection target may be, for example, a whiteboard or a wall as long as the projection has a rectangular shape capable of detecting four corners. .

また、上述した実施例では、画像処理システムとしてプロジェクタ20を用いたが、本発明は、プロジェクタ20以外にもCRT(Cathode Ray Tube)、LED(Light Emitting Diode)、EL(Electro Luminescence)等のディスプレイ用の画像処理システムにも有効である。   In the above-described embodiment, the projector 20 is used as the image processing system. However, the present invention is not limited to the projector 20 and displays such as CRT (Cathode Ray Tube), LED (Light Emitting Diode), and EL (Electro Luminescence). It is also effective for an image processing system.

また、プロジェクタ20としては、例えば、液晶プロジェクタ、DMD(Digital Micromirror Device)を用いたプロジェクタ等を用いてもよい。なお、DMDは米国テキサスインスツルメンツ社の商標である。   Further, as the projector 20, for example, a liquid crystal projector, a projector using a DMD (Digital Micromirror Device), or the like may be used. DMD is a trademark of Texas Instruments Incorporated.

また、上述したプロジェクタ20の機能は、例えば、プロジェクタ単体で実装してもよいし、複数の処理装置で分散して(例えば、プロジェクタとPCとで分散処理)実装してもよい。   Further, the functions of the projector 20 described above may be implemented, for example, by a single projector, or may be implemented by being distributed by a plurality of processing devices (for example, distributed processing by a projector and a PC).

画像投写時の状態を示す模式図である。It is a schematic diagram which shows the state at the time of image projection. 本実施形態の一例に係るプロジェクタの機能ブロック図である。It is a functional block diagram of the projector which concerns on an example of this embodiment. 本実施形態の一例に係るプロジェクタのハードウェアブロック図である。It is a hardware block diagram of the projector which concerns on an example of this embodiment. 本実施形態の一例に係る画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing which concerns on an example of this embodiment. 本実施形態の一例に係る撮像領域を示す模式図である。It is a schematic diagram which shows the imaging area which concerns on an example of this embodiment. 角度θと距離Lとの関係を示す模式図である。It is a schematic diagram which shows the relationship between angle (theta) and distance L. FIG. 本実施形態の一例に係るXYZ3次元空間の模式図である。It is a schematic diagram of XYZ three-dimensional space which concerns on an example of this embodiment. 本実施形態の一例に係る補正後の投写領域の模式図である。It is a schematic diagram of the projection area | region after the correction | amendment which concerns on an example of this embodiment. 本実施形態の一例に係るセンサーの撮像平面の模式図である。It is a schematic diagram of the imaging plane of the sensor which concerns on an example of this embodiment. 本実施形態の一例に係る補正後の投写領域の4隅の座標を示す模式図である。It is a schematic diagram which shows the coordinate of the four corners of the projection area after correction | amendment which concerns on an example of this embodiment. 本実施形態の一例に係る補正後の投写領域の4隅の座標を示す2次元ルックアップテーブルである。6 is a two-dimensional lookup table showing coordinates of four corners of a corrected projection area according to an example of the present embodiment. 本実施形態の一例における撮像領域を示す模式図である。It is a schematic diagram which shows the imaging area in an example of this embodiment. 本実施形態の一例に係るスクリーンを、センサーを原点として透視投影した場合の模式図である。It is a schematic diagram at the time of carrying out the perspective projection of the screen which concerns on an example of this embodiment by making a sensor into an origin. 本実施形態の一例におけるsを変化させた場合の模式図である。It is a schematic diagram at the time of changing s in an example of this embodiment. 本実施形態の一例に係るスクリーンと補正後の投写領域との関係を示す図であり、図15(A)は、縦より横が長い場合のスクリーンを示す図であり、図15(B)は、図15(A)のスクリーンにおける補正後の投写領域を示す図である。FIG. 15A is a diagram illustrating a relationship between a screen according to an example of the present embodiment and a projection region after correction, and FIG. 15A is a diagram illustrating the screen when the horizontal is longer than the vertical, and FIG. FIG. 16 is a diagram showing a corrected projection area on the screen of FIG. 本実施形態の一例に係るスクリーンと補正後の投写領域との関係を示す図であり、図16(A)は、縦より横が短い場合のスクリーンを示す図であり、図16(B)は、図16(A)のスクリーンにおける補正後の投写領域を示す図である。It is a figure which shows the relationship between the screen which concerns on an example of this embodiment, and the projection area | region after correction | amendment, FIG. 16 (A) is a figure which shows a screen when horizontal is shorter than vertical, FIG.16 (B) is FIG. FIG. 17 is a diagram showing a corrected projection area on the screen of FIG. 本実施形態の一例における撮像領域における補正後の投写領域を示す模式図である。It is a schematic diagram which shows the projection area | region after correction | amendment in the imaging area in an example of this embodiment. 本実施形態の一例に係る補正後の投写領域を、センサーを原点として透視投影した場合の模式図である。It is a schematic diagram at the time of carrying out the perspective projection of the corrected projection area which concerns on an example of this embodiment by making a sensor into an origin. 本実施形態の一例に係る座標変換用パラメータを求める演算式を示す図である。It is a figure which shows the computing equation which calculates | requires the parameter for coordinate conversion based on an example of this embodiment.

符号の説明Explanation of symbols

10 スクリーン(投写対象物)、12 投写画像、20 プロジェクタ(画像処理システム)、60 センサー、120 補正用情報生成部、130 歪み補正部、140 投写対象領域情報生成部、150 投写領域情報生成部、170 キャリブレーション画像情報生成部、180 撮像部、190 画像投写部、900 情報記憶媒体   10 screen (projection object), 12 projection image, 20 projector (image processing system), 60 sensor, 120 correction information generation unit, 130 distortion correction unit, 140 projection target region information generation unit, 150 projection region information generation unit, 170 calibration image information generation unit, 180 imaging unit, 190 image projection unit, 900 information storage medium

Claims (15)

任意の単色で構成される単色キャリブレーション画像を投写対象物へ向け投写するとともに、画像全体の領域より小さい第1の単色の領域を含み、かつ、当該領域以外の領域が当該第1の単色以外の第2の単色で構成される複数色キャリブレーション画像を前記投写対象物へ向け投写する画像投写手段と、
前記投写対象物に投写された前記単色キャリブレーション画像を撮像して第1の撮像情報を生成するとともに、前記投写対象物に投写された前記複数色キャリブレーション画像を撮像して第2の撮像情報を生成する撮像手段と、
前記第1の撮像情報に基づく画素ごとの画像信号値の差異に基づき、前記撮像手段の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成する投写対象領域情報生成手段と、
前記第1の撮像情報と、前記第2の撮像情報との差異に基づき、前記撮像領域における前記第1の単色の領域を部分投写領域として検出し、当該部分投写領域に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成する投写領域情報生成手段と、
前記投写対象領域情報と、前記投写領域情報とに基づき、画像歪み補正用情報を生成する補正用情報生成手段と、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正する歪み補正手段と、
を含み、
前記画像投写手段は、前記歪み補正手段によって補正された画像信号に基づき、画像を投写することを特徴とする画像処理システム。
A single color calibration image composed of any single color is projected onto the projection target, includes a first monochrome region smaller than the entire image region, and a region other than the first region is other than the first monochrome color. Image projection means for projecting a multi-color calibration image composed of the second single color onto the projection object;
The first imaging information is generated by capturing the single color calibration image projected on the projection object, and the second imaging information is generated by capturing the multi-color calibration image projected on the projection object. Imaging means for generating
Projection target area information generation means for generating projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging means based on the difference in image signal value for each pixel based on the first imaging information. When,
Based on the difference between the first imaging information and the second imaging information, the first monochrome area in the imaging area is detected as a partial projection area, and based on the partial projection area, in the imaging area Projection area information generating means for generating projection area information indicating the coordinates of the four corners of the projection area;
Correction information generating means for generating image distortion correction information based on the projection target area information and the projection area information;
Distortion correction means for correcting the image signal based on the image distortion correction information so that the distortion of the image is corrected;
Including
The image processing system, wherein the image projection unit projects an image based on the image signal corrected by the distortion correction unit.
請求項1において、
前記第1の単色の領域は、画像全体の領域をn分の1に縮小した領域であって、
前記投写領域情報生成手段は、前記部分投写領域をn倍した領域を前記投写領域として検出することを特徴とする画像処理システム。
In claim 1,
The first monochromatic region is a region obtained by reducing the entire image region to 1 / n,
The projection area information generating means detects an area obtained by multiplying the partial projection area by n as the projection area.
請求項1、2のいずれかにおいて、
前記補正用情報生成手段は、
前記投写対象領域情報に基づき、前記撮像領域の2次元平面に前記撮像手段の光軸を3次元目として加えた3次元空間における原点と、前記投写対象物の4隅との前記光軸上の相対距離を演算し、
前記投写対象領域情報と、前記相対距離とに基づき、前記投写対象物の4隅の前記3次元空間における座標を演算し、
当該座標に基づき、前記投写対象物の対向しない2辺の長さをそれぞれ演算することにより前記投写対象物の縦横比を示す第1の縦横比を演算し、
当該第1の縦横比と、前記単色キャリブレーション画像、前記複数色キャリブレーション画像または前記画像投写手段の有する投写用パネルの縦横比を示す第2の縦横比と、前記投写対象領域情報とに基づき、歪みのない状態であって、かつ、前記第2の縦横比で、前記画像投写手段が前記投写対象物に投写した場合の画像の4隅の前記撮像領域における座標を演算し、
当該画像の4隅の前記撮像領域における座標と、前記投写領域情報とに基づき、前記画像歪み補正用情報を生成することを特徴とする画像処理システム。
In any one of Claims 1, 2.
The correction information generating means includes
Based on the projection target area information, on the optical axis of the origin in a three-dimensional space obtained by adding the optical axis of the imaging means as the third dimension to the two-dimensional plane of the imaging area, and the four corners of the projection target Calculate the relative distance,
Based on the projection target area information and the relative distance, the coordinates in the three-dimensional space of the four corners of the projection target are calculated,
Based on the coordinates, the first aspect ratio indicating the aspect ratio of the projection object is calculated by calculating the lengths of two opposite sides of the projection object,
Based on the first aspect ratio, the second aspect ratio indicating the aspect ratio of the projection panel included in the single color calibration image, the multiple color calibration image, or the image projection unit, and the projection target area information. Calculating the coordinates in the imaging region at the four corners of the image when the image projection means projects onto the projection object in the second aspect ratio without distortion,
An image processing system, wherein the image distortion correction information is generated based on coordinates in the imaging area at the four corners of the image and the projection area information.
請求項1において、
前記補正用情報生成手段は、前記投写対象領域情報に基づき、前記投写対象物の縦横比を示す第1の縦横比を把握し、当該第1の縦横比に応じて所望の縦横比を示す第2の縦横比で画像が表示されるように、前記投写領域情報に基づき、前記画像投写手段の有する投
写用パネルにおける投写領域の4隅の座標を示す投写座標系投写領域情報を生成するとともに、当該投写座標系投写領域情報に基づき、前記画像歪み補正用情報を生成することを特徴とする画像処理システム。
In claim 1,
The correction information generating means grasps a first aspect ratio indicating an aspect ratio of the projection target based on the projection target area information, and indicates a first aspect ratio indicating a desired aspect ratio according to the first aspect ratio. Generating projection coordinate system projection area information indicating the coordinates of the four corners of the projection area in the projection panel of the image projection means based on the projection area information so that an image is displayed with an aspect ratio of 2. An image processing system that generates the image distortion correction information based on the projection coordinate system projection area information.
請求項4において、
前記補正用情報生成手段は、
前記投写対象領域情報に基づき、前記撮像領域の2次元平面に前記撮像手段の光軸を3次元目として加えた3次元空間における原点と、前記投写対象物の4隅との前記光軸上の相対距離を演算し、
前記投写対象領域情報と、前記相対距離とに基づき、前記投写対象物の4隅の前記3次元空間における座標を演算し、
当該座標に基づき、前記投写対象物の対向しない2辺の長さをそれぞれ演算することにより前記第1の縦横比を演算することを特徴とする画像処理システム。
Oite to claim 4,
The correction information generating means includes
Based on the projection target area information, on the optical axis of the origin in a three-dimensional space obtained by adding the optical axis of the imaging means as the third dimension to the two-dimensional plane of the imaging area, and the four corners of the projection target Calculate the relative distance,
Based on the projection target area information and the relative distance, the coordinates in the three-dimensional space of the four corners of the projection target are calculated,
An image processing system characterized in that the first aspect ratio is calculated by calculating the lengths of two opposite sides of the projection object based on the coordinates.
請求項1〜のいずれかにおいて、
前記投写対象領域情報生成手段は、前記撮像領域の中央付近から各画素を放射状に探索するように、前記撮像情報の画像信号値を探索し、探索中の当該画像信号値の差異に基づいて前記投写対象領域を把握して前記投写対象領域情報を生成することを特徴とする画像処理システム。
In any one of Claims 1-5 ,
The projection target area information generation unit searches for an image signal value of the imaging information so as to search each pixel radially from the vicinity of the center of the imaging area, and based on the difference in the image signal value being searched An image processing system characterized by grasping a projection target area and generating the projection target area information.
任意の単色で構成される単色キャリブレーション画像を投写対象物へ向け投写するとともに、画像全体の領域より小さい第1の単色の領域を含み、かつ、当該領域以外の領域が当該第1の単色以外の第2の単色で構成される複数色キャリブレーション画像を前記投写対象物へ向け投写する画像投写手段と、
前記投写対象物に投写された前記単色キャリブレーション画像を撮像して第1の撮像情報を生成するとともに、前記投写対象物に投写された前記複数色キャリブレーション画像を撮像して第2の撮像情報を生成する撮像手段と、
前記第1の撮像情報に基づく画素ごとの画像信号値の差異に基づき、前記撮像手段の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成する投写対象領域情報生成手段と、
前記第1の撮像情報と、前記第2の撮像情報との差異に基づき、前記撮像領域における前記第1の単色の領域を部分投写領域として検出し、当該部分投写領域に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成する投写領域情報生成手段と、
前記投写対象領域情報と、前記投写領域情報とに基づき、画像歪み補正用情報を生成する補正用情報生成手段と、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正する歪み補正手段と、
を含み、
前記画像投写手段は、前記歪み補正手段によって補正された画像信号に基づき、画像を投写することを特徴とするプロジェクタ。
A single color calibration image composed of any single color is projected onto the projection target, includes a first monochrome region smaller than the entire image region, and a region other than the first region is other than the first monochrome color. Image projection means for projecting a multi-color calibration image composed of the second single color onto the projection object;
The first imaging information is generated by capturing the single color calibration image projected on the projection object, and the second imaging information is generated by capturing the multi-color calibration image projected on the projection object. Imaging means for generating
Projection target area information generation means for generating projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging means based on the difference in image signal value for each pixel based on the first imaging information. When,
Based on the difference between the first imaging information and the second imaging information, the first monochrome area in the imaging area is detected as a partial projection area, and based on the partial projection area, in the imaging area Projection area information generating means for generating projection area information indicating the coordinates of the four corners of the projection area;
Correction information generating means for generating image distortion correction information based on the projection target area information and the projection area information;
Distortion correction means for correcting the image signal based on the image distortion correction information so that the distortion of the image is corrected;
Including
The projector according to claim 1, wherein the image projecting unit projects an image based on the image signal corrected by the distortion correcting unit.
コンピュータにより読み取り可能なプログラムであって、
コンピュータを、
任意の単色で構成される単色キャリブレーション画像を投写対象物へ向け投写するとともに、画像全体の領域より小さい第1の単色の領域を含み、かつ、当該領域以外の領域が当該第1の単色以外の第2の単色で構成される複数色キャリブレーション画像を前記投写対象物へ向け投写する画像投写手段と、
前記投写対象物に投写された前記単色キャリブレーション画像を撮像して第1の撮像情報を生成するとともに、前記投写対象物に投写された前記複数色キャリブレーション画像を撮像して第2の撮像情報を生成する撮像手段と、
前記第1の撮像情報に基づく画素ごとの画像信号値の差異に基づき、前記撮像手段の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成する投写対象領域情報生成手段と、
前記第1の撮像情報と、前記第2の撮像情報との差異に基づき、前記撮像領域における前記第1の単色の領域を部分投写領域として検出し、当該部分投写領域に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成する投写領域情報生成手段と、
前記投写対象領域情報と、前記投写領域情報とに基づき、画像歪み補正用情報を生成する補正用情報生成手段と、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正する歪み補正手段として機能させ、
前記画像投写手段は、前記歪み補正手段によって補正された画像信号に基づき、画像を投写することを特徴とするプログラム。
A computer-readable program,
Computer
A single color calibration image composed of any single color is projected onto the projection target, includes a first monochrome region smaller than the entire image region, and a region other than the first region is other than the first monochrome color. Image projection means for projecting a multi-color calibration image composed of the second single color onto the projection object;
The first imaging information is generated by capturing the single color calibration image projected on the projection object, and the second imaging information is generated by capturing the multi-color calibration image projected on the projection object. Imaging means for generating
Projection target area information generation means for generating projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging means based on the difference in image signal value for each pixel based on the first imaging information. When,
Based on the difference between the first imaging information and the second imaging information, the first monochrome area in the imaging area is detected as a partial projection area, and based on the partial projection area, in the imaging area Projection area information generating means for generating projection area information indicating the coordinates of the four corners of the projection area;
Correction information generating means for generating image distortion correction information based on the projection target area information and the projection area information;
Based on the image distortion correction information, function as a distortion correction unit that corrects the image signal so that the distortion of the image is corrected,
The image projecting means projects an image based on the image signal corrected by the distortion correcting means.
コンピュータにより読み取り可能なプログラムを記憶した情報記憶媒体であって、
請求項に記載のプログラムを記憶したことを特徴とする情報記憶媒体。
An information storage medium storing a computer-readable program,
An information storage medium storing the program according to claim 8 .
任意の単色で構成される単色キャリブレーション画像を、画像投写部を用いて投写対象物へ向け投写し、
前記投写対象物に投写された前記単色キャリブレーション画像を、撮像部を用いて撮像して第1の撮像情報を生成し、
画像全体の領域より小さい第1の単色の領域を含み、かつ、当該領域以外の領域が当該第1の単色以外の第2の単色で構成される複数色キャリブレーション画像を、前記画像投写部を用いて前記投写対象物へ向け投写し、
前記投写対象物に投写された前記複数色キャリブレーション画像を、前記撮像部を用いて撮像して第2の撮像情報を生成し、
前記第1の撮像情報に基づく画素ごとの画像信号値の差異に基づき、前記撮像の撮像領域における前記投写対象物の4隅の座標を示す投写対象領域情報を生成し、
前記第1の撮像情報と、前記第2の撮像情報との差異に基づき、前記撮像領域における前記第1の単色の領域を部分投写領域として検出し、当該部分投写領域に基づき、前記撮像領域における投写領域の4隅の座標を示す投写領域情報を生成し、
前記投写対象領域情報と、前記投写領域情報とに基づき、画像歪み補正用情報を生成し、
前記画像歪み補正用情報に基づき、画像の歪みが補正されるように画像信号を補正し、
補正された画像信号に基づき、前記画像投写部を用いて画像を投写することを特徴とする画像処理方法。
Project a single color calibration image composed of any single color onto the projection object using the image projection unit ,
Imaging the monochromatic calibration image projected on the projection object using an imaging unit to generate first imaging information;
A multi-color calibration image including a first single color area smaller than the entire image area and a region other than the first region composed of a second single color other than the first single color is displayed on the image projection unit. Use to project toward the projection object,
The multi-color calibration image projected on the projection target is imaged using the imaging unit to generate second imaging information,
Based on the difference in image signal value for each pixel based on the first imaging information, generating projection target area information indicating the coordinates of the four corners of the projection target in the imaging area of the imaging unit ,
Based on the difference between the first imaging information and the second imaging information, the first monochrome area in the imaging area is detected as a partial projection area, and based on the partial projection area, in the imaging area Generating projection area information indicating the coordinates of the four corners of the projection area;
Based on the projection area information and the projection area information, image distortion correction information is generated,
Based on the image distortion correction information, correct the image signal so that the image distortion is corrected,
An image processing method, wherein an image is projected using the image projection unit based on a corrected image signal.
請求項10において、
前記第1の単色の領域は、画像全体の領域をn分の1に縮小した領域であって、
前記部分投写領域をn倍した領域を前記投写領域として検出することを特徴とする画像処理方法。
In claim 10 ,
The first monochromatic region is a region obtained by reducing the entire image region to 1 / n,
An image processing method, wherein an area obtained by multiplying the partial projection area by n is detected as the projection area.
請求項10、11のいずれかにおいて、
前記投写対象領域情報に基づき、前記撮像領域の2次元平面に前記撮像の光軸を3次元目として加えた3次元空間における原点と、前記投写対象物の4隅との前記光軸上の相対距離を演算し、
前記投写対象領域情報と、前記相対距離とに基づき、前記投写対象物の4隅の前記3次元空間における座標を演算し、
当該座標に基づき、前記投写対象物の対向しない2辺の長さをそれぞれ演算することにより前記投写対象物の縦横比を示す第1の縦横比を演算し、
当該第1の縦横比と、前記単色キャリブレーション画像、前記複数色キャリブレーション画像または前記画像投写の有する投写用パネルの縦横比を示す第2の縦横比と、前記投写対象領域情報とに基づき、歪みのない状態であって、かつ、前記第2の縦横比で、前記投写対象物に投写された場合の画像の4隅の前記撮像領域における座標を演算し、
当該画像の4隅の前記撮像領域における座標と、前記投写領域情報とに基づき、前記画像歪み補正用情報を生成することを特徴とする画像処理方法。
In any one of Claims 10 and 11 ,
Based on the projection target area information, on the optical axis of the origin in a three-dimensional space obtained by adding the optical axis of the imaging unit as a third dimension to the two-dimensional plane of the imaging area , and the four corners of the projection target Calculate the relative distance,
Based on the projection target area information and the relative distance, the coordinates in the three-dimensional space of the four corners of the projection target are calculated,
Based on the coordinates, the first aspect ratio indicating the aspect ratio of the projection object is calculated by calculating the lengths of two opposite sides of the projection object,
Based on the first aspect ratio, the second aspect ratio indicating the aspect ratio of the projection panel included in the single color calibration image, the multiple color calibration image, or the image projection unit , and the projection target area information. Calculating coordinates in the imaging region at the four corners of the image when projected onto the projection object in the second aspect ratio without distortion,
An image processing method, wherein the image distortion correction information is generated based on coordinates in the imaging area at the four corners of the image and the projection area information.
請求項10において、
前記投写対象領域情報に基づき、前記投写対象物の縦横比を示す第1の縦横比を把握し、
当該第1の縦横比に応じて所望の縦横比を示す第2の縦横比で画像が表示されるように、前記投写領域情報に基づき、投写用パネルにおける投写領域の4隅の座標を示す投写座標系投写領域情報を生成し、
当該投写座標系投写領域情報に基づき、前記画像歪み補正用情報を生成することを特徴とする画像処理方法。
In claim 10 ,
Based on the projection target area information, grasp a first aspect ratio indicating the aspect ratio of the projection target,
Projection indicating the coordinates of the four corners of the projection area on the projection panel based on the projection area information so that an image is displayed with a second aspect ratio indicating a desired aspect ratio according to the first aspect ratio. Generate coordinate system projection area information,
An image processing method comprising: generating the image distortion correction information based on the projection coordinate system projection area information.
請求項13において、
前記投写対象領域情報に基づき、前記撮像領域の2次元平面に前記撮像の光軸を3次元目として加えた3次元空間における原点と、前記投写対象物の4隅との前記光軸上の相対距離を演算し、
前記投写対象領域情報と、前記相対距離とに基づき、前記投写対象物の4隅の前記3次元空間における座標を演算し、
当該座標に基づき、前記投写対象物の対向しない2辺の長さをそれぞれ演算することにより前記第1の縦横比を演算することを特徴とする画像処理方法。
In claim 13 ,
Based on the projection target area information, on the optical axis of the origin in a three-dimensional space obtained by adding the optical axis of the imaging unit as a third dimension to the two-dimensional plane of the imaging area , and the four corners of the projection target Calculate the relative distance,
Based on the projection target area information and the relative distance, the coordinates in the three-dimensional space of the four corners of the projection target are calculated,
An image processing method, wherein the first aspect ratio is calculated by calculating the lengths of two opposite sides of the projection object based on the coordinates.
請求項10〜14のいずれかにおいて、
前記投写対象領域情報を生成する際に、前記撮像領域の中央付近から各画素を放射状に探索するように、前記撮像情報の画像信号値を探索し、探索中の当該画像信号値の差異に基づいて前記投写対象領域を把握して前記投写対象領域情報を生成することを特徴とする画像処理方法。
In any one of Claims 10-14 ,
When generating the projection target area information, the image signal value of the imaging information is searched so as to search each pixel radially from the vicinity of the center of the imaging area, and based on the difference between the image signal values being searched. And generating the projection target area information by grasping the projection target area.
JP2004078412A 2000-03-18 2004-03-18 Image processing system, projector, program, information storage medium, and image processing method Expired - Fee Related JP4150924B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2004078412A JP4150924B2 (en) 2003-07-02 2004-03-18 Image processing system, projector, program, information storage medium, and image processing method
KR1020040049117A KR100660039B1 (en) 2003-07-02 2004-06-28 Image processing system, projector, information storage medium and image processing method
KR20-2004-0018384U KR200362482Y1 (en) 2003-07-02 2004-06-29 Image processing system and projector
EP04253992.4A EP1494486B1 (en) 2003-07-02 2004-07-01 Image processing system, projector, information storage medium, and image processing method
US10/880,642 US7419268B2 (en) 2003-07-02 2004-07-01 Image processing system, projector, and image processing method
CNB2004100500795A CN100476572C (en) 2003-07-02 2004-07-02 Image processing system, projector,and image processing method
TW093120038A TWI253006B (en) 2003-07-02 2004-07-02 Image processing system, projector, information storage medium, and image processing method
US12/222,027 US7695143B2 (en) 2000-03-18 2008-07-31 Image processing system, projector, computer-readable medium, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003270320 2003-07-02
JP2004078412A JP4150924B2 (en) 2003-07-02 2004-03-18 Image processing system, projector, program, information storage medium, and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008120274A Division JP4572377B2 (en) 2003-07-02 2008-05-02 Image processing system, projector, program, information storage medium, and image processing method

Publications (2)

Publication Number Publication Date
JP2005038388A JP2005038388A (en) 2005-02-10
JP4150924B2 true JP4150924B2 (en) 2008-09-17

Family

ID=33436482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004078412A Expired - Fee Related JP4150924B2 (en) 2000-03-18 2004-03-18 Image processing system, projector, program, information storage medium, and image processing method

Country Status (6)

Country Link
US (2) US7419268B2 (en)
EP (1) EP1494486B1 (en)
JP (1) JP4150924B2 (en)
KR (2) KR100660039B1 (en)
CN (1) CN100476572C (en)
TW (1) TWI253006B (en)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3846592B2 (en) * 2003-06-26 2006-11-15 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
US7144115B2 (en) * 2004-04-14 2006-12-05 Sharp Laboratories Of America, Inc. Projection system
EP1800496A1 (en) * 2004-09-24 2007-06-27 Tte Technology, Inc. System and method for optical calibration of a picture modulator
JP2006121240A (en) * 2004-10-20 2006-05-11 Sharp Corp Image projection method, projector, and computer program
JP4232042B2 (en) 2005-01-07 2009-03-04 セイコーエプソン株式会社 Projection control system, projector, program, information storage medium, and projection control method
JP3994290B2 (en) 2005-01-17 2007-10-17 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP4085283B2 (en) * 2005-02-14 2008-05-14 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP4380557B2 (en) * 2005-02-15 2009-12-09 カシオ計算機株式会社 Projector, chart image display method and program
US20070115397A1 (en) * 2005-06-24 2007-05-24 Fakespace Labs, Inc. Projection display with internal calibration bezel for video
JP2007036482A (en) * 2005-07-25 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> Information projection display and program
US20070024764A1 (en) * 2005-07-29 2007-02-01 Optoma Technology, Inc. Methods and systems that compensate for distortion introduced by anamorphic lenses in a video projector
US20070030452A1 (en) * 2005-08-08 2007-02-08 N-Lighten Technologies Image adaptation system and method
JP2007078821A (en) * 2005-09-12 2007-03-29 Casio Comput Co Ltd Projector, projecting method and program
JP3953500B1 (en) 2006-02-07 2007-08-08 シャープ株式会社 Image projection method and projector
KR100809351B1 (en) * 2006-04-03 2008-03-05 삼성전자주식회사 Method and apparatus for calibration of projected image
JP4340923B2 (en) 2007-02-23 2009-10-07 セイコーエプソン株式会社 Projector, program, and information storage medium
DE102007027421A1 (en) * 2007-06-14 2008-12-24 Airbus Deutschland Gmbh Image adjustment apparatus and method for image projection in an aircraft
JP4525945B2 (en) 2007-08-07 2010-08-18 セイコーエプソン株式会社 Image processing system, projector, program, and information storage medium
KR20090022053A (en) * 2007-08-29 2009-03-04 삼성전자주식회사 Apparatus and method for beam-projecting and adjusting beam-projected image automatically
JP4692531B2 (en) * 2007-09-13 2011-06-01 カシオ計算機株式会社 Projector and optical distance measuring method.
KR101537596B1 (en) * 2008-10-15 2015-07-20 엘지전자 주식회사 Mobile terminal and method for recognizing touch thereof
KR101520689B1 (en) * 2008-10-22 2015-05-21 엘지전자 주식회사 a mobile telecommunication device and a method of scrolling a screen using the same
JP5540493B2 (en) * 2008-10-30 2014-07-02 セイコーエプソン株式会社 Method for measuring position or tilt of projection plane relative to projection optical system, image processing method for projected image using the measurement method, projector for executing the image processing method, program for measuring position or tilt of projection plane with respect to projection optical system
KR20100060428A (en) * 2008-11-27 2010-06-07 엘지전자 주식회사 Mobile terminal with an image projector and method for image stabilization
KR101527014B1 (en) * 2008-12-02 2015-06-09 엘지전자 주식회사 Mobile terminal and method for controlling display thereof
JP2010166360A (en) * 2009-01-16 2010-07-29 Seiko Epson Corp Projector, control method thereof, and control program thereof
US8393740B2 (en) * 2009-03-12 2013-03-12 Canon Kabushiki Kaisha Image projection system with keystone correction
JP2010243921A (en) * 2009-04-08 2010-10-28 Sanyo Electric Co Ltd Projection video display apparatus
US8400468B2 (en) * 2009-08-27 2013-03-19 Seiko Epson Corporation Projector masks for calibrating projector-based display systems
KR20110071326A (en) * 2009-12-21 2011-06-29 삼성전자주식회사 Method and apparatus for outputting input key in mobile terminal having projector function
TWI439788B (en) * 2010-01-04 2014-06-01 Ind Tech Res Inst System and method for projection correction
JP5560721B2 (en) * 2010-01-12 2014-07-30 セイコーエプソン株式会社 Image processing apparatus, image display system, and image processing method
JP5560722B2 (en) * 2010-01-12 2014-07-30 セイコーエプソン株式会社 Image processing apparatus, image display system, and image processing method
JP5560771B2 (en) * 2010-02-26 2014-07-30 セイコーエプソン株式会社 Image correction apparatus, image display system, and image correction method
KR101113679B1 (en) 2010-05-24 2012-02-14 기아자동차주식회사 Image correction method for a camera system
US8717389B2 (en) 2010-08-06 2014-05-06 Canon Kabushiki Kaisha Projector array for multiple images
JP5541031B2 (en) * 2010-09-16 2014-07-09 セイコーエプソン株式会社 Projector and projector control method
US8480238B2 (en) 2010-10-26 2013-07-09 Canon Kabushiki Kaisha Projector array for multiple images
KR20140048073A (en) 2010-11-15 2014-04-23 스케일러블 디스플레이 테크놀로지스, 인크. System and method for calibrating a display system using manual and semi-automatic techniques
JP5849522B2 (en) 2011-08-18 2016-01-27 株式会社リコー Image processing apparatus, projector, projector system, image processing method, program thereof, and recording medium recording the program
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
TWI492166B (en) 2012-01-12 2015-07-11 Kofax Inc Systems and methods for mobile image capture and processing
US9652043B2 (en) * 2012-05-14 2017-05-16 Hewlett-Packard Development Company, L.P. Recognizing commands with a depth sensor
US9134599B2 (en) 2012-08-01 2015-09-15 Pentair Water Pool And Spa, Inc. Underwater image projection controller with boundary setting and image correction modules and interface and method of using same
TW201408057A (en) * 2012-08-10 2014-02-16 Hon Hai Prec Ind Co Ltd Hand held device and application control method
US20140281915A1 (en) * 2013-03-12 2014-09-18 Minds and Machines, LLC Method and system for background generation using guides
US10783615B2 (en) * 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
JP2015087639A (en) * 2013-10-31 2015-05-07 船井電機株式会社 Axis deviation detection device, projector device and axis deviation detection method
JP2015126340A (en) * 2013-12-26 2015-07-06 ソニー株式会社 Image processing method and image projection device
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
CN107547879B (en) * 2016-06-24 2019-12-24 上海顺久电子科技有限公司 Projection imaging correction method and device and laser television
TWI586173B (en) 2016-07-14 2017-06-01 張修誠 Projection System and Calibration Method of Projected Image
CN107621743B (en) * 2016-07-14 2020-04-24 北京宝江科技有限公司 Projection system and method for correcting distortion of projected image
TWI592020B (en) * 2016-08-23 2017-07-11 國立臺灣科技大學 Image correction method of projector and image correction system
CN108628337A (en) * 2017-03-21 2018-10-09 株式会社东芝 Coordinates measurement device, contouring system and path generating method
DE102017010741B4 (en) * 2017-11-21 2021-01-14 Diehl Aerospace Gmbh Procedure for setting up a projector, projector and passenger cabin
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
US10630948B2 (en) * 2018-09-26 2020-04-21 Christie Digital Systems Usa, Inc. Device, system and method for photometric compensation of images provided by a display device
CN110319852B (en) * 2019-05-23 2021-06-22 上海机电工程研究所 Calibration method of screen projection type optical target simulation system based on three-axis turntable
JP7321947B2 (en) * 2020-01-20 2023-08-07 日立Astemo株式会社 Image correction device and image correction method
CN114727075B (en) * 2021-01-06 2023-09-08 成都极米科技股份有限公司 Projection control method and device, projection equipment and storage medium
CN114845091B (en) * 2021-02-01 2023-11-10 扬智科技股份有限公司 Projection device and trapezoid correction method thereof
CN114157848B (en) * 2021-12-01 2024-07-23 深圳市火乐科技发展有限公司 Projection device correction method, projection device correction device, storage medium and projection device

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5933132A (en) * 1989-11-07 1999-08-03 Proxima Corporation Method and apparatus for calibrating geometrically an optical computer input system
JPH1023473A (en) 1996-07-05 1998-01-23 Toshiba Corp Method for inspecting and adjusting raster distortion of color image receiving tube
JP2000241874A (en) 1999-02-19 2000-09-08 Nec Corp Method and device for automatically adjusting screen position for projector
JP2001169211A (en) * 1999-12-06 2001-06-22 Hitachi Ltd Video projector and distortion correcting method therefor
KR100414083B1 (en) 1999-12-18 2004-01-07 엘지전자 주식회사 Method for compensating image distortion and image displaying apparatus using the same
US6753907B1 (en) 1999-12-23 2004-06-22 Justsystem Corporation Method and apparatus for automatic keystone correction
US6618076B1 (en) * 1999-12-23 2003-09-09 Justsystem Corporation Method and apparatus for calibrating projector-camera system
JP4961628B2 (en) * 2000-08-11 2012-06-27 日本電気株式会社 Projected image correction system and method
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
JP2002247614A (en) 2001-02-15 2002-08-30 Ricoh Co Ltd Projector
JP3761491B2 (en) * 2002-05-10 2006-03-29 Necビューテクノロジー株式会社 Projection image distortion correction method, distortion correction program, and projection-type image display device
JP2004040395A (en) 2002-07-02 2004-02-05 Fujitsu Ltd Image distortion correction apparatus, method, and program
DE60327289D1 (en) * 2002-07-23 2009-06-04 Nec Display Solutions Ltd Image projector with image feedback control
JP2004260785A (en) * 2002-07-23 2004-09-16 Nec Viewtechnology Ltd Projector with distortion correction function
KR100571219B1 (en) * 2003-01-08 2006-04-13 엘지전자 주식회사 Digital convergence device based on 3-d virtual screen of video display system
JP3844075B2 (en) * 2003-01-17 2006-11-08 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP2004274283A (en) * 2003-03-07 2004-09-30 Casio Comput Co Ltd Projection system, projector, image supplying device, and program
JP3690402B2 (en) * 2003-03-28 2005-08-31 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
CA2464569A1 (en) * 2003-04-16 2004-10-16 Universite De Montreal Single or multi-projector for arbitrary surfaces without calibration nor reconstruction
JP3630166B2 (en) * 2003-06-26 2005-03-16 セイコーエプソン株式会社 Adjusting the amount of distortion correction in the projected image
JP3846592B2 (en) * 2003-06-26 2006-11-15 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP4055010B2 (en) * 2003-09-26 2008-03-05 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
US7125122B2 (en) * 2004-02-02 2006-10-24 Sharp Laboratories Of America, Inc. Projection system with corrective image transformation
JP3882929B2 (en) * 2004-03-29 2007-02-21 セイコーエプソン株式会社 Image processing system, projector, and image processing method
JP4006601B2 (en) * 2004-03-29 2007-11-14 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP3888465B2 (en) * 2004-05-26 2007-03-07 セイコーエプソン株式会社 Image processing system, projector, and image processing method
JP3994290B2 (en) * 2005-01-17 2007-10-17 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP4085283B2 (en) * 2005-02-14 2008-05-14 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP4126564B2 (en) * 2005-02-14 2008-07-30 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method

Also Published As

Publication number Publication date
US7695143B2 (en) 2010-04-13
EP1494486B1 (en) 2014-04-16
JP2005038388A (en) 2005-02-10
EP1494486A2 (en) 2005-01-05
CN1577051A (en) 2005-02-09
KR100660039B1 (en) 2006-12-20
TWI253006B (en) 2006-04-11
US7419268B2 (en) 2008-09-02
KR200362482Y1 (en) 2004-09-18
US20080291402A1 (en) 2008-11-27
US20050041216A1 (en) 2005-02-24
KR20050004025A (en) 2005-01-12
CN100476572C (en) 2009-04-08
EP1494486A3 (en) 2006-03-22
TW200515265A (en) 2005-05-01

Similar Documents

Publication Publication Date Title
JP4150924B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP4572377B2 (en) Image processing system, projector, program, information storage medium, and image processing method
KR100648592B1 (en) Image processing system, projector, and image processing method
JP4006601B2 (en) Image processing system, projector, program, information storage medium, and image processing method
KR100591708B1 (en) Image processing system, projector, and image processing method
JP3879858B2 (en) Image processing system, projector, and image processing method
JP5266954B2 (en) Projection display apparatus and display method
JP5266953B2 (en) Projection display apparatus and display method
JP3871061B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP3925521B2 (en) Keystone correction using part of the screen edge
JP5239611B2 (en) Projection display apparatus and image correction method
JP2008211355A (en) Projector, program, and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050314

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080604

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080617

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4150924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees