JP4709571B2 - Visual information processing system and visual information processing method thereof - Google Patents

Visual information processing system and visual information processing method thereof Download PDF

Info

Publication number
JP4709571B2
JP4709571B2 JP2005109200A JP2005109200A JP4709571B2 JP 4709571 B2 JP4709571 B2 JP 4709571B2 JP 2005109200 A JP2005109200 A JP 2005109200A JP 2005109200 A JP2005109200 A JP 2005109200A JP 4709571 B2 JP4709571 B2 JP 4709571B2
Authority
JP
Japan
Prior art keywords
light
spatial
information processing
visual information
imager
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005109200A
Other languages
Japanese (ja)
Other versions
JP2006292385A (en
Inventor
抱 石井
慎吾 鏡
健司 田嶋
暁彦 沼田
山本  彰
朋彦 長瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiroshima University NUC
Original Assignee
Hiroshima University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hiroshima University NUC filed Critical Hiroshima University NUC
Priority to JP2005109200A priority Critical patent/JP4709571B2/en
Publication of JP2006292385A publication Critical patent/JP2006292385A/en
Application granted granted Critical
Publication of JP4709571B2 publication Critical patent/JP4709571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Liquid Crystal (AREA)
  • Image Input (AREA)

Description

本発明は視覚情報処理システム及びその視覚情報処理方法に係り、特に、光空間変調素子及び高速撮像素子を用いた視覚情報処理システム及びその視覚情報処理方法に関する。   The present invention relates to a visual information processing system and a visual information processing method thereof, and more particularly to a visual information processing system using a spatial light modulation element and a high-speed imaging element and a visual information processing method thereof.

今日、CMOS画像センサ等の固体撮像素子を用いた撮像装置やカメラは、民生用、産業用を問わず多種多様な形態でその応用分野を広めつつある。   Today, imaging devices and cameras using solid-state imaging devices such as CMOS image sensors are spreading their application fields in various forms regardless of consumer use or industrial use.

特に、産業用の撮像装置の分野においては、対象物の物理的変動を画像データから抽出し、抽出した情報を各種制御システムの入力値やフィードバック値として用いるといった応用形態が普及してきている。   In particular, in the field of industrial imaging devices, application forms in which physical fluctuations of an object are extracted from image data and the extracted information is used as input values and feedback values for various control systems have become widespread.

例えば、移動物体を撮像することにより、移動物体の重心位置や移動物体の姿勢角といった物理量を抽出し、これらの物理量或いはその変化量に基づいて各種制御、例えばロボットアームの制御等を行うシステムがある。このような制御システムに用いられる撮像装置では、対象物の移動速度等にも依存するが、一般的には民生用の応用に比べるとはるかに高い解像度や高フレームレートをリアルタイムで実現することが必要となってくる。   For example, a system that extracts a physical quantity such as the position of the center of gravity of a moving object and the posture angle of the moving object by imaging a moving object, and performs various controls, for example, control of a robot arm, based on the physical quantity or a change amount thereof. is there. In an imaging device used in such a control system, although it depends on the moving speed of an object, in general, it is possible to realize a much higher resolution and a higher frame rate in real time than a consumer application. It becomes necessary.

特許文献1が開示する撮像カメラ装置は、高空間解像度と高速リアルタイム性を両立させる技術を開示している。図15は、特許文献1が開示する撮像カメラ装置200の構成を示すものであり、高空間解像度を有するイメージャ(固体撮像素子)20と、演算部30と、座標変換部40とを備えている。   The imaging camera device disclosed in Patent Document 1 discloses a technology that achieves both high spatial resolution and high-speed real-time performance. FIG. 15 illustrates a configuration of an imaging camera device 200 disclosed in Patent Document 1, and includes an imager (solid-state imaging device) 20 having a high spatial resolution, a calculation unit 30, and a coordinate conversion unit 40. .

演算部30には、イメージャ20の全画像(M×N)の中から、座標変換部40で指定された部分画像(m×n)の画像データ(現在のフレームタイムの画像データ)が切り出されて入力される。演算部30では、部分画像のデータから画像特徴量ξを抽出する演算を行う。画像特徴量ξとは、例えば、部分画像データに含まれる対象物の大きさ、位置、姿勢角等、或いはこれらの変化量等である。座標変換部40では、抽出された画像特徴量ξに基づいて、次のフレームタイムに切り出すべき部分画像の座標(m’×n’)を計算する。例えば、対象物が平行移動や回転移動している場合には、前フレームの部分画像の座標(m×n)に対してアフィン変換等によって平行移動や回転移動をさせる座標変換を施し、次フレームの部分画像の座標(m’×n’)を算出する。   Image data (image data at the current frame time) of the partial image (m × n) specified by the coordinate conversion unit 40 is cut out from the entire image (M × N) of the imager 20 to the arithmetic unit 30. Is input. The calculation unit 30 performs a calculation for extracting the image feature amount ξ from the partial image data. The image feature amount ξ is, for example, the size, position, posture angle, etc. of the object included in the partial image data, or the amount of change thereof. The coordinate conversion unit 40 calculates the coordinates (m ′ × n ′) of the partial image to be cut out at the next frame time based on the extracted image feature amount ξ. For example, when the object is moving in parallel or rotating, the coordinates (m × n) of the partial image of the previous frame are subjected to coordinate conversion for parallel movement or rotation by affine transformation or the like, and the next frame The coordinates (m ′ × n ′) of the partial image are calculated.

算出された次フレームの座標(m’×n’)をイメージャの全画像の中から順次読み出して新たな部分画像(m’×n’)の画像データを演算部30に入力する。   The calculated coordinates (m ′ × n ′) of the next frame are sequentially read from all the images of the imager, and image data of a new partial image (m ′ × n ′) is input to the arithmetic unit 30.

特許文献1が開示する撮像カメラ装置200では、演算部30で算出された画像特徴量ξをフィードバックすることにより、イメージャの全画像データを読み出すのではなく、必要な部分的な画像を読み出すことが可能となり、高空間解像度を維持しつつ高速リアルタイム性を実現することができる。   In the imaging camera device 200 disclosed in Patent Document 1, the image feature amount ξ calculated by the calculation unit 30 is fed back to read out a necessary partial image instead of reading out all image data of the imager. This makes it possible to achieve high-speed real-time performance while maintaining high spatial resolution.

他方、今日、撮像対象物を2次元画像としてだけでなく3次元画像として撮像する技術も開発されつつある。例えば、非特許文献1には、三角測量原理に基づいた3次元画像の生成方法が開示されている。
特開2003−319262号公報 “画像処理・実験の概要”、[online]、[平成17年4月1日検索]、インターネット<URL:https://www.image.esys.tsukuba.ac.jp/range_finder/gaiyo.html>
On the other hand, a technique for imaging an imaging object not only as a two-dimensional image but also as a three-dimensional image is being developed today. For example, Non-Patent Document 1 discloses a method for generating a three-dimensional image based on the triangulation principle.
JP 2003-319262 A “Outline of Image Processing / Experiment”, [online], [Search April 1, 2005], Internet <URL: https://www.image.esys.tsukuba.ac.jp/range_finder/gaiyo.html>

ところで、近時、光空間変調素子と呼ばれるデバイスが開発、実用化されプロジェクタ装置等に多く用いられるようになってきている。光空間変調素子には、液晶ライトバルブ等の透過型のものと、DMD(Digital Micro-mirror Device)と呼ばれる反射型のものがある。   By the way, recently, a device called a light spatial modulation element has been developed and put into practical use, and has been widely used in projector apparatuses and the like. There are two types of spatial light modulators: a transmissive type such as a liquid crystal light valve, and a reflective type called DMD (Digital Micro-mirror Device).

透過型の光空間変調素子を用いたプロジェクタ装置では、画像信号を液晶ライトバルブに印加し、光源からの光を液晶ライトバルブに透過させて前方のスクリーン等に画像を投影する。   In a projector apparatus using a transmissive light spatial modulation element, an image signal is applied to a liquid crystal light valve, and light from a light source is transmitted through the liquid crystal light valve to project an image on a front screen or the like.

一方、反射型の空間変調素子を用いたプロジェクタ装置は、光源からの光をDMDに反射させた後、前方のスクリーン等に画像を投影するものである。DMDには多数の微小なミラーが画素数に対応する数だけ配置されており、ミラーの角度を画素毎に変えることによりスクリーンに投影する光の量を画素毎にオン・オフさせ2次元画像を形成するものである。ミラーの角度の変化はオン・オフ信号によって2値的に変化するが、パルス幅変調によってオン・オフの周期を設定することにより人間の眼に対しては連続的な光の強度を表現することができる。また、画素毎、フレーム毎にパルス幅変調のデューティ比を変化させることにより、空間的にも時間的にも連続な動画像を形成することができる。   On the other hand, a projector apparatus using a reflective spatial modulation element projects an image on a front screen or the like after reflecting light from a light source to a DMD. The DMD has a large number of minute mirrors corresponding to the number of pixels. By changing the angle of the mirror for each pixel, the amount of light projected on the screen is turned on and off for each pixel, and a two-dimensional image is displayed. To form. Although the change in the mirror angle changes in a binary manner depending on the on / off signal, the continuous light intensity is expressed for the human eye by setting the on / off period by pulse width modulation. Can do. Further, by changing the duty ratio of the pulse width modulation for each pixel and each frame, a continuous moving image can be formed both spatially and temporally.

従来、液晶ライトバルブやDMD等の光空間変調素子は、専らプロジェクタ装置に用いられることが多かった。高輝度化、高速化のシステム技術の進展に伴って、プレゼンテーション用のプロジェクタに留まらず、大型テレビとして、或いは劇場映画用のプロジェクタとして多方面に活用されるようになってきているものの、基本的にはプロジェクタ装置の画像形成素子として用いられている。   Conventionally, light spatial modulation elements such as liquid crystal light valves and DMDs are often used exclusively for projector apparatuses. With the development of high-brightness and high-speed system technology, it is not only used as a projector for presentations, but is also widely used as a projector for large-sized TVs or theater movies. Is used as an image forming element of a projector apparatus.

本発明に係る視覚情報処理システムは、これらの光空間変調素子を従来の画像形成素子として用いるものではない。   The visual information processing system according to the present invention does not use these light spatial modulation elements as conventional image forming elements.

画像形成(撮像)そのものは、CMOS画像センサ等の固体撮像素子で行う。同時に、液晶ライトバルブやDMD等の光空間変調素子を用いて、固体撮像素子に入射する対象物からの光に対して空間的、時間的な変調を施すものである。   Image formation (imaging) itself is performed by a solid-state image sensor such as a CMOS image sensor. At the same time, spatial and temporal modulation is performed on the light from the object incident on the solid-state imaging device by using an optical spatial modulation device such as a liquid crystal light valve or DMD.

本発明に係る視覚情報処理システムは、光空間変調素子と固体撮像素子とを組み合わせることによって、従来では得られることのなかった新たな視覚情報処理を実現することを目的とする。   An object of the visual information processing system according to the present invention is to realize new visual information processing that has not been obtained in the past by combining a light spatial modulation element and a solid-state imaging element.

特に、特許文献1が開示する技術のようにイメージャ(固体撮像素子)で撮像された画像データから画像特徴量を抽出し、この画像特徴量に基づいたフィードバックループ中に光空間変調素子を設けることにより、対象物の動き、変化に適応した新たな視覚情報処理を実現することを目的とする。   In particular, an image feature amount is extracted from image data picked up by an imager (solid-state image pickup device) as in the technique disclosed in Patent Document 1, and an optical spatial modulation device is provided in a feedback loop based on the image feature amount. Thus, the object is to realize new visual information processing adapted to the movement and change of the object.

具体的には、本発明の目的のひとつは、光空間変調素子とイメージャ(固体撮像素子)とを組み合わせることによって、移動物も含めた撮像対象物の3次元画像を画像特徴量に基づいたフィードバック制御により高速にかつ高効率で生成することができる視覚情報処理システム及びその視覚情報処理方法を提供することにある。   Specifically, one of the objects of the present invention is to combine a spatial light modulation element and an imager (solid-state image sensor), thereby feeding back a three-dimensional image of an imaging object including a moving object based on an image feature amount. An object of the present invention is to provide a visual information processing system and a visual information processing method thereof that can be generated at high speed and with high efficiency by control.

また、本発明の他の目的は、光空間変調素子とイメージャとを組み合わせることによって、明暗の差が非常に大きく、かつその差が時間的、空間的に変化する対象物に対しても適正な明度のダイナミックレンジを確保することができる視覚情報処理システム及びその視覚情報処理方法を提供することにある。   Another object of the present invention is to combine a light spatial modulation element and an imager so that the difference between brightness and darkness is very large, and it is also suitable for an object whose difference changes temporally and spatially. An object of the present invention is to provide a visual information processing system and a visual information processing method thereof that can ensure a dynamic range of brightness.

また、本発明の他の目的は、光空間変調素子とイメージャとを組み合わせることによって、画像全体としては解像度をある程度犠牲にして高感度の画像データを提供しつつも、特定の固定或いは移動対象物については高解像度を実現することができる視覚情報処理システム及びその視覚情報処理方法を提供することにある。   Another object of the present invention is to provide a specific fixed or moving object while providing high-sensitivity image data by sacrificing resolution to some extent as a whole image by combining a spatial light modulator and an imager. Is to provide a visual information processing system and its visual information processing method capable of realizing high resolution.

また、本発明の他の目的は、光空間変調素子とイメージャとを組み合わせることによって、所定の輝度変動を画素毎に抽出し、輝度変動スペクトラム画像を生成することができる視覚情報処理システム及びその視覚情報処理方法を提供することにある。   Another object of the present invention is to provide a visual information processing system capable of extracting a predetermined luminance variation for each pixel and generating a luminance variation spectrum image by combining a spatial light modulator and an imager, and the visual information It is to provide an information processing method.

さらに、本発明の他の目的は、光空間変調素子とイメージャとを組み合わせることによって、画像全体、又は特定の固定若しくは移動対象物に対してエッジ強調等の空間フィルタ処理を施すことができる視覚情報処理システム及びその視覚情報処理方法を提供することにある。   Furthermore, another object of the present invention is to provide visual information that can perform spatial filter processing such as edge enhancement on an entire image or a specific fixed or moving object by combining a spatial light modulator and an imager. To provide a processing system and a visual information processing method thereof.

また、本発明に係る視覚情報処理システムは、指定された領域の画素を複数にグループ化し、前記各グループ内の複数の画素信号をそれぞれ異なる周波数でオン・オフして撮像対象物からの入射光を反射或いは透過させて出力する光空間変調素子と、前記光空間変調素子から出力された前記撮像対象物からの入射光を、前記光空間変調素子の解像度と同じ解像度のイメージャで撮像し、前記撮像対象物の特徴量を抽出する画像特徴抽出部とを備え、前記画像特徴抽出部は、前記特徴量に基づいて領域を指定し、その領域において、前記撮像対象物の輝度変動を前記異なる周波数に対応して周波数分解し、前記異なる周波数に対応したスペクトラム画像を生成することを特徴とする。本構成による視覚情報処理システムによれば、所定の輝度変動を画素毎に抽出し、輝度変動スペクトラム画像を生成することができる。 In addition, the visual information processing system according to the present invention groups pixels in a specified area into a plurality of groups, and turns on / off the plurality of pixel signals in each group at different frequencies, thereby making incident light from an imaging target object. A spatial light modulator that reflects or transmits light, and incident light from the imaging object output from the spatial light modulator is captured by an imager having the same resolution as the spatial light modulator, An image feature extraction unit that extracts a feature amount of the imaging target, wherein the image feature extraction unit designates a region based on the feature amount, and changes luminance variation of the imaging target in the region at the different frequency. The frequency decomposition is performed in response to the above, and a spectrum image corresponding to the different frequency is generated. According to the visual information processing system of this configuration, it is possible to extract a predetermined luminance variation for each pixel and generate a luminance variation spectrum image.

また、本発明に係る視覚情報処理方法は、指定された領域の画素が複数にグループ化された光空間変調素子によって、前記グループ内の複数の画素信号をそれぞれ異なる周波数でオン・オフして撮像対象物からの入射光を反射或いは透過させて出力するステップと、前記光空間変調素子から出力された前記撮像対象物からの入射光を、前記光空間変調素子の解像度と同じ解像度のイメージャで撮像し、前記撮像対象物の特徴量を抽出するステップとを備え、前記特徴量を抽出するステップは、前記特徴量に基づいて領域を指定し、その領域において、前記撮像対象物の輝度変動を前記異なる周波数に対応して周波数分解し、前記異なる周波数に対応したスペクトラム画像を生成する処理を含むことを特徴とする。本方法による視覚情報処理方法によれば、所定の輝度変動を画素毎に抽出し、輝度変動スペクトラム画像を生成することができる。 In addition, the visual information processing method according to the present invention performs imaging by turning on and off a plurality of pixel signals in the group at different frequencies by a spatial light modulation element in which pixels in a specified region are grouped into a plurality of groups. Reflecting or transmitting incident light from the object and outputting the incident light from the imaging object output from the light spatial modulation element with an imager having the same resolution as the resolution of the light spatial modulation element And extracting the feature amount of the imaging target, wherein the step of extracting the feature amount specifies a region based on the feature amount, and the luminance variation of the imaging target is determined in the region. It includes a process of generating a spectrum image corresponding to the different frequency by performing frequency decomposition corresponding to the different frequency. According to the visual information processing method according to the present method, it is possible to extract a predetermined luminance variation for each pixel and generate a luminance variation spectrum image.

本発明に係る視覚情報処理システム及びその視覚情報処理方法によれば、光空間変調素子とイメージャとを組み合わせることによって、従来では得られることのなかった新たな視覚情報処理を実現することができ、特に、画像特徴量に基づいたフィードバックループ中に光空間変調素子を設けることにより、対象物の動き、変化に適応した新たな視覚情報処理を実現することが可能となる。   According to the visual information processing system and the visual information processing method according to the present invention, by combining the light spatial modulation element and the imager, it is possible to realize new visual information processing that has not been obtained conventionally, In particular, by providing an optical spatial modulation element in the feedback loop based on the image feature amount, it is possible to realize new visual information processing adapted to the movement and change of the object.

本発明に係る視覚情報処理システムおよび視覚情報処理方法の実施形態について、添付図面を参照して説明する。   Embodiments of a visual information processing system and a visual information processing method according to the present invention will be described with reference to the accompanying drawings.

(1)第1の実施形態
図1は、本発明の第1の実施形態に係る視覚情報処理システム1のシステム構成例を示す図である。第1の実施形態に係る視覚情報処理システム1は、撮像対象物の3次元画像を高速、かつ、高効率で生成するものである。
(1) 1st Embodiment FIG. 1: is a figure which shows the system configuration example of the visual information processing system 1 which concerns on the 1st Embodiment of this invention. The visual information processing system 1 according to the first embodiment generates a three-dimensional image of an imaging object at high speed and with high efficiency.

視覚情報処理システム1は、画像特徴抽出部2と光パターン照射部3とを備えて構成されている。   The visual information processing system 1 includes an image feature extraction unit 2 and a light pattern irradiation unit 3.

このうち、画像特徴抽出部2は、図15に示した撮像カメラ装置200と同様の構成を備えるものであり、高空間解像度を有するイメージャ(固体撮像素子)20と、演算部30と、座標変換部40とを備えている。イメージャ20は、例えば所定の画素数を有するCMOS画像センサである。   Among these, the image feature extraction unit 2 has the same configuration as that of the imaging camera device 200 shown in FIG. 15, and includes an imager (solid-state imaging device) 20 having a high spatial resolution, a calculation unit 30, and coordinate conversion. Part 40. The imager 20 is a CMOS image sensor having a predetermined number of pixels, for example.

演算部30には、イメージャ20の全画像(M×N)の中から内、座標変換部40で指定された部分画像(m×n)の画像データ(現在のフレームタイムの画像データ)が切り出されて入力される。演算部30では、部分画像のデータから画像特徴量ξを抽出する演算を行う。画像特徴量ξとは、例えば、部分画像データに含まれる対象物の大きさ、位置、姿勢角等、或いはこれらの変化量等である。座標変換部40では、抽出された画像特徴量ξに基づいて、次のフレームタイムに切り出すべき部分画像の座標(m’×n’)を計算する。例えば、対象物が平行移動や回転移動している場合には、前フレームの部分画像の座標(m×n)に対してアフィン変換等によって平行移動や回転移動をさせる座標変換を施し、次フレームの部分画像の座標(m’×n’)を算出する。   Image data (image data at the current frame time) of the partial image (m × n) designated by the coordinate conversion unit 40 is extracted from the entire image (M × N) of the imager 20 in the calculation unit 30. Is input. The calculation unit 30 performs a calculation for extracting the image feature amount ξ from the partial image data. The image feature amount ξ is, for example, the size, position, posture angle, etc. of the object included in the partial image data, or the amount of change thereof. The coordinate conversion unit 40 calculates the coordinates (m ′ × n ′) of the partial image to be cut out at the next frame time based on the extracted image feature amount ξ. For example, when the object is moving in parallel or rotating, the coordinates (m × n) of the partial image of the previous frame are subjected to coordinate conversion for parallel movement or rotation by affine transformation or the like, and the next frame The coordinates (m ′ × n ′) of the partial image are calculated.

算出された次フレームの座標(m’×n’)をイメージャの全画像の中から順次読み出して新たな部分画像(m’×n’)の画像データを演算部30に入力する。   The calculated coordinates (m ′ × n ′) of the next frame are sequentially read from all the images of the imager, and image data of a new partial image (m ′ × n ′) is input to the arithmetic unit 30.

特許文献1が開示する撮像カメラ装置200では、演算部30で算出された画像特徴量ξをフィードバックすることにより、イメージャの全画像データを読み出すのではなく、必要な部分的な画像を読み出すことが可能となり、高空間解像度を維持しつつ高速リアルタイム性を実現することができる。   In the imaging camera device 200 disclosed in Patent Document 1, the image feature amount ξ calculated by the calculation unit 30 is fed back to read out a necessary partial image instead of reading out all image data of the imager. This makes it possible to achieve high-speed real-time performance while maintaining high spatial resolution.

他方、光パターン照射部3は、光空間変調素子10と、光源12と、光パターン生成部11を備えて構成されている。   On the other hand, the light pattern irradiation unit 3 includes a light spatial modulation element 10, a light source 12, and a light pattern generation unit 11.

光パターン生成部11は、画像特徴抽出部2からフィードバックされる画像特徴量ξにも基づいて、各種の光パターン信号を生成し光空間変調素子10に出力する。   The light pattern generation unit 11 generates various light pattern signals based on the image feature quantity ξ fed back from the image feature extraction unit 2, and outputs the light pattern signal to the light spatial modulation element 10.

光空間変調素子10では、光源12から放射光を光パターン信号に基づいて変調することにより、各種の光パターンを生成する。光空間変調素子10は、大別して反射型の光空間変調素子10aと透過型の光空間変調素子10bが存在する。反射型の光空間変調素子10aとしては、例えば、デジタルマイクロミラーデバイス(以下、DMDという)がある。また、透過型の光空間変調素子10bとしては、例えば、透過型液晶ライトバルブがある。   The spatial light modulator 10 generates various light patterns by modulating the radiated light from the light source 12 based on the light pattern signal. The spatial light modulator 10 is roughly divided into a reflective spatial light modulator 10a and a transmissive spatial light modulator 10b. Examples of the reflective spatial light modulator 10a include a digital micromirror device (hereinafter referred to as DMD). Further, as the transmissive light spatial modulation element 10b, for example, there is a transmissive liquid crystal light valve.

反射型、透過型のいずれの形態の光空間変調素子10も反射面或いは透過面に多数の画素を形成しており、反射光あるいは透過光の強度を画素毎に制御することができる。また、いずれの光空間変調素子10も画素毎の光の強度制御を時間的にも高速で変化させることが可能である。この意味で、光空間変調素子10は、時空間変調素子と呼ぶこともできる。   The spatial light modulation element 10 of either the reflection type or the transmission type has a large number of pixels on the reflection surface or transmission surface, and the intensity of the reflection light or transmission light can be controlled for each pixel. Also, any of the spatial light modulators 10 can change the light intensity control for each pixel at a high speed in terms of time. In this sense, the spatial light modulator 10 can also be called a spatiotemporal modulator.

上記のように構成された視覚情報処理システム1の3次元画像の生成動作について説明する。   An operation of generating a three-dimensional image of the visual information processing system 1 configured as described above will be described.

図2は、視覚情報処理システム1の3次元画像生成の動作概念を説明する第1の図である。まず、光空間変調素子10によって光源12の放射光を空間的に変調し、所定の光パターンを生成し、この光パターンを、光学系を介して撮像対象物100に照射する。   FIG. 2 is a first diagram illustrating the operation concept of the three-dimensional image generation of the visual information processing system 1. First, the emitted light from the light source 12 is spatially modulated by the light spatial modulation element 10 to generate a predetermined light pattern, and the imaging object 100 is irradiated with this light pattern via the optical system.

光空間変調素子10が反射型の場合には、光空間変調素子10の前方側に光源12を配置し、透過型の場合には光空間変調素子10の後方側に光源12を配置すればよい。   When the light spatial modulation element 10 is a reflection type, the light source 12 may be disposed on the front side of the light spatial modulation element 10, and when the light spatial modulation element 10 is a transmission type, the light source 12 may be disposed on the rear side of the light spatial modulation element 10. .

図2に例示した光パターンは、複数の縦縞からなる縦縞パターンが撮像対象物100に照射されている状態を示している。   The light pattern illustrated in FIG. 2 shows a state in which the imaging object 100 is irradiated with a vertical stripe pattern composed of a plurality of vertical stripes.

イメージャ20には、光学系を介して、撮像対象物100からの像が入射されるが、この際撮像対象物100と光パターンとが重畳した像が入射光として入射されることになる。イメージャ20で撮像された画像データは画像特徴抽出部2の演算部30に入力される。   An image from the imaging object 100 is incident on the imager 20 via the optical system. At this time, an image in which the imaging object 100 and the light pattern are superimposed is incident as incident light. Image data captured by the imager 20 is input to the calculation unit 30 of the image feature extraction unit 2.

演算部30では、光パターンが重畳された複数の画像データから3次元画像を生成する。この際、イメージャ20から取り出される画像データは、イメージャ20の全画素領域であってもよいし、前述したようにイメージャ20の部分領域を取り出した画像データであっても良い。部分領域の画像データを取り出す場合には、全画素領域の画像データを取り出す場合に比べてより高速(高フレームレート)の処理が可能となる。   The computing unit 30 generates a three-dimensional image from a plurality of image data on which light patterns are superimposed. At this time, the image data extracted from the imager 20 may be the entire pixel area of the imager 20 or image data obtained by extracting a partial area of the imager 20 as described above. When extracting image data of a partial area, it is possible to perform processing at a higher speed (high frame rate) than when extracting image data of all pixel areas.

演算部30では、さらに画像特徴量ξが抽出される。画像特徴量ξは、例えば、撮像対象物の位置(重心位置)、大きさ、姿勢角等である。また、これらの変化量(速度)等である。   In the calculation unit 30, an image feature amount ξ is further extracted. The image feature amount ξ is, for example, the position (center of gravity position), size, posture angle, etc. of the imaging object. In addition, these are the amount of change (speed).

この画像特徴量ξをフィードバックし光パターンの種類や数等を適応制御することによって、従来の3次元画像の生成方法に比べて高速でかつ精度の高い3次元画像を生成することができる。   By feeding back the image feature quantity ξ and adaptively controlling the type and number of light patterns, a three-dimensional image can be generated at a higher speed and with higher accuracy than the conventional three-dimensional image generation method.

図3は、従来の3次元画像の生成方法について説明した図である。詳細については、例えば非特許文献1等に記載されているため、ここでは概略の説明に留める。   FIG. 3 is a diagram for explaining a conventional method for generating a three-dimensional image. The details are described in, for example, Non-Patent Document 1 and the like, so only a brief description is given here.

まず、複数、図3の例ではk種k枚のそれぞれ異なる光パターン300を1組として用意し、これらの光パターンを撮像対象物100に対して順次照射する。イメージャ20では光パターンと撮像対象物が重畳された画像データがk枚取得されることになる。このk枚の画像データを処理することにより1枚の3次元画像(図示せず)が得られることになる。   First, in the example of FIG. 3, k types and k different light patterns 300 are prepared as one set, and these light patterns are sequentially irradiated onto the imaging object 100. The imager 20 acquires k pieces of image data in which the light pattern and the imaging object are superimposed. One k-dimensional image (not shown) is obtained by processing the k pieces of image data.

連続的に撮像する場合には、上記の処理を繰り返すことになる。従来の方法では、フレーム毎に同じk種k枚の光パターンを撮像対象物に照射するものとしていた。   In the case of continuous imaging, the above process is repeated. In the conventional method, the same k types and k light patterns are irradiated to the imaging target for each frame.

光パターンの種類や数は、撮像対象物の大きさや解像度(空間解像度)に依存するものである。例えば、図3で示した1組の光パターンは、2つの縦縞をもつ最も粗い間隔(これを最粗間隔という)の縞模様から、最も蜜な間隔(これを最密間隔という)の縞模様まで順次縦縞の間隔が1/2となっていくパターンで構成されている。   The types and number of light patterns depend on the size and resolution (spatial resolution) of the imaging object. For example, the set of light patterns shown in FIG. 3 is a striped pattern having the two most vertical stripes, which is the coarsest interval (this is called the coarsest interval), and the most dense interval (this is called the closest interval). In this pattern, the vertical stripes are successively halved.

この場合、最粗間隔は、撮像対象物の大きさにほぼ一致させる必要がある。一方、最密間隔は空間解像度にほぼ一致する。したがって、同じ大きさの撮像対象物を撮像する場合、高い空間解像度を得ようとすると、最密間隔の小さな光パターンが必要となり、結果的に光パターンの種類、数が増加することになる。また、同じ解像度の場合であっても、撮像対象物が大きいほど、或いは撮像対象範囲が広い程最粗間隔を大きくする必要があるため、この場合にも光パターンの種類、数が増加することになる。   In this case, the coarsest interval needs to substantially match the size of the object to be imaged. On the other hand, the closest interval substantially matches the spatial resolution. Therefore, when imaging an imaging object of the same size, if a high spatial resolution is to be obtained, a light pattern with a small close interval is required, resulting in an increase in the types and number of light patterns. Even in the case of the same resolution, the larger the imaging target or the wider the imaging target range, the larger the coarsest interval needs to be increased. In this case also, the types and number of light patterns increase. become.

従来の3次元画像の生成方法では、画一的な光パターンを生成する形態であるため、撮像対象物の情報が未知の場合や、撮像対象物が移動する等変化した場合には、最適な光パターンとすることが困難であった。   In the conventional 3D image generation method, a uniform light pattern is generated. Therefore, when the information of the imaging target is unknown, or when the imaging target is changed, it is optimal. It was difficult to obtain an optical pattern.

これに対して、本実施形態に係る視覚情報処理システム1では、図1に示したように画像特徴量ξを抽出可能に構成されているため、この画像特徴量ξをフィードバックすることにより、所定の評価関数を最適とする光パターンをアダプティブに生成する(適応制御)することが可能となる。   In contrast, the visual information processing system 1 according to the present embodiment is configured to be able to extract the image feature quantity ξ as shown in FIG. It is possible to adaptively generate (adaptive control) a light pattern that optimizes the evaluation function.

図4は、本実施形態に係る視覚情報処理システム1による光パターンの生成概念を模式的に示したものである。例えば、Nフレーム目の光パターン300に基づいてイメージャ20では複数の画像データ301が生成され、これに基づいてNフレーム目の3次元画像が生成される。   FIG. 4 schematically shows the concept of light pattern generation by the visual information processing system 1 according to the present embodiment. For example, the imager 20 generates a plurality of image data 301 based on the light pattern 300 of the Nth frame, and generates a three-dimensional image of the Nth frame based on this.

この3次元画像に基づいて、画像特徴抽出部2において画像特徴量ξが抽出される。この画像特徴量ξを用いて評価関数を最適化する光パターンを生成することができる。   Based on this three-dimensional image, the image feature quantity ξ is extracted by the image feature extraction unit 2. A light pattern that optimizes the evaluation function can be generated using the image feature amount ξ.

例えば、評価関数として処理時間を設定し処理時間を最小とするような場合には、所定の解像度を維持する範囲で光パターンの種類、数が最小となればよい。この際、画像特徴量ξとして、撮像対象物の位置、大きさをフィードバックすることにより、光パターンの最粗間隔を広い範囲から撮像対象物の大きさの範囲にまで縮小することが可能となり、結果的に光パターンの種類、枚数が削減され処理時間が短縮されることになる。   For example, when the processing time is set as the evaluation function and the processing time is minimized, the type and number of light patterns may be minimized within a range in which a predetermined resolution is maintained. At this time, by feeding back the position and size of the imaging object as the image feature amount ξ, it becomes possible to reduce the coarsest interval of the light pattern from a wide range to the size range of the imaging object, As a result, the type and number of light patterns are reduced, and the processing time is shortened.

また、従来の3次元画像の生成方法では、光パターンの種類、数が多かったため、撮像対象物が移動した場合にはフレーム内での変化により正確な3次元画像の生成が困難であった。これに対して、本実施形態に係る視覚情報処理システム1では、上述したように光パターンの種類、数が削減され、フレームタイムが短縮化されるため、移動対象物であっても正確な3次元画像の生成、或いは3次元情報の抽出が可能となる。   Further, in the conventional three-dimensional image generation method, since there are many types and numbers of light patterns, it is difficult to generate an accurate three-dimensional image due to changes in the frame when the imaging target moves. On the other hand, in the visual information processing system 1 according to the present embodiment, as described above, the type and number of light patterns are reduced and the frame time is shortened. A three-dimensional image can be generated or three-dimensional information can be extracted.

さらに、本実施形態に係る視覚情報処理システム1では、画像特徴量ξとして撮像対象物の移動の有無、移動速度等を検出することが可能であるため、動的な撮像対象物に対してより柔軟な処理が可能となる。   Furthermore, in the visual information processing system 1 according to the present embodiment, it is possible to detect the presence / absence of movement of the imaging target, the moving speed, etc. as the image feature amount ξ. Flexible processing is possible.

図5は、動的な撮像対象物に対する処理の一例を示したものである。図5(a)は、画像全体に動きがない場合である。この場合には、フレーム時間が多少長くても対象物の動きによる誤差は少ないため、最密間隔を小さくした空間解像度の高い光パターンを用いることができる。   FIG. 5 shows an example of processing for a dynamic imaging object. FIG. 5A shows a case where there is no movement in the entire image. In this case, even if the frame time is somewhat long, there is little error due to the movement of the object, so that it is possible to use a light pattern with high spatial resolution in which the closest interval is reduced.

一方、図5(b)は、撮像範囲の一部に移動物400が出現してきた状況を示している。画像特徴抽出部2では移動物400の位置、大きさ、速度等を画像特徴量ξとして抽出することができる。これらの画像特徴量ξを光パターン生成部3にフィードバックすることにより、移動物400の周辺の領域(動きのある領域)401のみ異なるパターンの光パターンを生成することができる。例えば、動きのある領域の縦縞の密度をその周辺の領域よりも粗くした光パターンに変更する。   On the other hand, FIG. 5B shows a situation where the moving object 400 appears in a part of the imaging range. The image feature extraction unit 2 can extract the position, size, speed, and the like of the moving object 400 as the image feature amount ξ. By feeding back these image feature amounts ξ to the light pattern generation unit 3, it is possible to generate a light pattern having a different pattern only in the region 401 (region with motion) around the moving object 400. For example, the light pattern is changed to a light pattern in which the density of vertical stripes in a region with movement is made coarser than the surrounding region.

変更前の光パターンでは、縦縞の間隔が移動量に比べて大きすぎるため、連続的に移動物400の3次元画像を生成することは困難であった。これに対して、変更後の光パターンでは、移動物400の周辺の領域401において縦縞の間隔を粗くすることによって、空間解像度は若干低下するものの、連続フレームでの3次元計測が可能となる。また、動きの無い周辺領域については、変更前と同様に高い空間解像度を維持することができる。   In the light pattern before the change, since the interval between the vertical stripes is too large compared to the movement amount, it is difficult to continuously generate a three-dimensional image of the moving object 400. On the other hand, in the light pattern after the change, the spatial resolution is slightly reduced by roughening the interval between the vertical stripes in the region 401 around the moving object 400, but three-dimensional measurement in continuous frames is possible. In addition, the high spatial resolution can be maintained for the peripheral area where there is no movement, as before the change.

光空間変調素子10を用いた光パターンの生成では、2次元の画素領域上に原理的には任意の形状の光パターンを形成することができる。従って、従来のように全領域で一様な縦縞パターンだけではなく、1つ或いは複数の部分領域のパターンを周囲のパターンと異なった形態で形成することができ、この部分領域を移動対象物の移動に追尾して移動させることも可能となる。   In generation of a light pattern using the light spatial modulation element 10, a light pattern having an arbitrary shape can be formed in principle on a two-dimensional pixel region. Therefore, it is possible to form not only a vertical stripe pattern that is uniform in the entire area as in the prior art but also a pattern of one or a plurality of partial areas in a form different from the surrounding pattern. It is also possible to follow the movement and move it.

(2)第2の実施形態
図6は、本発明の第2ないし第5の実施形態に係る視覚情報処理システム1aないし1dにおいて共通して用いられる光空間変調素子とイメージャの関係を示した図である。第1の実施形態における光空間変調素子は、光源からの放射光を空間的に変調する形態として用いている。これに対して、第2ないし第5の実施形態における光空間変調素子は、図6に示したように、撮像対象物からの入射光を空間的に変調する形態である。この場合にも第1の実施形態と同様に、反射型と透過型の2つの形態をとり得る。図6(a)は、反射型の光空間変調素子10a、例えば、DMDを用いた形態である。また、図6(b)は、透過型の光空間変調素子10b、例えば、透過型液晶ライトバルブを用いた形態である。いずれの形態も、撮像対象物100からの入射光を光空間変調素子10a、10bで画素毎に変調(空間変調)した後、イメージャ20に出力する形態である。
(2) Second Embodiment FIG. 6 is a diagram showing a relationship between an optical spatial modulation element and an imager commonly used in visual information processing systems 1a to 1d according to second to fifth embodiments of the present invention. It is. The spatial light modulator in the first embodiment is used as a form for spatially modulating the emitted light from the light source. On the other hand, the spatial light modulators in the second to fifth embodiments are configured to spatially modulate the incident light from the imaging object as shown in FIG. Also in this case, as in the first embodiment, two forms of a reflection type and a transmission type can be taken. FIG. 6A shows a form using a reflective spatial light modulator 10a, for example, DMD. FIG. 6B shows a form using a transmissive spatial light modulator 10b, for example, a transmissive liquid crystal light valve. In any form, incident light from the imaging object 100 is modulated (spatial modulation) for each pixel by the spatial light modulation elements 10a and 10b, and then output to the imager 20.

以下の説明では、図面上は透過型の光空間変調素子を用いているが、説明の重複を避けるためであり、反射型の光空間変調素子を除外するものではない。   In the following description, a transmissive spatial light modulator is used in the drawings, but this is for avoiding duplication of description, and does not exclude a reflective spatial light modulator.

図7は、第2の実施形態に係る視覚情報処理システム1aの構成例を示した図である。第2の実施形態に係る視覚情報処理システム1aは、反射対象物100からの入射光の露光時間を画素毎に制御可能に構成されたものである。   FIG. 7 is a diagram illustrating a configuration example of the visual information processing system 1a according to the second embodiment. The visual information processing system 1a according to the second embodiment is configured to be able to control the exposure time of incident light from the reflecting object 100 for each pixel.

視覚情報処理システム1aは、光空間変調素子10と、画像特徴抽出部2aと、露光時間制御部15を備えて構成されている。   The visual information processing system 1a includes a light spatial modulation element 10, an image feature extraction unit 2a, and an exposure time control unit 15.

光空間変調素子10は露光時間制御部15からの制御信号に基づいて、画素毎に露光時間を制御し、反射光或いは透過光を画像特徴抽出部2aのイメージャ20に出力するものである。反射型の光空間変調素子10a、例えば、DMDの場合にはオン時間、即ちマイクロミラーの反射面がイメージャ20の方向に向いている時間を画素毎に制御することにより露光時間を画素毎に制御することができる。また、透過型の光空間変調素子10bの場合には画素に印加する電圧を制御することにより透過量を画素毎に制御することにより等価的に露光時間を画素毎に制御することができる。   The spatial light modulator 10 controls the exposure time for each pixel based on a control signal from the exposure time control unit 15, and outputs reflected light or transmitted light to the imager 20 of the image feature extraction unit 2a. In the case of the reflection type spatial light modulator 10a, for example, DMD, the exposure time is controlled for each pixel by controlling the on-time, that is, the time for which the reflection surface of the micromirror is directed toward the imager 20 for each pixel. can do. In the case of the transmission type spatial light modulator 10b, the exposure time can be equivalently controlled for each pixel by controlling the amount of transmission for each pixel by controlling the voltage applied to the pixel.

画像特徴抽出部2aは、基本的構成は第1の実施形態に係る画像特徴抽出部2と同様のものである。但し、第2の実施形態では、演算部30で求める画像特徴量ξとして輝度を含んだものとしている。   The basic configuration of the image feature extraction unit 2a is the same as that of the image feature extraction unit 2 according to the first embodiment. However, in the second embodiment, it is assumed that the image feature amount ξ obtained by the calculation unit 30 includes luminance.

図8は、視覚情報処理システム1aによる露光時間制御の動作概念を示した図である。イメージャ20単体では、素子精度等の問題から明るさに対するダイナミックレンジに限界があり、輝度が極めて高い対象物と輝度が非常に低い対象物とを同時に鮮明な画像で撮像することは一般に困難である。イメージャ20の画素毎に感度制御回路等を設ける形態も原理的には可能であるが、感度制御回路等の実装上の制約から画素数の低減や画素面積の低減となり、分解能や感度といった本来のイメージャの性能を犠牲にすることとなる。   FIG. 8 is a diagram showing an operation concept of exposure time control by the visual information processing system 1a. The imager 20 alone has a limit on the dynamic range with respect to brightness due to problems such as element accuracy, and it is generally difficult to capture an object with extremely high luminance and an object with very low luminance simultaneously with a clear image. . Although it is possible in principle to provide a sensitivity control circuit or the like for each pixel of the imager 20, the number of pixels and the pixel area are reduced due to mounting restrictions of the sensitivity control circuit and the like. The performance of the imager is sacrificed.

これに対して、本実施形態に係る視覚情報処理システム1aにおいては、光空間変調素子10によって露光時間を制御し、露光時間が制御された反射光或いは透過光を従来のイメージャ20へ出力する形態である。イメージャ20で撮像された画像データの輝度を画素毎に画像特徴量ξとして抽出し、露光時間制御部15を介して光空間変調素子10にフィードバックする。イメージャ20で撮像された画像データの特定領域の輝度が高すぎる場合にはその領域の画素の露光時間を減少させ、逆に他の特定領域の輝度が低すぎる場合にはその領域の画像の露光時間を増加させる。このようにイメージャ20で観測された画像の輝度を画素単位で適応制御することにより、実質的に極めて広いダイナミックレンジを実現することが可能となる。   On the other hand, in the visual information processing system 1a according to the present embodiment, the exposure time is controlled by the light spatial modulation element 10, and reflected light or transmitted light whose exposure time is controlled is output to the conventional imager 20. It is. The brightness of the image data captured by the imager 20 is extracted as an image feature amount ξ for each pixel and fed back to the light spatial modulation element 10 via the exposure time control unit 15. If the brightness of a specific area of the image data captured by the imager 20 is too high, the exposure time of the pixels in that area is decreased. Conversely, if the brightness of another specific area is too low, the image exposure in that area is exposed. Increase time. As described above, by adaptively controlling the luminance of the image observed by the imager 20 in units of pixels, it is possible to realize a substantially wide dynamic range.

また、本実施形態では、イメージャ20自体は従来の形態のものがそのまま使用できるため、イメージャ20が本来備える解像度や感度を犠牲にすることもない。   In this embodiment, since the imager 20 itself can be used as it is, the resolution and sensitivity inherent in the imager 20 are not sacrificed.

第2の実施形態に係る視覚情報処理システム1aの変形例として、空間感度の自動補正機能を備えた視覚情報処理システム1aとすることができる。   As a modification of the visual information processing system 1a according to the second embodiment, a visual information processing system 1a having an automatic spatial sensitivity correction function can be used.

一般に、イメージャ20は画素領域の全範囲において完全に均一な感度を有するとは限らず、空間的に感度に差がある。また、カラー撮像の場合に用いられるRGBやCMY等のカラーフィルタアレイも同様に空間的な感度(透過率)の不均一性を有している。   In general, the imager 20 does not necessarily have completely uniform sensitivity over the entire range of the pixel region, and there is a spatial difference in sensitivity. Similarly, color filter arrays such as RGB and CMY used for color imaging also have spatial sensitivity (transmittance) non-uniformity.

本実施形態に係る視覚情報処理システム1aでは、光空間変調素子10によって画素毎の露光時間を制御することが可能であるため、イメージャ20やカラーフィルタアレイの空間的な不均一性を容易に補正することができる。   In the visual information processing system 1a according to this embodiment, since the exposure time for each pixel can be controlled by the light spatial modulation element 10, the spatial nonuniformity of the imager 20 and the color filter array can be easily corrected. can do.

また、第2の実施形態に係る視覚情報処理システム1aの他の変形例として、室内での撮像等の場合に生じる、照明光の位置の偏りによる輝度の不均一性を補正する形態とすることもできる。照明光に近い領域から遠い領域に向かって輝度が徐々に下がるような場合、特に2値化画像を生成する際には輝度が均一になるように補正する必要がある。本実施形態に係る視覚情報処理システム1aでは、イメージャ20の輝度情報をモニタし、光空間変調素子10の露光時間を適応制御することにより、照明光の位置によらず画素全体で均一な輝度の画像データを生成することができる。   Further, as another modification example of the visual information processing system 1a according to the second embodiment, a form for correcting luminance non-uniformity due to a deviation in the position of illumination light, which occurs in the case of indoor imaging or the like, is adopted. You can also. When the luminance gradually decreases from a region close to the illumination light toward a region far from the illumination light, it is necessary to correct the luminance to be uniform especially when generating a binary image. In the visual information processing system 1a according to this embodiment, the luminance information of the imager 20 is monitored, and the exposure time of the light spatial modulation element 10 is adaptively controlled, so that the entire pixel has a uniform luminance regardless of the position of the illumination light. Image data can be generated.

(3)第3の実施形態
図9は、第3の実施形態に係る視覚情報処理システム1bの構成例を示した図である。第3の実施形態に係る視覚情報処理システム1bは、イメージャ20と光空間変調素子10とを組み合わせることにより、イメージャ20の解像度の向上させる処理を行なうように構成されたものである。
(3) Third Embodiment FIG. 9 is a diagram illustrating a configuration example of a visual information processing system 1b according to a third embodiment. The visual information processing system 1b according to the third embodiment is configured to perform processing for improving the resolution of the imager 20 by combining the imager 20 and the spatial light modulator 10.

視覚情報処理システム1bは、光空間変調素子10と、画像特徴抽出部2bとを備えて構成されている。   The visual information processing system 1b includes a light spatial modulation element 10 and an image feature extraction unit 2b.

本実施形態に係る光空間変調素子10は、画像特徴抽出部2bの画素切換部16からの制御信号に基づいて、入射光を反射或いは透過させる画素を所定のグループ内で順次切り替えてイメージャ20へ出力するものである。   The spatial light modulator 10 according to the present embodiment sequentially switches pixels that reflect or transmit incident light within a predetermined group to the imager 20 based on a control signal from the pixel switching unit 16 of the image feature extraction unit 2b. Output.

画像特徴抽出部2bは、基本的構成は第1の実施形態に係る画像特徴抽出部2と同様のものである。但し、第3の実施形態では、演算部30で求める画像特徴量ξとして特定の撮像対象物の領域情報を含んだものとしている。   The basic configuration of the image feature extraction unit 2b is the same as that of the image feature extraction unit 2 according to the first embodiment. However, in the third embodiment, it is assumed that the image feature amount ξ obtained by the calculation unit 30 includes area information of a specific imaging target.

図10は、視覚情報処理システム1bによる高解像度処理の動作概念を示した図である。   FIG. 10 is a diagram illustrating an operation concept of high-resolution processing by the visual information processing system 1b.

第3の実施形態に係る視覚情報処理システム1bでは、光空間変調素子10の解像度の方がイメージャ20の解像度よりも高く構成されている。図10の例では、光空間変調素子10は16×16(256)画素、イメージャ20は4×4(16)画素であり、光空間変調素子10はイメージャ20に対して16倍の解像度を有している。   In the visual information processing system 1b according to the third embodiment, the resolution of the spatial light modulator 10 is configured to be higher than the resolution of the imager 20. In the example of FIG. 10, the spatial light modulator 10 has 16 × 16 (256) pixels, the imager 20 has 4 × 4 (16) pixels, and the spatial light modulator 10 has a resolution 16 times that of the imager 20. is doing.

例えば、照明等の無い暗い場所に設置された対象物を撮像する場合等では、より感度の高いイメージャ20が求められる。一般にイメージャ20の感度を向上させるには、画素面積の増大が最も有効であり、高感度イメージャは通常のイメージャに比べて画素面積を大きくとったものが多い。このため、一般に高感度イメージャは所定エリア内の画素数が制約され、解像度は通常のイメージャに比べて低いものが多い。   For example, when imaging an object installed in a dark place without illumination or the like, an imager 20 with higher sensitivity is required. In general, increasing the pixel area is the most effective for improving the sensitivity of the imager 20, and many high-sensitivity imagers have a larger pixel area than a normal imager. For this reason, in general, a high-sensitivity imager is limited in the number of pixels in a predetermined area, and the resolution is often lower than that of a normal imager.

第3の実施形態に係る視覚情報処理システム1bでは、このような高感度かつ低解像度のイメージャであっても、光空間変調素子10と組み合わせることにより、高解像度を実現するものである。   In the visual information processing system 1b according to the third embodiment, even such a high-sensitivity and low-resolution imager is combined with the light spatial modulation element 10 to achieve high resolution.

図10に例示したイメージャ20の解像度は、光空間変調素子10の解像度に比べて1/16となっている。即ち、光空間変調素子10の16画素がイメージャ20の1画素に対応する例である。   The resolution of the imager 20 illustrated in FIG. 10 is 1/16 compared to the resolution of the spatial light modulator 10. That is, in this example, 16 pixels of the spatial light modulator 10 correspond to one pixel of the imager 20.

まず、光空間変調素子10の画素を16(4×4)素子毎にグループ化する。そして、グループ内の1画素のみを順次オンしていく。図10の例では、(4×4)素子のグループの左上の画素から順次切り替えて(スキャンして)オンとしていく。他のグループについても同様の切り替えシーケンスで画素をオンにしていく。   First, the pixels of the spatial light modulation element 10 are grouped every 16 (4 × 4) elements. Then, only one pixel in the group is sequentially turned on. In the example of FIG. 10, the pixel is sequentially switched (scanned) and turned on from the upper left pixel of the (4 × 4) element group. For other groups, the pixels are turned on in the same switching sequence.

このような画素の切り替え方法によって、1画素の切り替え毎に各グループからグループの数に対応した数の画素が出力されることになる。図10の例では、光空間変調素子10の16グループから各1画素がオンとなり、合計16画素がイメージャ20に出力される。イメージャ20ではこの16画素によってまず低解像度の画像データが1枚生成される。光空間変調素子10では、グループ内の画素を順次切り替えてオンとし、イメージャ20では低解像度の画像データを順次生成する。グループ内の全画素の切り替えが終了した時点で、イメージャ20では16枚の低解像度画像を生成されることになる。   With such a pixel switching method, the number of pixels corresponding to the number of groups is output from each group every time one pixel is switched. In the example of FIG. 10, one pixel from each of the 16 groups of the spatial light modulators 10 is turned on, and a total of 16 pixels are output to the imager 20. The imager 20 first generates one piece of low-resolution image data using these 16 pixels. In the spatial light modulator 10, the pixels in the group are sequentially switched on, and the imager 20 sequentially generates low-resolution image data. When switching of all the pixels in the group is completed, the imager 20 generates 16 low-resolution images.

次にこれらの16枚の低解像度画像データを合成することにより、1枚の高解像度画像データを生成する。16枚の各低解像度画像データとグループ内の画素位置とは1対1に対応しているため、16枚の低解像度画像データの合成により、1枚の高解像度画像データの生成が可能である。本例では、イメージャ20の解像度の16倍の高解像度化が可能となる。   Next, by combining these 16 pieces of low resolution image data, one piece of high resolution image data is generated. Since each of the 16 pieces of low-resolution image data and the pixel positions in the group have a one-to-one correspondence, it is possible to generate one piece of high-resolution image data by combining the 16 pieces of low-resolution image data. . In this example, the resolution can be increased to 16 times the resolution of the imager 20.

図10の例では、グループ内の16画素を1画素ずつオンする形態を示している。これに対して、例えば、16画素のうち、4(2×2)画素ずつオンとする形態でも良い。この場合、イメージャ20では4枚の低解像度画像データが生成されることになり、これらの4枚を合成することにより、4倍の解像度の画像データを生成することができる。前の例に比べると合成後の画像データの解像度は1/4となっているものの、合成する画像データの枚数も1/4となっており、処理時間は短縮される。   In the example of FIG. 10, a mode is shown in which 16 pixels in the group are turned on one by one. On the other hand, for example, 4 (2 × 2) pixels of 16 pixels may be turned on. In this case, the imager 20 generates four pieces of low-resolution image data. By combining these four pieces, it is possible to generate image data with a resolution four times higher. Compared to the previous example, the resolution of the image data after synthesis is 1/4, but the number of image data to be synthesized is also 1/4, and the processing time is shortened.

このように、本実施形態に係る視覚情報処理システム1bでは、イメージャ20の解像度の向上が可能であり、また向上させる解像度も上記のように容易に変更することができる。   Thus, in the visual information processing system 1b according to this embodiment, the resolution of the imager 20 can be improved, and the resolution to be improved can be easily changed as described above.

また、図9に示したように、本実施形態に係る視覚情報処理システム1bでは、画像特徴抽出部2bにおいて撮像対象物の特定の領域を抽出する形態としている。従って、この特定の領域をフィードバックすることにより、所定の画素領域の範囲についてのみ上述した高解像度処理を行なう形態とすることができる。   As shown in FIG. 9, in the visual information processing system 1b according to the present embodiment, the image feature extraction unit 2b extracts a specific region of the imaging target. Therefore, by feeding back this specific area, the above-described high resolution processing can be performed only for the range of the predetermined pixel area.

例えば、画像特徴抽出部2bによって移動物体の領域を画像特徴量ξとして抽出する。そして、この移動物体の領域に対しては高解像度処理を行ない、その他の領域については低解像度のままとする。このような適応的な処理により、注視すべき移動物体に対しては高解像度を実現しつつ、画像全体としては感度の低下や処理時間の増加を抑制した視覚情報処理システム1bとすることが可能となる。   For example, the area of the moving object is extracted as the image feature amount ξ by the image feature extraction unit 2b. Then, the high resolution processing is performed on the moving object region, and the other regions remain at low resolution. By such adaptive processing, it is possible to achieve a visual information processing system 1b that realizes high resolution for a moving object to be watched and suppresses a decrease in sensitivity and an increase in processing time as an entire image. It becomes.

(4)第4の実施形態
図11は、第4の実施形態に係る視覚情報処理システム1cの構成例を示す図である。
(4) Fourth Embodiment FIG. 11 is a diagram illustrating a configuration example of a visual information processing system 1c according to a fourth embodiment.

第4の実施形態に係る視覚情報処理システム1cは、イメージャ20と光空間変調素子10とを組み合わせることにより、撮像対象物の輝度変動等の周波数成分を画素毎に抽出し画像化したスペクトラム画像を生成することができるように構成されたものである。 The visual information processing system 1c according to the fourth embodiment combines the imager 20 and the spatial light modulation element 10 to extract a spectrum image obtained by extracting frequency components such as luminance fluctuations of the imaging target for each pixel and converting it into an image. It is configured so that it can be generated.

視覚情報処理システム1cは、光空間変調素子10と、画像特徴抽出部2cとを備えて構成されている。   The visual information processing system 1c includes a light spatial modulation element 10 and an image feature extraction unit 2c.

本実施形態に係る光空間変調素子10は、画像特徴抽出部2cの画素オン・オフ制御部17からの制御信号に基づいて画素毎に所定の周期信号によってオン・オフし、入射光を反射或いは透過させてイメージャ20へ出力するものである。   The spatial light modulator 10 according to the present embodiment is turned on / off by a predetermined periodic signal for each pixel based on a control signal from the pixel on / off control unit 17 of the image feature extraction unit 2c, and reflects incident light. The light is transmitted and output to the imager 20.

画像特徴抽出部2cは、基本的構成は第3の実施形態に係る画像特徴抽出部2bと同様のものであり、演算部30で求める画像特徴量ξとして特定の撮像対象物の領域情報を含んだものとしている。   The basic configuration of the image feature extraction unit 2c is the same as that of the image feature extraction unit 2b according to the third embodiment. The image feature extraction unit 2c includes region information of a specific imaging target as an image feature amount ξ obtained by the calculation unit 30. It is supposed to be.

図12は、視覚情報処理システム1cによるスペクトラム画像生成処理の動作概念を示した図である。   FIG. 12 is a diagram showing an operation concept of spectrum image generation processing by the visual information processing system 1c.

第4の実施形態では、光空間変調素子10とイメージャ20とは基本的には同じ画素数で構成される。   In the fourth embodiment, the spatial light modulator 10 and the imager 20 are basically configured with the same number of pixels.

光空間変調素子10は複数の画素を有する複数のグループに分割される。図12の例では、4(2×2)画素毎にグループ化される。   The spatial light modulator 10 is divided into a plurality of groups having a plurality of pixels. In the example of FIG. 12, grouping is performed every 4 (2 × 2) pixels.

グループ内の4画素に対して、それぞれ異なる周波数のオン・オフ制御信号を印加する。例えば、画素1ないし画素4に対してそれぞれ周波数1ないし周波数4でオン・オフが切り替わる制御信号を印加する。   An on / off control signal having a different frequency is applied to each of the four pixels in the group. For example, a control signal for switching on / off at frequencies 1 to 4 is applied to the pixels 1 to 4, respectively.

撮像対象物の輝度が所定の周波数で変動している場合、この変動周波数と光空間変調素子10に印加するオン・オフ制御信号の周波数が一致した場合、イメージャ20では該当する画素の輝度が保持される。他方、撮像対象物の輝度変動の周波数と光空間変調素子10に印加するオン・オフ制御信号の周波数が不一致の場合、イメージャ20では該当する画素の輝度は抑制される。即ち、光空間変調素子10を相関器として機能させ、イメージャ20が備える容量成分により積分器が構成されるため、画素毎に撮像対象物の変動周波数を抽出することが可能となる。   When the luminance of the imaging object fluctuates at a predetermined frequency, when the fluctuation frequency matches the frequency of the on / off control signal applied to the spatial light modulator 10, the imager 20 holds the luminance of the corresponding pixel. Is done. On the other hand, when the frequency of the luminance fluctuation of the imaging object and the frequency of the on / off control signal applied to the spatial light modulator 10 do not match, the imager 20 suppresses the luminance of the corresponding pixel. That is, since the light spatial modulation element 10 functions as a correlator and the integrator is configured by the capacitance component included in the imager 20, it is possible to extract the fluctuation frequency of the imaging object for each pixel.

例えば、複雑な背景の中に50Hzの商用電源で蛍光灯が点灯されている場合、本実施形態に係る視覚情報処理システム1cでは、オン・オフ制御周波数の1つを50Hzと一致させることにより、蛍光灯の部分のみが強調されたスペクトラム画像を生成することができる。   For example, when a fluorescent lamp is lit with a commercial power supply of 50 Hz in a complicated background, in the visual information processing system 1c according to the present embodiment, by matching one of the on / off control frequencies to 50 Hz, A spectrum image in which only the fluorescent lamp portion is emphasized can be generated.

各グループ内のオン・オフ制御周波数は任意に設定することが可能であり、撮像対象物の物理的条件や測定対象周波数に応じて適宜設定することができる。   The on / off control frequency in each group can be arbitrarily set, and can be appropriately set according to the physical condition of the imaging object and the frequency to be measured.

例えば、構造物のクラック等を検出する場合、このクラック等が特定の共振周波数で変動することが予めわかっているときには、オン・オフ制御周波数の1つをこの共振周波数に一致させることによりクラック等の位置に対応したスペクトラム画像を生成することが可能となる。この結果、視認が困難な微細なクラック等に対してもその共振周波数を抽出し画像化することによってクラック等の可視化が可能となる。   For example, when detecting a crack or the like of a structure, if it is known in advance that the crack or the like fluctuates at a specific resonance frequency, the crack or the like can be obtained by matching one of the on / off control frequencies with the resonance frequency. It is possible to generate a spectrum image corresponding to the position. As a result, it is possible to visualize a crack or the like by extracting the resonance frequency and imaging it even for a fine crack or the like that is difficult to visually recognize.

また、逆に、観測対象物の共振周波数が未知の場合であっても、画像中の特定の部位の周波数とその周囲の範囲の周波数が異なる場合には、その特定の部位を抽出した画像(スペクトラム画像)を生成することもできる。   Conversely, even when the resonance frequency of the observation object is unknown, if the frequency of a specific part in the image is different from the frequency in the surrounding range, an image (extracted from the specific part) (Spectrum image) can also be generated.

例えば、プリント配線基板を既知の周波数で振動させ、この振動周波数と異なった周波数成分を有する部分を画像として抽出することにより、実装部品の半田付け不良部位を画像情報として検出することが可能となる。   For example, a printed wiring board is vibrated at a known frequency, and a part having a frequency component different from the vibration frequency is extracted as an image, so that it is possible to detect a soldering failure portion of a mounted component as image information. .

また、画像特徴抽出部2cから画像特徴量ξとして特定の領域情報や特定の周波数成分をフィードバックすることにより、全画素領域の一部の領域に対して特定の周波数成分を中心としたスペクトラム画像を生成することが可能となる。この形態では、スペクトラム画像を生成しようとする領域やその中心周波数が連続的に変化する場合であっても、適応制御によりその変化に追尾させることが可能となる。   Further, by feeding back specific area information and specific frequency components as the image feature amount ξ from the image feature extraction unit 2c, a spectrum image centered on the specific frequency components is obtained for a part of all the pixel areas. Can be generated. In this form, even if the region where the spectrum image is to be generated and the center frequency thereof are continuously changed, it is possible to track the change by adaptive control.

(5)第5の実施形態
図13は、第5の実施形態に係る視覚情報処理システム1dの構成例を示した図である。第5の実施形態に係る視覚情報処理システム1dは、イメージャ20と光空間変調素子10とを組み合わせることにより、エッジ強調等の空間フィルタリング処理を簡素な演算処理によって実現可能に構成されたものである。
(5) Fifth Embodiment FIG. 13 is a diagram illustrating a configuration example of a visual information processing system 1d according to a fifth embodiment. The visual information processing system 1d according to the fifth embodiment is configured such that spatial filtering processing such as edge enhancement can be realized by simple arithmetic processing by combining the imager 20 and the spatial light modulator 10. .

視覚情報処理システム1dは、光空間変調素子10と、画像特徴抽出部2dとを備えて構成されている。   The visual information processing system 1d includes a light spatial modulation element 10 and an image feature extraction unit 2d.

本実施形態に係る光空間変調素子10は、画像特徴抽出部2dの空間パターン生成制御部18からの制御信号に基づいて画素毎にオン・オフし、入射光を反射或いは透過させてイメージャ20へ出力するものである。   The spatial light modulator 10 according to the present embodiment is turned on / off for each pixel based on a control signal from the spatial pattern generation control unit 18 of the image feature extraction unit 2d, and reflects or transmits incident light to the imager 20. Output.

画像特徴抽出部2dは、基本的構成は第3の実施形態に係る画像特徴抽出部2bと同様のものであり、演算部30で求める画像特徴量ξとして特定の撮像対象物の領域情報を含んだものとしている。   The image feature extraction unit 2d has a basic configuration similar to that of the image feature extraction unit 2b according to the third embodiment, and includes region information of a specific imaging target as an image feature amount ξ obtained by the calculation unit 30. It is supposed to be.

図14は、視覚情報処理システム1dによる空間フィルタリング処理の動作概念を示した図である。   FIG. 14 is a diagram illustrating an operation concept of spatial filtering processing by the visual information processing system 1d.

第5の実施形態では、光空間変調素子10の画素数はイメージャ20の画素数よりも多い画素数で構成される。図14の例では、光空間変調素子10の画素数はイメージャ20の画素数の4倍として構成されている。   In the fifth embodiment, the number of pixels of the spatial light modulator 10 is configured to be larger than the number of pixels of the imager 20. In the example of FIG. 14, the number of pixels of the spatial light modulator 10 is configured to be four times the number of pixels of the imager 20.

光空間変調素子10は複数の画素を有する複数のグループに分割される。図14の例では、4(2×2)画素毎にグループ化される。   The spatial light modulator 10 is divided into a plurality of groups having a plurality of pixels. In the example of FIG. 14, grouping is performed every 4 (2 × 2) pixels.

グループ内の4画素に対しては、所定の空間パターンに基づいて対応する画素にオン・オフ制御信号を印加する。例えば、図14に例示したように、空間パターン1では、グループ内の4画素総てをオンとする。空間パターン2では、右半分の2画素をオンとし左半分の2画素はオフとする。逆に、空間パターン3では、左半分の2画素をオンとし右半分の2画素はオフとする。   For the four pixels in the group, an on / off control signal is applied to the corresponding pixel based on a predetermined spatial pattern. For example, as illustrated in FIG. 14, in the spatial pattern 1, all four pixels in the group are turned on. In the space pattern 2, two pixels in the right half are turned on and two pixels in the left half are turned off. On the other hand, in the space pattern 3, the two pixels in the left half are turned on and the two pixels in the right half are turned off.

本実施形態に係る視覚情報処理システム1dでは、光空間変調素子10を空間パターン1、2および3に設定したときに得られるイメージャ20の画像データから、減算処理のみよってX方向、Y方向のエッジ強調処理をする空間フィルタリング処理を実現することができる。   In the visual information processing system 1d according to the present embodiment, edges in the X direction and the Y direction are obtained only by subtracting from the image data of the imager 20 obtained when the spatial light modulator 10 is set to the spatial patterns 1, 2, and 3. Spatial filtering processing for emphasis processing can be realized.

具体的には、図14の式(1)に示したように、空間パターン2のときに得られるイメージャ20の画像、I(x,y,t+Δt)から、空間パターン1のときに得られるイメージャ20の画像のI(x,y,t)の1/2を減算することによってX方向のエッジが強調された画像データを生成することができる。空間パターン1から得られる画像データと空間パターン2から得られる画像データとは厳密には時刻が異なっているものの、光空間変調素子10の画素を高速に切り替えることにより、図14の式(1)右辺の演算式を左辺で近似することができる。   Specifically, as shown in the equation (1) in FIG. 14, the image of the imager 20 obtained in the case of the space pattern 2, I (x, y, t + Δt), is obtained in the case of the space pattern 1. By subtracting 1/2 of I (x, y, t) of the image of the imager 20 to be generated, image data in which the edge in the X direction is emphasized can be generated. Strictly speaking, the image data obtained from the spatial pattern 1 and the image data obtained from the spatial pattern 2 have different times, but by switching the pixels of the spatial light modulator 10 at high speed, the equation (1) in FIG. The arithmetic expression on the right side can be approximated on the left side.

同様にして、図14の式(2)に示したように、空間パターン3のときに得られるイメージャ20の画像、I(x,y,t+2Δt)から、空間パターン1のときに得られるイメージャ20の画像のI(x,y,t)の1/2を減算することによってY方向のエッジが強調された画像データを生成することができる。   Similarly, as shown in the equation (2) of FIG. 14, the image of the imager 20 obtained at the time of the spatial pattern 3, I (x, y, t + 2Δt), is obtained at the time of the spatial pattern 1. By subtracting 1/2 of I (x, y, t) of the image of the imager 20, image data in which the edge in the Y direction is emphasized can be generated.

第5の実施形態に係る視覚情報処理システム1dによれば、複数の空間パターンを光空間変調素子10を用いて形成し、各空間パターンに応じて得られるイメージャ20の画像データに対して、減算等の簡素な演算によって空間フィルタリング処理を行なうことができる。   According to the visual information processing system 1d according to the fifth embodiment, a plurality of spatial patterns are formed using the light spatial modulation element 10, and the image data of the imager 20 obtained according to each spatial pattern is subtracted. The spatial filtering process can be performed by a simple operation such as the above.

また、図13に示したように、所定の領域を示す画像特徴量ξをフィードバックすることにより、特定の領域に対してのみ空間フィルタリング処理を施すことも可能となる。さらに、複数の異なる領域に対して、それぞれ異なった種類の空間フィルタ処理を施すことも可能となる。   Also, as shown in FIG. 13, it is possible to perform spatial filtering processing only on a specific region by feeding back an image feature amount ξ indicating a predetermined region. Furthermore, different types of spatial filter processing can be applied to a plurality of different regions.

この他、より広い領域に対してテンプレート画像などマッチングする画像を光空間変調素子10で空間パターンとして生成することにより、空間的なマッチング処理等も可能となる。また、あらかじめ用意した画像だけではなく、前フレームの画像情報に基づいた変調パターンを用意することで、ブロックマッチング等の処理も可能となる。   In addition, a spatial matching process or the like can be performed by generating an image that matches a wider area, such as a template image, as a spatial pattern by the light spatial modulation element 10. Further, not only the image prepared in advance but also the modulation pattern based on the image information of the previous frame is prepared, so that processing such as block matching can be performed.

上述した各実施形態に係る視覚情報処理システムおよび視覚情報処理によれば、光空間変調素子とイメージャ(固体撮像素子)とを組み合わせることによって、従来では得られることのなかった新たな視覚情報処理を実現することができる。   According to the visual information processing system and the visual information processing according to each of the above-described embodiments, a new visual information processing that has not been obtained conventionally can be performed by combining a spatial light modulation element and an imager (solid-state imaging element). Can be realized.

特に、イメージャで撮像した画像データから画像特徴量を抽出し、この画像特徴量に基づいたフィードバックループ中に光空間変調素子を設けることにより、対象物の動き、変化に適応した新たな視覚情報処理を実現することができる。   In particular, by extracting image features from image data captured by an imager and providing a spatial light modulation element in the feedback loop based on these image features, new visual information processing adapted to the movement and change of the object Can be realized.

なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined.

本発明に係る視覚情報処理システムの第1の実施形態のシステム構成例を示す図。The figure which shows the system configuration example of 1st Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第1の実施形態における3次元画像生成の動作を説明する第1の図。The 1st figure explaining operation | movement of the three-dimensional image generation in 1st Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第1の実施形態における3次元画像生成の動作を説明する第2の図。FIG. 7 is a second diagram illustrating the operation of generating a three-dimensional image in the first embodiment of the visual information processing system according to the present invention. 本発明に係る視覚情報処理システムの第1の実施形態における3次元画像生成の動作を説明する第3の図。The 3rd figure explaining operation | movement of the three-dimensional image generation in 1st Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第1の実施形態における3次元画像生成の動作を説明する第4の図。FIG. 9 is a fourth diagram illustrating the operation of generating a three-dimensional image in the first embodiment of the visual information processing system according to the present invention. 本発明に係る視覚情報処理システムの第2ないし第5の実施形態における光空間変調素子とイメージャとの関係を示す図。The figure which shows the relationship between the light spatial modulation element and imager in 2nd thru | or 5th embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第2の実施形態のシステム構成例を示す図。The figure which shows the system configuration example of 2nd Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第2の実施形態における露光時間制御の動作概念を説明する図。The figure explaining the operation | movement concept of exposure time control in 2nd Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第3の実施形態のシステム構成例を示す図。The figure which shows the system configuration example of 3rd Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第3の実施形態における高解像度処理の動作概念を説明する図。The figure explaining the operation | movement concept of the high resolution process in 3rd Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第4の実施形態のシステム構成例を示す図。The figure which shows the system configuration example of 4th Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第4の実施形態におけるスペクトラム画像生成処理の動作概念を説明する図。The figure explaining the operation | movement concept of the spectrum image generation process in 4th Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第5の実施形態のシステム構成例を示す図。The figure which shows the system configuration example of 5th Embodiment of the visual information processing system which concerns on this invention. 本発明に係る視覚情報処理システムの第5の実施形態におけるスペクトラム画像生成処理の動作概念を説明する図。The figure explaining the operation | movement concept of the spectrum image generation process in 5th Embodiment of the visual information processing system which concerns on this invention. 画像特徴量の抽出及びフィードバック処理を行う従来の撮像カメラ装置の構成例を示す図。The figure which shows the structural example of the conventional imaging camera apparatus which performs extraction of an image feature-value, and a feedback process.

符号の説明Explanation of symbols

1、1a、1b、1c、1d 視覚情報処理システム
2、2a、2b、2c、2d 画像特徴抽出部
3 光パターン照射部
10 光空間変調素子
10a 光空間変調素子(反射型)
10b 光空間変調素子(透過型)
11 光パターン生成部
12 光源
15 露光時間制御部
16 画素切換部
17 画素オン・オフ制御部
18 空間パターン生成部
20 イメージャ
30 演算部30
40 座標変換部
50 高解像度処理部
60 スペクトラム画像生成部
70 空間フィルタリング処理部
100 撮像対象物
ξ 画像特徴量
ρ 座標変換パラメータ
1, 1a, 1b, 1c, 1d Visual information processing system 2, 2a, 2b, 2c, 2d Image feature extraction unit 3 Light pattern irradiation unit 10 Light spatial modulation element 10a Light spatial modulation element (reflection type)
10b Light spatial modulation element (transmission type)
DESCRIPTION OF SYMBOLS 11 Light pattern generation part 12 Light source 15 Exposure time control part 16 Pixel switching part 17 Pixel on / off control part 18 Spatial pattern generation part 20 Imager 30 Calculation part 30
40 Coordinate converter 50 High-resolution processor 60 Spectrum image generator 70 Spatial filtering processor 100 Imaging object ξ Image feature ρ Coordinate transformation parameter

Claims (8)

指定された領域の画素を複数にグループ化し、前記各グループ内の複数の画素信号をそれぞれ異なる周波数でオン・オフして撮像対象物からの入射光を反射或いは透過させて出力する光空間変調素子と、
前記光空間変調素子から出力された前記撮像対象物からの入射光を、前記光空間変調素子の解像度と同じ解像度のイメージャで撮像し、前記撮像対象物の特徴量を抽出する画像特徴抽出部と、
を備え、
前記画像特徴抽出部は、前記特徴量に基づいて領域を指定し、その領域において、前記撮像対象物の輝度変動を前記異なる周波数に対応して周波数分解し、前記異なる周波数に対応したスペクトラム画像を生成することを特徴とする視覚情報処理システム。
A spatial light modulation element that groups pixels in a specified area into a plurality of pixels, and turns on / off a plurality of pixel signals in each group at different frequencies to reflect or output incident light from an imaging object. When,
An image feature extraction unit for capturing incident light from the imaging object output from the light spatial modulation element with an imager having the same resolution as the resolution of the light spatial modulation element, and extracting a feature quantity of the imaging object; ,
With
The image feature extraction unit designates a region based on the feature amount, and in that region, the luminance variation of the imaging object is frequency-resolved corresponding to the different frequencies, and spectrum images corresponding to the different frequencies are obtained. A visual information processing system characterized by generating.
前記画像特徴抽出部は、
所定サイズの画素領域を有し、画素位置情報に応じて前記画素領域の部分領域の画像データをフレーム毎に出力するイメージャ部と、
前記部分領域の画像データを入力し、入力した前記画像データと予め算出されている座標変換パラメータとに基づいて画像特徴量を算出すると共に、算出された前記画像特徴量と前記座標変換パラメータとに基づいて次フレーム用の座標変換パラメータを生成する演算部と、
前記部分領域の画素位置を前記次フレーム用の座標変換パラメータに基づいて座標変換し、次フレームの部分領域の画素位置情報を生成する座標変換部と、
を備えて構成されたことを特徴とする請求項1に記載の視覚情報処理システム。
The image feature extraction unit
An imager unit having a pixel area of a predetermined size and outputting image data of a partial area of the pixel area for each frame according to pixel position information;
The image data of the partial area is input, an image feature amount is calculated based on the input image data and a previously calculated coordinate conversion parameter, and the calculated image feature amount and the coordinate conversion parameter are A calculation unit for generating a coordinate conversion parameter for the next frame based on the
A coordinate converter that converts the pixel position of the partial area based on the coordinate conversion parameter for the next frame, and generates pixel position information of the partial area of the next frame;
The visual information processing system according to claim 1, comprising:
前記光空間変調素子は、デジタルマイクロミラーデバイス(DMD)或いは液晶ライトバルブであることを特徴とする請求項1に記載の視覚情報処理システム。 The visual information processing system according to claim 1, wherein the light spatial modulation element is a digital micromirror device (DMD) or a liquid crystal light valve. 指定された領域の画素を複数にグループ化し、前記各グループ内の複数の画素信号を所定の複数の空間パターンに基づいて順次切り換えて撮像対象物からの入射光を反射或いは透過させて出力する光空間変調素子と、Light that groups pixels in a specified area into a plurality of pixels, and sequentially switches a plurality of pixel signals in each group based on a plurality of predetermined spatial patterns to reflect or transmit incident light from an imaging object and output the light A spatial modulation element;
前記光空間変調素子から出力された前記撮像対象物からの入射光を、前記グループ数と同じ画素数を有するイメージャで撮像し、前記撮像対象物の特徴量を抽出する画像特徴抽出部と、An image feature extraction unit that captures incident light from the imaging object output from the light spatial modulation element with an imager having the same number of pixels as the number of groups, and extracts a feature amount of the imaging object;
を備え、With
前記画像特徴抽出部は、前記特徴量に基づいて領域を指定し、その領域において、前記複数の空間パターンに基づいて順次イメージャから出力される複数の信号を演算し、前記グループ内の複数の画素を処理対象とする空間フィルタリングを行うことを特徴とする視覚情報処理システム。The image feature extraction unit designates a region based on the feature amount, calculates a plurality of signals sequentially output from the imager based on the plurality of spatial patterns in the region, and a plurality of pixels in the group A visual information processing system characterized by performing spatial filtering on an object.
指定された領域の画素が複数にグループ化された光空間変調素子によって、前記グループ内の複数の画素信号をそれぞれ異なる周波数でオン・オフして撮像対象物からの入射光を反射或いは透過させて出力するステップと、
前記光空間変調素子から出力された前記撮像対象物からの入射光を、前記光空間変調素子の解像度と同じ解像度のイメージャで撮像し、前記撮像対象物の特徴量を抽出するステップと、
を備え、
前記特徴量を抽出するステップは、前記特徴量に基づいて領域を指定し、その領域において、前記撮像対象物の輝度変動を前記異なる周波数に対応して周波数分解し、前記異なる周波数に対応したスペクトラム画像を生成する処理を含むことを特徴とする視覚情報処理方法。
A spatial light modulation element in which pixels in a specified area are grouped into a plurality of pixels, and the plurality of pixel signals in the group are turned on / off at different frequencies to reflect or transmit incident light from the object to be imaged. Output step;
Capturing incident light from the imaging object output from the spatial light modulation element with an imager having the same resolution as the resolution of the spatial light modulation element, and extracting a feature amount of the imaging object;
With
The step of extracting the feature amount designates a region based on the feature amount, and in the region, the luminance variation of the imaging object is frequency-resolved corresponding to the different frequency, and the spectrum corresponding to the different frequency. A visual information processing method comprising processing for generating an image.
前記特徴量を抽出するステップは、
所定サイズの画素領域を有するイメージャから、画素位置情報に応じて前記画素領域の部分領域の画像データをフレーム毎に出力するステップと、
前記部分領域の画像データを入力し、入力した前記画像データと予め算出されている座標変換パラメータとに基づいて画像特徴量を算出すると共に、算出された前記画像特徴量と前記座標変換パラメータとに基づいて次フレーム用の座標変換パラメータを生成するステップと、
前記部分領域の画素位置を前記次フレーム用の座標変換パラメータに基づいて座標変換し、次フレームの部分領域の画素位置情報を生成するステップと、
を備えたことを特徴とする請求項5に記載の視覚情報処理方法。
The step of extracting the feature amount includes:
Outputting image data of a partial region of the pixel region for each frame from an imager having a pixel region of a predetermined size according to pixel position information;
The image data of the partial area is input, an image feature amount is calculated based on the input image data and a previously calculated coordinate conversion parameter, and the calculated image feature amount and the coordinate conversion parameter are Generating a coordinate transformation parameter for the next frame based on,
Transforming the pixel position of the partial area based on the coordinate conversion parameter for the next frame to generate pixel position information of the partial area of the next frame;
The visual information processing method according to claim 5, further comprising :
前記光空間変調素子は、デジタルマイクロミラーデバイス(DMD)或いは液晶ライトバルブであることを特徴とする請求項5に記載の視覚情報処理方法。 6. The visual information processing method according to claim 5, wherein the light spatial modulation element is a digital micromirror device (DMD) or a liquid crystal light valve. 指定された領域の画素が複数にグループ化された光空間変調素子によって、前記グループ内の複数の画素信号を所定の複数の空間パターンに基づいて順次切り換えて撮像対象物からの入射光を反射或いは透過させて出力するステップと、A light spatial modulation element in which pixels in a specified region are grouped into a plurality of pixels sequentially switches a plurality of pixel signals in the group based on a plurality of predetermined spatial patterns, and reflects incident light from an object to be imaged. A step of transmitting and outputting;
前記光空間変調素子から出力された前記撮像対象物からの入射光を、前記グループ数と同じ画素数を有するイメージャで撮像し、前記撮像対象物の特徴量を抽出するステップと、Capturing incident light from the imaging object output from the light spatial modulation element with an imager having the same number of pixels as the number of groups, and extracting a feature amount of the imaging object;
を備え、With
前記特徴量を抽出するステップは、前記特徴量に基づいて領域を指定し、その領域において、前記複数の空間パターンに基づいて順次イメージャから出力される複数の信号を演算し、前記グループ内の複数の画素を処理対象とする空間フィルタリングを行う処理を含むことを特徴とすることを特徴とする視覚情報処理方法。The step of extracting the feature amount designates a region based on the feature amount, calculates a plurality of signals sequentially output from the imager based on the plurality of spatial patterns in the region, and extracts a plurality of features in the group The visual information processing method characterized by including the process which performs the spatial filtering which makes this pixel the process target.
JP2005109200A 2005-04-05 2005-04-05 Visual information processing system and visual information processing method thereof Active JP4709571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005109200A JP4709571B2 (en) 2005-04-05 2005-04-05 Visual information processing system and visual information processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005109200A JP4709571B2 (en) 2005-04-05 2005-04-05 Visual information processing system and visual information processing method thereof

Publications (2)

Publication Number Publication Date
JP2006292385A JP2006292385A (en) 2006-10-26
JP4709571B2 true JP4709571B2 (en) 2011-06-22

Family

ID=37413123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005109200A Active JP4709571B2 (en) 2005-04-05 2005-04-05 Visual information processing system and visual information processing method thereof

Country Status (1)

Country Link
JP (1) JP4709571B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5448599B2 (en) 2009-06-24 2014-03-19 キヤノン株式会社 Measurement system and measurement processing method
JP5587137B2 (en) 2010-10-29 2014-09-10 キヤノン株式会社 Measuring apparatus and measuring method
JP5822463B2 (en) * 2010-12-28 2015-11-24 キヤノン株式会社 Three-dimensional measuring apparatus, three-dimensional measuring method, and program
JP5746529B2 (en) * 2011-03-16 2015-07-08 キヤノン株式会社 Three-dimensional distance measuring device, three-dimensional distance measuring method, and program
JP6061631B2 (en) * 2011-07-11 2017-01-18 キヤノン株式会社 Measuring device, information processing device, measuring method, information processing method, and program
US9286530B2 (en) 2012-07-17 2016-03-15 Cognex Corporation Handheld apparatus for quantifying component features
JP6180158B2 (en) * 2013-04-03 2017-08-16 キヤノン株式会社 Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
AU2014338511B2 (en) * 2013-10-23 2018-08-09 Facebook Technologies, Llc Three dimensional depth mapping using dynamic structured light
JP6412372B2 (en) * 2014-09-02 2018-10-24 キヤノン株式会社 Information processing apparatus, information processing system, information processing apparatus control method, and program
JP6412799B2 (en) * 2015-01-07 2018-10-24 株式会社Nttドコモ Shape recognition apparatus and shape recognition method
JP6353573B1 (en) * 2017-03-02 2018-07-04 Ckd株式会社 3D measuring device
JP6774929B2 (en) * 2017-12-26 2020-10-28 株式会社ミツトヨ Three-dimensional measuring device
CN115325960A (en) * 2021-05-10 2022-11-11 广州视源电子科技股份有限公司 Multi-frequency phase shift measurement method, device, storage medium and equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6335082A (en) * 1986-07-30 1988-02-15 Rhythm Watch Co Ltd Light quantity correcting device for video camera
JPH06197287A (en) * 1992-12-24 1994-07-15 Hitachi Ltd Picture input device
JPH09214827A (en) * 1996-02-02 1997-08-15 Mitsubishi Electric Corp On-vehicle camera equipment
JP2001333329A (en) * 2000-03-17 2001-11-30 Fuji Photo Film Co Ltd Image pickup device
JP2003202216A (en) * 2002-01-08 2003-07-18 Canon Inc Method, device, system and program for three-dimensional image processing
JP2003319262A (en) * 2002-04-18 2003-11-07 Idaku Ishii Image pickup camera apparatus and image data reading method for imager

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6335082A (en) * 1986-07-30 1988-02-15 Rhythm Watch Co Ltd Light quantity correcting device for video camera
JPH06197287A (en) * 1992-12-24 1994-07-15 Hitachi Ltd Picture input device
JPH09214827A (en) * 1996-02-02 1997-08-15 Mitsubishi Electric Corp On-vehicle camera equipment
JP2001333329A (en) * 2000-03-17 2001-11-30 Fuji Photo Film Co Ltd Image pickup device
JP2003202216A (en) * 2002-01-08 2003-07-18 Canon Inc Method, device, system and program for three-dimensional image processing
JP2003319262A (en) * 2002-04-18 2003-11-07 Idaku Ishii Image pickup camera apparatus and image data reading method for imager

Also Published As

Publication number Publication date
JP2006292385A (en) 2006-10-26

Similar Documents

Publication Publication Date Title
CN108718373B (en) Image device
JP4709571B2 (en) Visual information processing system and visual information processing method thereof
JP6601790B2 (en) Real-time measurement and projection apparatus and three-dimensional projection and measurement apparatus
US10359277B2 (en) Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
US10679370B2 (en) Energy optimized imaging system with 360 degree field-of-view
JP2009524849A (en) System, method, and medium for capturing scene images and depth shapes to generate compensated images
JP7067554B2 (en) Image processing equipment and methods
CN111982023A (en) Image capturing device assembly, three-dimensional shape measuring device, and motion detecting device
WO2018158983A1 (en) Three-dimensional measurement device
Kitajima et al. Simultaneous projection and positioning of laser projector pixels
US20220034651A1 (en) Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
US10045015B2 (en) Method for operating a camera and a projector in a synchronized manner
US9654748B2 (en) Projection device, and projection method
JP6913173B2 (en) Projection device and projection method
JP2018204976A (en) Distance measuring apparatus, distance measuring method, and imaging apparatus
JP6182739B2 (en) Projection apparatus and projection method
WO2018042731A1 (en) Image processing system and image processing method
JP2021127998A (en) Distance information acquisition device and distance information acquisition method
JP4913356B2 (en) Visual information processing apparatus and visual information processing method thereof
KR100661861B1 (en) 3D Depth Imaging Apparatus with Flash IR Source
JP7125561B2 (en) Control device, projection system, control method, control program
JP6466354B2 (en) Apparatus, video projection apparatus, video projection system, video display apparatus, video generation apparatus, method thereof, and program
JP5845565B2 (en) Projector and projector control method
JP2021004762A (en) Measurement device, imaging device, measurement system, control method, program and recording medium
CN115361535B (en) Projection device and correction method of projection image thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110318

R150 Certificate of patent or registration of utility model

Ref document number: 4709571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250