JPH10155110A - Image pickup method, device and storage medium - Google Patents
Image pickup method, device and storage mediumInfo
- Publication number
- JPH10155110A JPH10155110A JP8327823A JP32782396A JPH10155110A JP H10155110 A JPH10155110 A JP H10155110A JP 8327823 A JP8327823 A JP 8327823A JP 32782396 A JP32782396 A JP 32782396A JP H10155110 A JPH10155110 A JP H10155110A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image pickup
- image
- extraction
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像を撮像する撮
像方法及び装置並びにこれら撮像方法及び装置に使用す
る記憶媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup method and apparatus for picking up an image and a storage medium used for the image pickup method and apparatus.
【0002】[0002]
【従来の技術】従来より、例えば、特開昭6−1332
07号に示すように2つの撮像系を有する複眼カメラが
公知である。そして、得られた左右の画像に画像処理を
行っていた。例えば1つの画像処理としては視差抽出処
理である。別の視点から同一の被写体を撮像することに
より、得られた左右の画像間には視差が存在する。その
視差を処理により求めることができたならば、求めた視
差を利用して被写体の切り出し等が可能になる。2. Description of the Related Art Conventionally, for example, Japanese Patent Application Laid-Open No.
A compound eye camera having two imaging systems as shown in JP-A-07-07 is known. Then, image processing is performed on the obtained left and right images. For example, one image process is a parallax extraction process. There is a parallax between the left and right images obtained by imaging the same subject from different viewpoints. If the parallax can be obtained by the processing, the subject can be cut out or the like using the obtained parallax.
【0003】従来は、左右の画像から視差を求めるため
に、複眼カメラで得られた左右の画像をPC(パーソナ
ルコンピュータ)に転送し、該PC上でその左右の画像
の視差を求める処理を行っていた。そして、その視差を
使用して被写体の切り出し等を行っていた。Conventionally, in order to obtain parallax from left and right images, left and right images obtained by a compound-eye camera are transferred to a PC (personal computer), and processing for obtaining parallax between the left and right images is performed on the PC. I was Then, the subject is cut out or the like using the parallax.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上述し
た従来の複眼カメラにあっては、PCに画像を転送し該
PC上で視差を求める処理を行うと、焦点距離等の撮像
時の複眼カメラの状況が分からないので、視差の抽出精
度が劣化するという問題点があった。また、複眼カメラ
の絞りやシャッタースピードの設定が不十分で、左右の
画像間の対応点が正確に求められないときに、撮像を再
び行うことができない。つまり、再撮像する必要がある
か否かを直ちに判断することができないという問題点が
あった。また、左右画像対を間違えることがあるという
問題点があった。更に、そのような精度の低い視差を使
用して被写体の切り出しを行っても、精度の高い被写体
の切り出しは困難であるという問題点があった。However, in the above-described conventional compound-eye camera, when an image is transferred to a PC and a process of obtaining parallax is performed on the PC, the compound-eye camera at the time of imaging of a focal length or the like is required. Since the situation is not known, there is a problem that the parallax extraction accuracy is deteriorated. In addition, when the aperture and shutter speed of the compound-eye camera are insufficiently set and the corresponding point between the left and right images cannot be accurately obtained, the image cannot be captured again. That is, there is a problem that it is not possible to immediately determine whether or not it is necessary to re-image. In addition, there is a problem that the right and left image pairs may be mistaken. Furthermore, there is a problem that even if the subject is cut out using such low-precision parallax, it is difficult to cut out the subject with high accuracy.
【0005】本発明は上述した従来の技術の有するこの
ような問題点に鑑みてなされたものであり、その第1の
目的とするところは、精度の高い視差を求めることがで
きると共に、正しい左右画像対を使用して視差を求める
ことができ、しかも求めた視差を画像と共に記録できる
ようにした撮像方法及び装置を提供しようとするもので
ある。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and a first object of the present invention is to enable a highly accurate parallax to be obtained and correct right and left parallax. It is an object of the present invention to provide an imaging method and apparatus which can obtain a parallax using an image pair and can record the obtained parallax together with an image.
【0006】また、本発明の第2の目的とするところ
は、精度の高い視差を求めることができると共に、処理
時間を短縮することができ且つ正しい左右画像対を使用
して視差を求めることができ、しかも求めた視差を画像
と共に記録できるようにした撮像方法及び装置を提供し
ようとするものである。It is a second object of the present invention to obtain a highly accurate parallax, shorten the processing time, and obtain a parallax using a correct pair of right and left images. An object of the present invention is to provide an imaging method and apparatus capable of recording the obtained parallax together with an image.
【0007】また、本発明の第3の目的とするところ
は、精度の高い視差を求めることができると共に、正し
い左右画像対を使用して視差を求めることができ、しか
も視差が正しく求められないときを判断して、直ちに再
撮像を行えるようにした撮像方法及び装置を提供しよう
とするものである。It is a third object of the present invention to be able to obtain a highly accurate parallax, to obtain a parallax using a correct pair of left and right images, and to obtain a parallax correctly. It is an object of the present invention to provide an imaging method and apparatus which can determine the time and immediately perform re-imaging.
【0008】また、本発明の第4の目的とするところ
は、精度の高い視差を求めることができると共に、処理
時間を短縮することができ且つ正しい左右画像対を使用
して視差を求めることができ、しかも視差が正しく求め
られないときを判断して、直ちに再撮像を行えるように
した撮像方法及び装置を提供しようとするものである。It is a fourth object of the present invention to obtain a highly accurate parallax, shorten the processing time, and obtain a parallax using a correct pair of right and left images. It is an object of the present invention to provide an imaging method and apparatus capable of judging when parallax cannot be obtained correctly and performing re-imaging immediately.
【0009】また、本発明の第5の目的とするところ
は、精度の高い視差を求めることができると共に、正し
い左右画像対を使用して視差を求めることができ且つ精
度の高い被写体の切り出しを行うことができ、しかも画
像中の被写体領域を示す情報を画像と共に記録すること
ができるようにした撮像方法及び装置を提供しようとす
るものである。A fifth object of the present invention is to obtain a highly accurate parallax, and to obtain a parallax using a correct pair of right and left images and to cut out a highly accurate subject. It is an object of the present invention to provide an imaging method and apparatus capable of performing the recording and recording information indicating a subject area in an image together with the image.
【0010】また、本発明の第6の目的とするところ
は、精度の高い視差を求めることができると共に、正し
い左右画像対を使用して視差を求めることができ且つ対
応点抽出で求めた視差を選別することができ、しかも精
度の高い被写体の切り出しを行うことができ、更に画像
中の被写体領域を示す情報を画像と共に記録することが
できるようにした撮像方法及び装置を提供しようとする
ものである。[0010] A sixth object of the present invention is to enable a highly accurate parallax to be obtained, a parallax to be obtained by using a correct pair of right and left images, and a parallax obtained by extracting corresponding points. The object of the present invention is to provide an imaging method and an apparatus which can select an object, can cut out a subject with high accuracy, and can record information indicating a subject area in the image together with the image. It is.
【0011】更に、本発明の第7の目的とするところ
は、撮像装置を円滑に制御することができる記憶媒体を
提供しようとするものである。Further, a seventh object of the present invention is to provide a storage medium capable of smoothly controlling an imaging device.
【0012】[0012]
【課題を解決するための手段】上記第1の目的を達成す
るために請求項1記載の撮像方法は、複数の撮像系を有
する撮像装置により撮像する撮像方法において、各撮像
系の位置、向き、焦点距離の値を利用して各撮像系で得
られた画像間の視差を求める視差抽出ステップと、該視
差抽出ステップにより求められた視差と前記撮像系で撮
像された画像とを一括に保存する保存ステップとを有す
ることを特徴とする。According to a first aspect of the present invention, there is provided an imaging method for imaging by an imaging apparatus having a plurality of imaging systems. A parallax extracting step of obtaining a parallax between images obtained by the respective imaging systems using a value of the focal length, and a parallax obtained by the parallax extracting step and an image captured by the imaging system are collectively stored. And a saving step.
【0013】また、上記第2の目的を達成するために請
求項2記載の撮像方法は、請求項1記載の撮像方法にお
いて、前記視差抽出ステップにおいて、各撮像系の位
置、向き、焦点距離の値を対応点抽出処理の探索範囲の
限定に用いることを特徴とする。According to a second aspect of the present invention, there is provided an imaging method according to the first aspect, wherein in the parallax extracting step, the position, orientation, and focal length of each imaging system are determined. The value is used to limit the search range of the corresponding point extraction processing.
【0014】また、上記第3の目的を達成するために請
求項3記載の撮像方法は、複数の撮像系を有する撮像装
置により撮像する撮像方法において、各撮像系の位置、
向き、焦点距離の値を利用して各撮像系で得られた画像
間の視差を求める視差抽出ステップと、該視差抽出ステ
ップにより求められた視差の信頼度から撮り直すか否か
を判断する判断ステップと、前記視差抽出ステップによ
り求められた視差と撮像系で撮像された画像とを一括に
保存する保存ステップとを有することを特徴とする。According to a third aspect of the present invention, there is provided an imaging method for imaging by an imaging apparatus having a plurality of imaging systems.
A parallax extracting step of obtaining parallax between images obtained by the respective imaging systems using the values of the orientation and the focal length, and determining whether or not to retake the image based on the reliability of the parallax obtained in the parallax extracting step And a storing step of collectively storing the parallax obtained in the parallax extracting step and the image captured by the imaging system.
【0015】また、上記第4の目的を達成するために請
求項4記載の撮像方法は、請求項3記載の撮像方法にお
いて、前記視差抽出ステップにおいて、各撮像系の位
置、向き、焦点距離の値を対応点抽出処理の探索範囲の
限定に用いることを特徴とする。According to a fourth aspect of the present invention, in the imaging method of the third aspect, in the parallax extracting step, the position, orientation, and focal length of each imaging system are determined. The value is used to limit the search range of the corresponding point extraction processing.
【0016】また、上記第5の目的を達成するために請
求項5記載の撮像方法は、複数の撮像系を有する撮像装
置により撮像する撮像方法において、各撮像系で得られ
た画像間の視差を求める視差抽出ステップと、該視差抽
出ステップにより求められた視差から被写体抽出のため
の初期核を作成する初期核作成ステップと、該初期核作
成ステップにより作成された初期核を領域成長させて画
像中の被写体領域を求める被写体領域抽出ステップと、
該被写体領域抽出ステップにより求められた被写体領域
と撮像系で撮像された画像とを一括に保存する保存ステ
ップとを有することを特徴とする。According to a fifth aspect of the present invention, there is provided an imaging method according to the fifth aspect, wherein the parallax between images obtained by the respective imaging systems is provided. , An initial nucleus creating step of creating an initial nucleus for subject extraction from the disparity obtained by the parallax extracting step, and an image obtained by region growing the initial nucleus created by the initial nucleus creating step. A subject region extraction step for finding a subject region inside,
A storage step of collectively storing the subject area obtained by the subject area extraction step and the image captured by the imaging system.
【0017】また、上記第6の目的を達成するために請
求項6記載の撮像方法は、請求項5記載の撮像方法にお
いて、各撮像系の位置、向き、焦点距離の値を利用して
被写体までの代表視差を求める代表視差抽出ステップ
と、前記視差抽出ステップにより求められた視差と前記
代表視差抽出ステップにより求められた代表視差とを比
較する比較ステップとを有することを特徴とする。According to a sixth aspect of the present invention, there is provided an imaging method according to the sixth aspect, wherein the position, orientation, and focal length of each imaging system are used to obtain an object. A representative parallax extracting step of obtaining the representative parallax up to and a comparing step of comparing the parallax obtained by the parallax extracting step with the representative parallax obtained by the representative parallax extracting step.
【0018】また、上記第1の目的を達成するために請
求項7記載の撮像装置は、複数の撮像系を有する撮像装
置において、各撮像系の位置、向き、焦点距離の値を利
用して各撮像系で得られた画像間の視差を求める視差抽
出手段と、該視差抽出手段により求められた視差と前記
撮像系で撮像された画像とを一括に保存する保存手段と
を有することを特徴とする。According to another aspect of the present invention, there is provided an image pickup apparatus having a plurality of image pickup systems, the position, direction, and focal length of each image pickup system being utilized. It has parallax extraction means for obtaining parallax between images obtained by each imaging system, and storage means for collectively storing the parallax obtained by the parallax extraction means and the image captured by the imaging system. And
【0019】また、上記第2の目的を達成するために、
請求項8記載の撮像装置は、請求項7記載の撮像装置に
おいて、前記視差抽出手段において、各撮像系の位置、
向き、焦点距離の値を対応点抽出処理の探索範囲の限定
に用いることを特徴とする。In order to achieve the second object,
The imaging device according to claim 8 is the imaging device according to claim 7, wherein the parallax extracting unit includes a position of each imaging system,
It is characterized in that the values of the direction and the focal length are used to limit the search range of the corresponding point extraction processing.
【0020】また、上記第3の目的を達成するために請
求項9記載の撮像装置は、複数の撮像系を有する撮像装
置において、各撮像系の位置、向き、焦点距離の値を利
用して各撮像系で得られた画像間の視差を求める視差抽
出手段と、該視差抽出手段により求められた視差の信頼
度から撮り直すか否かを判断する判断手段と、前記視差
抽出手段により求められた視差と撮像系で撮像された画
像とを一括に保存する保存手段とを有することを特徴と
する。In order to achieve the third object, an image pickup apparatus according to a ninth aspect of the present invention is an image pickup apparatus having a plurality of image pickup systems, wherein the position, direction, and focal length of each image pickup system are utilized. Parallax extracting means for obtaining parallax between images obtained by the respective imaging systems, determining means for determining whether or not to take a picture again from the reliability of the parallax obtained by the parallax extracting means, Storage means for collectively storing the parallax and the image captured by the imaging system.
【0021】また、第4の目的を達成するために請求項
10記載の撮像装置は、請求項9記載の撮像装置におい
て、前記視差抽出手段において、各撮像系の位置、向
き、焦点距離の値を対応点抽出処理の探索範囲の限定に
用いることを特徴とする。According to a tenth aspect of the present invention, there is provided an imaging apparatus according to the ninth aspect, wherein the parallax extracting means includes a position, a direction, and a value of a focal length of each imaging system. Is used to limit the search range of the corresponding point extraction processing.
【0022】また、第5の目的を達成するために請求項
11記載の撮像装置は、複数の撮像系を有する撮像装置
において、各撮像系で得られた画像間の視差を求める視
差抽出手段と、該視差抽出手段により求められた視差か
ら被写体抽出のための初期核を作成する初期核作成手段
と、該初期核作成手段により作成された初期核を領域成
長させて画像中の被写体領域を求める被写体領域抽出手
段と、該被写体領域抽出手段により求められた被写体領
域と撮像系で撮像された画像とを一括に保存する保存手
段とを有することを特徴とする。According to another aspect of the present invention, there is provided an image pickup apparatus having a plurality of image pickup systems, comprising: a parallax extracting means for obtaining a parallax between images obtained by the respective image pickup systems. An initial nucleus creating unit that creates an initial nucleus for subject extraction from the parallax obtained by the parallax extracting unit; and growing the initial nucleus created by the initial nucleus creating unit to obtain a subject region in the image. It is characterized by comprising a subject area extracting means, and a storage means for collectively storing the subject area obtained by the subject area extracting means and an image taken by the imaging system.
【0023】また、第6の目的を達成するために請求項
12記載の撮像装置は、請求項11記載の撮像装置にお
いて、各撮像系の位置、向き、焦点距離の値を利用して
被写体までの代表視差を求める代表視差抽出手段と、前
記視差抽出手段により求められた視差と前記代表視差抽
出手段により求められた代表視差とを比較する比較手段
とを有することを特徴とする。According to a twelfth aspect of the present invention, there is provided an imaging apparatus as defined in the twelfth aspect, wherein the position, orientation, and focal length of each imaging system are used to reach a subject. A representative parallax extracting means for obtaining the representative parallax of the above, and a comparing means for comparing the parallax calculated by the parallax extracting means with the representative parallax calculated by the representative parallax extracting means.
【0024】また、第7の目的を達成するために請求項
13記載の記憶媒体は、複数の撮像系を有する撮像装置
を制御するプログラムを格納する記憶媒体であって、各
撮像系の位置、向き、焦点距離の値を利用して各撮像系
で得られた画像間の視差を求める視差抽出モジュール
と、該視差抽出モジュールにより求められた視差と前記
撮像系で撮像された画像とを一括に保存する保存モジュ
ールとを有するプログラムを格納したことを特徴とす
る。In order to achieve a seventh object, a storage medium according to claim 13 is a storage medium for storing a program for controlling an image pickup apparatus having a plurality of image pickup systems, wherein a position of each image pickup system, Orientation, a parallax extraction module that calculates the parallax between images obtained by each imaging system using the value of the focal length, and the parallax obtained by the parallax extraction module and the image captured by the imaging system are collectively obtained. A program having a storage module for storing is stored.
【0025】また、上記第7の目的を達成するために、
請求項14記載の記憶媒体は、請求項13記載の記憶媒
体において、前記視差抽出モジュールにおいて、各撮像
系の位置、向き、焦点距離の値を対応点抽出処理の探索
範囲の限定に用いることを特徴とする。In order to achieve the seventh object,
According to a fourteenth aspect of the present invention, in the storage medium according to the thirteenth aspect, in the parallax extraction module, values of a position, an orientation, and a focal length of each imaging system are used to limit a search range of the corresponding point extraction processing. Features.
【0026】また、上記第7の目的を達成するために、
請求項15記載の記憶媒体は、複数の撮像系を有する撮
像装置を制御するプログラムを格納する記憶媒体であっ
て、各撮像系の位置、向き、焦点距離の値を利用して各
撮像系で得られた画像間の視差を求める視差抽出モジュ
ールと、該視差抽出モジュールにより求められた視差の
信頼度から撮り直すか否かを判断する判断モジュール
と、前記視差抽出モジュールにより求められた視差と撮
像系で撮像された画像とを一括に保存する保存モジユー
ルとを有することを特徴とする。In order to achieve the seventh object,
The storage medium according to claim 15, which is a storage medium for storing a program for controlling an image pickup apparatus having a plurality of image pickup systems, wherein each of the image pickup systems uses a value of a position, an orientation, and a focal length of each image pickup system. A disparity extraction module for obtaining the disparity between the obtained images, a determination module for determining whether or not to retake the image based on the reliability of the disparity obtained by the disparity extraction module; and a disparity and imaging performed by the disparity extraction module. A storage module for collectively storing images captured by the system.
【0027】また、上記第7の目的を達成するために、
請求項16記載の記憶媒体は、請求項15記載の記憶媒
体において、前記視差抽出モジュールにおいて、各撮像
系の位置、向き、焦点距離の値を対応点抽出処理の探索
範囲の限定に用いることを特徴とする。In order to achieve the seventh object,
The storage medium according to claim 16 is the storage medium according to claim 15, wherein the parallax extraction module uses the values of the position, orientation, and focal length of each imaging system to limit the search range of the corresponding point extraction processing. Features.
【0028】また、上記第7の目的を達成するために、
請求項17記載の記憶媒体は、複数の撮像系を有する撮
像装置を制御するプログラムを格納する記憶媒体であっ
て、各撮像系で得られた画像間の視差を求める視差抽出
モジュールと、該視差抽出モジュールにより求められた
視差から被写体抽出のための初期核を作成する初期核作
成モジュールと、該初期核作成モジュールにより作成さ
れた初期核を領域成長させて画像中の被写体領域を求め
る被写体領域抽出モジュールと、該被写体領域抽出モジ
ュールにより求められた被写体領域と撮像系で撮像され
た画像とを一括に保存する保存モジュールとを有するこ
とを特徴とする。Further, in order to achieve the seventh object,
18. The storage medium according to claim 17, wherein the storage medium stores a program for controlling an image pickup apparatus having a plurality of image pickup systems, wherein a parallax extraction module for obtaining a parallax between images obtained by each image pickup system; An initial nucleus creation module for creating an initial nucleus for subject extraction from the parallax obtained by the extraction module, and a subject area extraction for obtaining a subject area in an image by growing the area of the initial nucleus created by the initial nucleus creation module A storage module that collectively stores a subject area obtained by the subject area extraction module and an image captured by an imaging system.
【0029】また、上記第7の目的を達成するために、
請求項18記載の記憶媒体は、請求項17記載の記憶媒
体において、各撮像系の位置、向き、焦点距離の値を利
用して被写体までの代表視差を求める代表視差抽出モジ
ュールと、前記視差抽出モジュールにより求められた視
差と前記代表視差抽出モジュールにより求められた代表
視差とを比較する比較モジュールとを有することを特徴
とする。Further, in order to achieve the seventh object,
The storage medium according to claim 18, wherein the representative parallax extraction module for obtaining a representative parallax to a subject using values of a position, an orientation, and a focal length of each imaging system, and the parallax extraction. A comparison module that compares the parallax obtained by the module and the representative parallax obtained by the representative parallax extraction module.
【0030】[0030]
【発明の実施の形態】以下、本発明の各実施の形態を図
面に基づき説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0031】(第1の実施の形態)まず、本発明の第1
の実施の形態について図1〜図10に基づき説明する。
図1は本発明の第1の実施の形態に係る撮像装置の構成
を示すブロック図である。同図において、101は左側
撮像系、102は右側撮像系、103は左側撮像系10
1により得られた画像信号をデジタル信号に変換する左
側用A/D変換手段、104は右側撮像系102により
得られた画像信号をデジタル信号に変換する右側用A/
D変換手段、105は撮像系の図示しないCCD(撮像
素子)からのRGB信号から輝度、色信号を生成する色
信号処理手段、106はシステムコントローラ、107
は被写体の明るさを測光し、その測光値に応じて絞り値
及びシャッタースピードを決定する測光手段、108は
撮像系のピント調節を行うピント検知手段、109は画
像を保持する第1のプロセスメモリ、110は同じく画
像を保持する第2のプロセスメモリ、111は対応点抽
出に使用されるワークメモリ、112は対応点抽出処理
を行う対応点抽出手段である。(First Embodiment) First, the first embodiment of the present invention will be described.
The embodiment will be described with reference to FIGS.
FIG. 1 is a block diagram showing the configuration of the imaging device according to the first embodiment of the present invention. In the figure, 101 is a left imaging system, 102 is a right imaging system, 103 is a left imaging system 10
A / D converter 104 for converting the image signal obtained by step 1 into a digital signal, and an A / D converter 104 for converting the image signal obtained by the right imaging system 102 into a digital signal.
D conversion means, 105 is a color signal processing means for generating luminance and color signals from RGB signals from a CCD (imaging element) (not shown) of the imaging system, 106 is a system controller, 107
Is a photometric unit that measures the brightness of the subject and determines an aperture value and a shutter speed according to the photometric value; 108, a focus detection unit that adjusts the focus of an imaging system; 109, a first process memory that holds an image , 110 is a second process memory for holding an image, 111 is a work memory used for corresponding point extraction, and 112 is a corresponding point extracting means for performing corresponding point extraction processing.
【0032】次に本実施の形態に係る撮像装置の動作を
図2のフローチャートに基づき説明する。まず、ステッ
プS201で本装置の電源がオン(ON)されると、次
のステップS202で左側撮像系101と右側撮像系1
02の初期化が行われる。それぞれのレンズ及び輻輳
角、基線長を制御し、それぞれが所定の位置にくるよう
にする。また、そのときの最初の位置が明確になること
により、焦点距離等を変化させたときも、図示しないス
テッピングモータに送るパルス数から、その値が正確に
分かる。次にステップS203で図示しないレリーズボ
タンが押されると、次のステップS204で測光手段1
07により被写体の明るさが測光され、その測光値に応
じて、絞り値及びシャッタースピードが決定される。次
にステップS205でピント検知手段108により左側
撮像系101と右側撮像系102は、被写体に対してピ
ントの調節が行われる。なお、これらの制御はシステム
コントローラ106を介して行われる、そして、ステッ
プS206で測光手段107により求められた絞り値及
びシャッタースピードで、左側撮像系101と右側撮像
系102は、同時にそれぞれ被写体を撮像する。左側撮
像系101で被写体を撮像した画像信号は、左側用A/
D変換手段103によりデジタル信号に変換される。右
側撮像系102で被写体を撮像した画像信号は、右側用
A/D変換手段104によりデジタル信号に変換され
る。Next, the operation of the imaging apparatus according to this embodiment will be described with reference to the flowchart of FIG. First, when the power of the apparatus is turned on (ON) in step S201, the left imaging system 101 and the right imaging system 1 are set in the next step S202.
02 is performed. The respective lenses, the convergence angle, and the base line length are controlled so that each of them is located at a predetermined position. Further, since the initial position at that time becomes clear, even when the focal length or the like is changed, the value can be accurately determined from the number of pulses sent to a stepping motor (not shown). Next, when a release button (not shown) is pressed in step S203, in the next step S204, the photometric unit 1 is pressed.
At 07, the brightness of the subject is measured, and the aperture value and the shutter speed are determined according to the measured light value. Next, in step S205, the focus of the left imaging system 101 and the right imaging system 102 is adjusted with respect to the subject by the focus detection unit 108. These controls are performed via the system controller 106. The left imaging system 101 and the right imaging system 102 simultaneously image the subject with the aperture value and shutter speed obtained by the photometry unit 107 in step S206. I do. An image signal obtained by imaging the subject with the left imaging system 101 is a left A / A signal.
The signal is converted into a digital signal by the D conversion means 103. An image signal obtained by imaging the subject with the right imaging system 102 is converted into a digital signal by the right A / D conversion unit 104.
【0033】右側用A/D変換手段104によりデジタ
ル信号に変換された右画像信号は、第1のプロセスメモ
リ109に保持される。また、左側用A/D変換手段1
03により変換された左画像信号は、ステップS207
で色信号処理手段105により処理されて第2のプロセ
スメモリ109に保持される。その処理が終了すると、
第1のプロセスメモリ109に保持されている右画像信
号は、ステップS207で色信号処理手段105により
処理されて再び第1のプロセスメモリ109に保持され
る。The right image signal converted into a digital signal by the right A / D converter 104 is held in the first process memory 109. A / D conversion means 1 for the left side
03 is converted to a left image signal in step S207.
Are processed by the color signal processing means 105 and stored in the second process memory 109. When that process ends,
The right image signal stored in the first process memory 109 is processed by the color signal processing unit 105 in step S207, and is stored again in the first process memory 109.
【0034】次にステップS208で対応点抽出手段1
12により対応点抽出処理を行うことにより、対応点
(視差)を求める。対応点抽出手段112では対応点を
求めるために、第1のプロセスメモリ109に保持され
ている右画像信号と第2のプロセスメモリ109に保持
されている左画像信号は、それぞれワークメモリ111
に保持されて、対応点抽出処理が行われる。同時に、そ
の結果からステップS209で再撮像を行うか(撮り直
すか)否かを判断し、再撮像を行う場合は、システムコ
ントローラ106へ信号を出力し、再撮像を行うフラグ
を立てる。ステップ209では、システムコントローラ
106が再撮像を行うフラグが立っているか否かを判断
し、立っている場合は、第1のプロセスメモリ109と
第2のプロセスメモリ110及びワークメモリ111を
開放し、前記ステップS203へ戻る。Next, at step S208, the corresponding point extracting means 1
A corresponding point (parallax) is obtained by performing a corresponding point extraction process using the processing of FIG. In order to obtain a corresponding point in the corresponding point extracting means 112, the right image signal held in the first process memory 109 and the left image signal held in the second process memory 109 are respectively processed by the work memory 111.
And a corresponding point extraction process is performed. At the same time, it is determined from the result in step S209 whether re-imaging is to be performed (whether to take a new image). If re-imaging is to be performed, a signal is output to the system controller 106 to set a flag for performing re-imaging. In step 209, the system controller 106 determines whether or not a flag for performing re-imaging is set. If the flag is set, the first process memory 109, the second process memory 110, and the work memory 111 are released. The process returns to step S203.
【0035】また、前記ステップ209において再撮像
を行うフラグが立っていない場合は、ステップ210で
ワークメモリ111に保持されている対応点抽出の結果
である視差を、対応点抽出処理を行ったときに基準にし
た画像、例えば右画像を基準にしたとすると、右画像信
号が保持されている第1のプロセスメモリ109に右画
像信号と共に保持する。次にステップ211で右画像信
号とその画像の属性を示す情報としての視差とが共に保
存される。If the flag for performing re-imaging is not set in step 209, the parallax, which is the result of the corresponding point extraction held in the work memory 111, is used in step 210 when the corresponding point extraction processing is performed. Assuming that an image based on the right image is used as a reference, for example, the right image signal is held in the first process memory 109 in which the right image signal is held. Next, in step 211, the right image signal and the parallax as information indicating the attribute of the image are stored together.
【0036】次に対応点抽出手段112で行われる対応
点抽出処理について説明する。対応点抽出とは、左画像
と右画像の対応点を求めることで、その対応する対の画
像中での位置の違いが視差に相当する。対応点抽出処理
を行う方法は、対応点抽出法と呼ばれ、複数種類があ
る。その中からここでは一般的なテンプレートマッチン
グ法を用いる。Next, the corresponding point extracting process performed by the corresponding point extracting means 112 will be described. Corresponding point extraction refers to finding a corresponding point between a left image and a right image, and the difference in position between the corresponding pair of images corresponds to parallax. A method of performing the corresponding point extraction processing is called a corresponding point extraction method, and there are a plurality of types. Here, a general template matching method is used.
【0037】このテンプレートマッチング法とは、図3
に示すように右画像302中の対応点をとりたい1点P
を囲むテンプレート303を考え、そのテンプレート3
03を左画像301中で移動させ、各点における類似度
を計算することにより、対応点を決定する方法である。FIG. 3 shows the template matching method.
As shown in the figure, one point P at which a corresponding point in the right image 302 is to be obtained.
Consider a template 303 that surrounds
03 is moved in the left image 301, and the similarity at each point is calculated to determine a corresponding point.
【0038】類似度を求める代表的な評価関数として
は、下記(1)式のように輝度値の差分を使用する関数
がある。As a typical evaluation function for obtaining the similarity, there is a function using a difference between luminance values as shown in the following equation (1).
【0039】[0039]
【数1】 上記(1)式中で、F(i,j)は右画像302から作
成したテンプレート303を、A(i,j)は左画像3
01を表わしている。つまり、上記(1)式は、左画像
301上でテンプレート303の位置を(v,h)だけ
移動させたときの類似度を示す。なお、上記(1)式を
用いると、E(v,h)が最小となった点が対応点であ
り、理論上E(v,h)の最小値は0になる。(Equation 1) In the above equation (1), F (i, j) represents the template 303 created from the right image 302, and A (i, j) represents the left image 3
01 is shown. That is, the above equation (1) indicates the similarity when the position of the template 303 is moved by (v, h) on the left image 301. Note that when the above equation (1) is used, the point at which E (v, h) becomes the minimum is the corresponding point, and the minimum value of E (v, h) becomes 0 in theory.
【0040】次に右画像を基準としたときの対応点抽出
処理について図4のフローチャートに基づき説明する。
まず、ステップS401で対応点抽出手段112は右画
像中の1点を選択し、その座標値をシステムコントロー
ラ106へ通知する。次にステップS402でシステム
コントローラ106は、得られた座標値を中心とするテ
ンプレートの領域を第1のプロセスメモリ109から求
め、それをテンプレートとしてワークメモリ111へ転
送する。次にステップS403で前記ステップS401
において選択された点の対応点が存在すると予測される
領域を第2のプロセスメモリ110から求め、それを探
索範囲としてワークメモリ111へ転送する。Next, the corresponding point extracting process based on the right image will be described with reference to the flowchart of FIG.
First, in step S401, the corresponding point extracting unit 112 selects one point in the right image, and notifies the system controller 106 of the coordinate value. Next, in step S402, the system controller 106 obtains a template area centered on the obtained coordinate values from the first process memory 109, and transfers it to the work memory 111 as a template. Next, at step S403, step S401 is performed.
Is obtained from the second process memory 110, and is transferred to the work memory 111 as the search range.
【0041】次にステップS404でワークメモリ11
1上のテンプレートを、図3で説明したようにワークメ
モリ111上の探索範囲で移動させ、各位置で上記
(1)式を用いて評価関数値を求め、その値が最小の点
を対応点とする。それと同時に、その対応点の信頼度を
求める。Next, at step S404, the work memory 11
3 is moved within the search range on the work memory 111 as described with reference to FIG. 3, and at each position, an evaluation function value is obtained by using the above equation (1). And At the same time, the reliability of the corresponding point is obtained.
【0042】図5は上記(1)式の評価関数(残差和)
の分布を示す図である。なお、探索範囲は実際は2次元
に広がっているので、評価関数の分布も実際は2次元で
あるが、今回は評価関数の分布を簡易に説明するため1
次元にしてある。FIG. 5 shows the evaluation function (residual sum) of the above equation (1).
FIG. Since the search range is actually two-dimensionally spread, the distribution of the evaluation function is actually two-dimensional.
It is a dimension.
【0043】図5(a)はピントが正確に合って、被写
体上の特徴点をテンプレートとして対応点を求めたとき
の残差和の分布を模式的に示したものである。ピントが
正確で露出が適正で被写体のテクスチャがあるときは、
図5(a)のように対応のところで残差和が0に近くな
り、その点以外では残差和が大きくなる。しかし、ピン
トが正確でなかったり、露出オーバーやアンダーのとき
は、図5(b)のように残差和の分布が全体的に滑らか
になり、対応するところ以外でも残差和が0に近くな
る。また、テンプレートの領域のテクスチャが無くのっ
ぺりしているときも同様に残差和の分布は図5(b)の
ようになる。そのようなときは、対応点の信頼度は無い
と判断してよく、そこで評価関数の値が最小の点と2番
目に最小の点を求めて、それらの点の評価関数値の差が
あるしきい値以下のときは信頼度がないと判断する。ま
た、テンプレートのテクスチャに似たテクスチャが探索
範囲内で複数存在するときも、評価関数の値が最小の点
と2番目に最小の点の評価関数値の差があるしきい値以
下になる。そのときも対応点の信頼度は低いので、同様
に信頼度が無いと判断しても問題ない。FIG. 5 (a) schematically shows the distribution of the sum of the residuals when the corresponding points are obtained by using the feature points on the subject as a template and focusing accurately. If the focus is accurate, the exposure is correct, and the subject has a texture,
As shown in FIG. 5 (a), the sum of the residuals becomes close to 0 at the corresponding point, and other than that point, the sum of the residuals becomes large. However, when the focus is not accurate or the exposure is over-exposed or under-exposed, the distribution of the residual sum becomes smooth as a whole as shown in FIG. Become. Similarly, when the texture of the template area has no texture, the distribution of the residual sum is as shown in FIG. 5B. In such a case, it may be determined that there is no reliability of the corresponding point, so that the value of the evaluation function and the second minimum value of the evaluation function are obtained, and there is a difference between the evaluation function values of those points. If it is less than the threshold, it is determined that there is no reliability. Also, when a plurality of textures similar to the texture of the template exist in the search range, the difference between the evaluation function value at the point where the evaluation function value is the smallest and the evaluation function value at the second smallest point is equal to or less than a threshold value. At this time, since the reliability of the corresponding point is low, there is no problem even if it is determined that there is no reliability.
【0044】次にステップS405で右画像上の求める
べき全ての点で対応点を求めたか否かを判断し、求めて
いなければ前記ステップS401へ戻る。また、前記ス
テップS405において求めていれば次のステップS4
06に進む。このステップS406では前記ステップS
404において求めた信頼度を基に再撮像を行うか否か
を判断する。信頼度がない対応点があるからといって、
それが全てピントが外れているとか露出が不適当という
わけではない。例えば、前記ステップS404において
も説明したようにテクスチャの影響があったりする。そ
こで、右画像中で求めた対応点のうち、信頼度がない対
応点数を求め、それが半数よりも多い場合にはピントが
外れているか露出が不適当とする。そして、もし、信頼
度がない対応点が半数以上のときは、即ち再撮像を行う
場合はステップS407でシステムコントローラ106
へ信号を出力し、再撮像を行うフラグを立てた後、本処
理動作を終了する。前記図2のステップS209におい
て説明したように、このフラグが立っているときは再撮
像を行う。また、前記ステップS406において、信頼
度がない対応点が半数以下の場合には、即ち再撮像を行
わない場合は、前記ステップS407をスキップして本
処理動作を終了する。Next, in step S405, it is determined whether or not corresponding points have been obtained at all points to be obtained on the right image. If not, the process returns to step S401. If it is determined in step S405, the next step S4
Proceed to 06. In this step S406, the aforementioned step S
It is determined whether to perform re-imaging based on the reliability obtained in 404. Just because there is a point of unreliability,
That's not all out of focus or improper exposure. For example, as described in the step S404, the influence of the texture may occur. Accordingly, among the corresponding points obtained in the right image, the number of corresponding points having no reliability is obtained. If the number is more than half, it is determined that the focus is out of focus or the exposure is inappropriate. If the number of corresponding points having no reliability is more than half, that is, if re-imaging is to be performed, the system controller 106 is executed in step S407.
After outputting a signal to set a flag for performing re-imaging, the present processing operation ends. As described in step S209 in FIG. 2, when this flag is set, re-imaging is performed. In step S406, if the number of corresponding points having no reliability is less than half, that is, if re-imaging is not performed, step S407 is skipped and the present processing operation ends.
【0045】次に探索範囲を予測することについて、図
6及び図7を用いて説明する。図6において、601は
左側撮像系101の主点、602は右側撮像系102の
主点、603は被写体、604は被写体603上の1点
P、605はエピポーラ面、606は左画像、607は
左画像606のエピポーラライン、608は右画像、6
09は右画像608のエピポーラライン、610は左側
撮像系101の光軸、611は右側撮像系102の光軸
である。Next, the estimation of the search range will be described with reference to FIGS. 6, reference numeral 601 denotes a principal point of the left imaging system 101, 602 denotes a principal point of the right imaging system 102, 603 denotes a subject, 604 denotes one point P on the subject 603, 605 denotes an epipolar surface, 606 denotes a left image, and 607 denotes a left image. Epipolar line of left image 606, right image 608
09 is an epipolar line of the right image 608, 610 is an optical axis of the left imaging system 101, and 611 is an optical axis of the right imaging system 102.
【0046】エピポーラ面605と被写体603上の1
点Pと主点601,602を結んで切る面である。ま
た、エピポーララインとは、エピポーラ面605が左画
像606及び右画像608と交差するラインである。つ
まり、右画像608中で被写体603上の1点P604
が撮像されている点Prの対応点は、必ず左側のエピポ
ーラライン607上に存在する。右画像608中の1点
が決まると、その点の座標と左側撮像系101、右側撮
像系102の焦点距離や輻輳角、それぞれの撮像系の回
転からエピポーララインは決定できる。例えば、図7に
示すように、左側撮像系101の光軸610と右側撮像
系102の光軸611とが平行で、光軸回りの回転もな
く、左側撮像系101と右側撮像系102の位置、向き
の違いは、画像の水平方向のみの平行移動だけであった
とすると、両エピポーラライン607,608は一直線
上にある。よって、右側エピポーラライン上の点Qrの
対応点を求めるには、左側エピポーラライン607上で
テンプレートを移動させればよいことが分かる。The epipolar plane 605 and the one on the subject 603
This is a plane that connects and cuts the point P and the principal points 601 and 602. The epipolar line is a line where the epipolar plane 605 intersects the left image 606 and the right image 608. That is, one point P604 on the subject 603 in the right image 608
Is always on the left epipolar line 607. When one point in the right image 608 is determined, the epipolar line can be determined from the coordinates of the point, the focal length and the convergence angle of the left imaging system 101 and the right imaging system 102, and the rotation of each imaging system. For example, as shown in FIG. 7, the optical axis 610 of the left imaging system 101 and the optical axis 611 of the right imaging system 102 are parallel, there is no rotation around the optical axis, and the positions of the left imaging system 101 and the right imaging system 102 Assuming that the difference in the direction is only a parallel movement of the image only in the horizontal direction, both epipolar lines 607 and 608 are on a straight line. Therefore, it can be seen that the corresponding point of the point Qr on the right epipolar line can be obtained by moving the template on the left epipolar line 607.
【0047】また、被写体603が無限遠にあるときを
考えると、図7のような撮像系の配置のときは、その被
写体603の左画像606中の位置と右画像608中の
位置とは互いに一致する。つまり、視差は0になる。ま
た、被写体603が有限距離にあるときは、被写体60
3が右画像608中に撮像される位置より左画像607
中に撮像される位置の方が右側になることになる。つま
り、図7の右画像608中の点Qrの対応点は、もし、
被写体603が無限遠にあるとして左画像607中の点
Ql1になり、被写体603が有限距離にあるとする
と、点Ql1よりも右側に存在することになる。以上の
被写体603の距離とエピポーララインの話より、点Q
rの対応点を探索する範囲は、図7の左画像607中の
斜線部のみでよいことが分かる。これらは、全て複眼カ
メラの撮像系の状態を示す情報により決定することがで
きる。なお、図7中の斜線部がエピポーララインよりも
広い面積を有するのは、カメラからの情報の誤差を考慮
しているためである。このように探索範囲を予測して、
その部分の画像のみを転送することにより、画像全体を
転送するよりも転送量が少なくて済み、転送時間の短縮
が可能となる。また、同様に探索範囲が少ないので、処
理時間の短縮が可能となる。Considering the case where the subject 603 is at infinity, when the imaging system is arranged as shown in FIG. 7, the position of the subject 603 in the left image 606 and the position in the right image 608 are mutually different. Matches. That is, the parallax becomes zero. When the subject 603 is at a finite distance, the subject 60
3 is the left image 607 from the position where it is imaged in the right image 608.
The position where the image is taken in is on the right side. That is, if the corresponding point of the point Qr in the right image 608 in FIG.
Assuming that the object 603 is at infinity, the point Ql1 in the left image 607 is obtained. If the object 603 is at a finite distance, the object 603 exists on the right side of the point Q11. From the distance of the subject 603 and the epipolar line, the point Q
It can be seen that the range for searching for the corresponding point of r only needs to be the shaded portion in the left image 607 of FIG. These can all be determined by information indicating the state of the imaging system of the compound-eye camera. The reason why the hatched portion in FIG. 7 has a larger area than the epipolar line is because errors in information from the camera are taken into account. Predicting the search range in this way,
By transferring only that part of the image, the amount of transfer is smaller than that of transferring the entire image, and the transfer time can be reduced. Similarly, since the search range is small, the processing time can be reduced.
【0048】次に右画像と視差の保存について説明す
る。対応点を求める際には、上記(1)式から分かるよ
うに、v方向とh方向の2次元に探索する。つまり、対
応点の位置は、テンプレートの中心点の座標を基準にす
ると、v方向とh方向にずれている。そこで、今回の説
明において視差はv方向とh方向があるとする。する
と、例えば図8において、図8(a)が右画像のとき、
右画像中の全ての点で対応点を求めると、右画像中の各
点の対応点のv方向の視差量を示す図8(b)とh方向
の視差量を示す図8(c)ができる。Next, the storage of the right image and the parallax will be described. When finding a corresponding point, a search is performed in two dimensions in the v direction and the h direction, as can be seen from equation (1). That is, the position of the corresponding point is shifted in the v direction and the h direction with reference to the coordinates of the center point of the template. Therefore, in this description, it is assumed that the parallax has the v direction and the h direction. Then, for example, in FIG. 8, when FIG. 8A is the right image,
When the corresponding points are obtained at all points in the right image, FIG. 8B showing the amount of parallax in the v direction of the corresponding points of each point in the right image and FIG. 8C showing the amount of parallax in the h direction are shown in FIG. it can.
【0049】図8(b),(c)は、画像を同じサイズ
で画像中の位置と同じ位置にその点の視差量を持ってい
ることを示している。つまり、画像の属性として視差を
画像と共に保存するときは、図8(a),(b),
(c)を全て、即ち例えば画像中の(i,j)番目の要
素は輝度値を示すr,g,b値と視差を示すh,v値を
持つように保存される。FIGS. 8B and 8C show that the image has the same size and the same parallax as that in the image. That is, when the parallax is stored together with the image as an attribute of the image, FIGS.
All of (c), that is, for example, the (i, j) -th element in the image is stored so as to have r, g, b values indicating luminance values and h, v values indicating parallax.
【0050】なお、図8(b),(c)では、数字の代
わりに矢印で示し、v方向は上が、h方向は右が矢であ
る。また、その矢印の長さは視差量を示している。この
ようなとき右画像と視差を保存する方法の1つとして、
図9(a)のように右画像、v方向視差、h方向視差を
それぞれ1枚の画像として保存する方法がある。このと
きは、この方法では右画像を表示したいときやh方向の
視差を表示したいときに便利であるし、基準となる原点
Oからの位置が同じ所を見ると、画素値もv方向の視差
値もh方向の視差値もすべて分かる。また、図9(b)
のように画素値とv方向の視差値とh方向の視差値とを
1組にして保存する方法もある。このときは、右画像中
の1点の視差値を見たいときに便利である。In FIGS. 8 (b) and 8 (c), arrows are shown instead of numbers, and the arrow in the v direction is upward and the arrow in the h direction is right. The length of the arrow indicates the amount of parallax. In such a case, one of the methods for storing the right image and the parallax is as follows.
As shown in FIG. 9A, there is a method of storing each of the right image, the v-direction parallax, and the h-direction parallax as one image. In this case, this method is convenient when displaying the right image or displaying the parallax in the h direction, and when looking at the same position from the origin O serving as the reference, the pixel value also becomes the parallax in the v direction. Both the value and the parallax value in the h direction are known. FIG. 9 (b)
There is also a method of storing a set of the pixel value, the disparity value in the v direction, and the disparity value in the h direction as shown in FIG. In this case, it is convenient to see the parallax value of one point in the right image.
【0051】上記図8及び図9を用いて説明したのは、
右画像中全てで対応点を求めた場合であるが、図10
(a)に黒点で示した代表点のみで視差を求める場合も
ある。そのときは、上述した図9の方法でもよいが、図
10(b)のように右画像の後に代表点の座標(i,
j)とその位置でのv方向視差とh方向視差を保存する
のが効率よい。また、対応点のv方向の視差は、複眼カ
メラの設置によっては、0にする若しくは0とみなすこ
とができる。よって、右画像とh方向の視差のみを保存
する方法もある。The reason described with reference to FIGS. 8 and 9 is as follows.
FIG. 10 shows a case where the corresponding points are obtained in all the right images.
In some cases, parallax is obtained only from the representative points indicated by black points in FIG. In that case, the method of FIG. 9 described above may be used, but as shown in FIG. 10B, the coordinates (i,
It is efficient to store j) and the v-direction parallax and the h-direction parallax at that position. Further, the parallax of the corresponding point in the v direction can be set to 0 or regarded as 0 depending on the installation of the compound-eye camera. Therefore, there is also a method of storing only the right image and the parallax in the h direction.
【0052】上述したように、対応点抽出手段を有する
複眼カメラでは、カメラの焦点距離等のパラメータを利
用して探索範囲の限定が可能となり、視差検出精度が向
上すると共に、処理時間の短縮が可能となる。また、視
差検出結果から撮り直しの指示が直ちに行える。更に、
求めた視差を画像と共に保存するので、視差を使用する
画像処理が容易に行えるという効果を奏する。As described above, in the compound-eye camera having the corresponding point extracting means, the search range can be limited by using the parameters such as the focal length of the camera, so that the parallax detection accuracy is improved and the processing time is shortened. It becomes possible. Further, an instruction to retake can be immediately given from the parallax detection result. Furthermore,
Since the obtained parallax is stored together with the image, it is possible to easily perform image processing using the parallax.
【0053】(第2の実施の形態)次に本発明の第2の
実施の形態について、図11〜図15に基づき説明す
る。本実施の形態は、対応点抽出手段で用いた視差を使
用して、被写体の抽出を行なうようにしたものである。(Second Embodiment) Next, a second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, a subject is extracted using the parallax used by the corresponding point extracting means.
【0054】まず、図11を用いてその原理を簡単に説
明する。図11は被写体抽出を模式的に示したものであ
る。図11(a)は右画像1101と初期核1102
(斜線部)、被写体1103を、図11(b)は右画像
1101とマスク1104(斜線部)を示す。対応点抽
出手段から得られた視差を使用して、被写体1103上
の点だと思われる点を初期核1102とする。そして、
その初期核1102を領域成長させて、最終的に被写体
1103を示すマスク1104を得る。これが被写体抽
出の簡単な流れである。First, the principle will be briefly described with reference to FIG. FIG. 11 schematically shows subject extraction. FIG. 11A shows a right image 1101 and an initial nucleus 1102.
FIG. 11B shows a right image 1101 and a mask 1104 (hatched portion). Using the parallax obtained from the corresponding point extracting means, a point considered to be a point on the subject 1103 is defined as an initial nucleus 1102. And
The initial nucleus 1102 is grown in area to finally obtain a mask 1104 showing the subject 1103. This is a simple flow of subject extraction.
【0055】初期核1102は画像を同じサイズで、そ
の画像中の画素が被写体1103上の画素と考えられる
ときには画像中と同じ位置にフラグを立てているもので
ある。被写体1103上の画素か否かは視差から判別さ
れ、被写体1103のおおよその距離から視差を求め、
それを比較することにより求められる。そして、そのフ
ラグを周囲に広げて(領域成長させて)マスク1104
を得る。The initial nucleus 1102 sets the flag at the same position as in the image when the image has the same size and the pixels in the image are considered to be pixels on the subject 1103. Whether or not the pixel is on the subject 1103 is determined from the parallax, and the parallax is calculated from the approximate distance of the subject 1103.
It is determined by comparing them. Then, the flag is extended to the surroundings (area is grown) and the mask 1104 is expanded.
Get.
【0056】図12は本発明の第2の実施の形態に係る
撮像装置の構成を示すブロック図であり、同図におい
て、上述した第1の実施の形態における図1と同一部分
には同一符号が付してある。図12において図1と異な
る点は、図1の構成に被写体抽出手段1101を付加し
たことであり、その他の構成は図1と同一である。被写
体抽出手段1101は対応点抽出手段112により得ら
れた視差を用いて、撮像系101,102により撮像さ
れた画像から被写体を抽出するものである。FIG. 12 is a block diagram showing the configuration of an image pickup apparatus according to the second embodiment of the present invention. In FIG. 12, the same reference numerals are used for the same parts as those in FIG. 1 in the first embodiment. Is attached. 12 differs from FIG. 1 in that a subject extracting unit 1101 is added to the configuration in FIG. 1, and the other configuration is the same as that in FIG. The subject extracting unit 1101 extracts a subject from images captured by the imaging systems 101 and 102 using the parallax obtained by the corresponding point extracting unit 112.
【0057】次に本実施の形態に係る撮像装置の処理手
順について、図13のフローチャートに基づき説明す
る。まず、ステップS1301で本装置の電源がオン
(ON)されると、次のステップS1302で左側撮像
系101と右側撮像系102の初期化が行われる。それ
ぞれのレンズ及び輻輳角、基線長を制御し、それぞれが
所定の位置にくるようにする。また、そのときの最初の
位置が明確になることにより、焦点距離等を変化させた
ときも、図示しないステッピングモータに送るパルス数
から、その値が正確に分かる。次にステップS1303
で図示しないレリーズボタンが押されると、次のステッ
プS1304で測光手段107により被写体の明るさが
測光され、その測光値に応じて、絞り値及びシャッター
スピードが決定される。次にステップS1305でピン
ト検知手段108により左側撮像系101と右側撮像系
102は、被写体に対してピントの調節が行われる。な
お、これらの制御はシステムコントローラ106を介し
て行われる、そして、ステップS1306で測光手段1
07により求められた絞り値及びシャッタースピード
で、左側撮像系101と右側撮像系102は、同時にそ
れぞれ被写体を撮像する。左側撮像系101で被写体を
撮像した画像信号は、左側用A/D変換手段103によ
りデジタル信号に変換される。右側撮像系102で被写
体を撮像した画像信号は、右側用A/D変換手段104
によりデジタル信号に変換される。Next, the processing procedure of the imaging apparatus according to the present embodiment will be described with reference to the flowchart of FIG. First, when the power of the apparatus is turned on (ON) in step S1301, the left imaging system 101 and the right imaging system 102 are initialized in the next step S1302. The respective lenses, the convergence angle, and the base line length are controlled so that each of them is located at a predetermined position. Further, since the initial position at that time becomes clear, even when the focal length or the like is changed, the value can be accurately determined from the number of pulses sent to a stepping motor (not shown). Next, step S1303
When a release button (not shown) is pressed, the brightness of the subject is measured by the photometric unit 107 in the next step S1304, and the aperture value and shutter speed are determined according to the photometric value. Next, in step S1305, the focus of the left imaging system 101 and the right imaging system 102 is adjusted by the focus detection unit 108 with respect to the subject. Note that these controls are performed via the system controller 106, and in step S1306, the photometric unit 1
The left imaging system 101 and the right imaging system 102 simultaneously image the subject, respectively, with the aperture value and the shutter speed obtained by 07. An image signal obtained by imaging the subject with the left imaging system 101 is converted into a digital signal by the A / D conversion means 103 for the left. An image signal obtained by imaging the subject by the right imaging system 102 is converted into a right A / D converter 104.
Is converted into a digital signal.
【0058】右側用A/D変換手段104によりデジタ
ル信号に変換された右画像信号は、第1のプロセスメモ
リ109に保持される。また、左側用A/D変換手段1
03により変換された左画像信号は、ステップS130
7で色信号処理手段105により処理されて第2のプロ
セスメモリ109に保持される。その処理が終了する
と、第1のプロセスメモリ109に保持されている右画
像信号は、ステップS1307で色信号処理手段105
により処理されて再び第1のプロセスメモリ109に保
持される。The right image signal converted into a digital signal by the right A / D converter 104 is held in the first process memory 109. A / D conversion means 1 for the left side
03 is converted to a left image signal in step S130.
In step 7, the signal is processed by the color signal processing unit 105 and stored in the second process memory 109. When the processing is completed, the right image signal held in the first process memory 109 is output to the color signal processing unit 105 in step S1307.
And stored again in the first process memory 109.
【0059】次にステップS1308で対応点抽出手段
112により対応点抽出処理を行うことにより、対応点
(視差)を求め、更にその視差を使用して初期核を求め
る。対応点抽出手段112では対応点を求めるために、
第1のプロセスメモリ109に保持されている右画像信
号と第2のプロセスメモリ109に保持されている左画
像信号は、それぞれワークメモリ111に保持されて、
対応点抽出処理が行われる。そして、その視差の値か
ら、図14を用いて後で詳述するように、その点が被写
体上に存在するか否かを判別し、存在すれば初期核とす
る。同時に、その結果からステップS1309で再撮像
を行うか(撮り直すか)否かを判断し、再撮像を行う場
合は、システムコントローラ106へ信号を出力し、再
撮像を行うフラグを立てる。ステップ1309では、シ
ステムコントローラ106が再撮像を行うフラグが立っ
ているか否かを判断し、立っている場合は、第1のプロ
セスメモリ109と第2のプロセスメモリ110及びワ
ークメモリ111を開放し、前記ステップS1303へ
戻る。Next, in step S1308, a corresponding point extraction process is performed by the corresponding point extracting means 112 to obtain a corresponding point (parallax), and an initial nucleus is obtained using the parallax. In order to obtain a corresponding point in the corresponding point extracting means 112,
The right image signal held in the first process memory 109 and the left image signal held in the second process memory 109 are held in the work memory 111, respectively.
Corresponding point extraction processing is performed. Then, from the value of the parallax, it is determined whether or not the point exists on the subject, as described later in detail with reference to FIG. At the same time, it is determined in step S1309 whether re-imaging is to be performed (re-imaging) based on the result. If re-imaging is to be performed, a signal is output to the system controller 106 to set a flag for performing re-imaging. In step 1309, the system controller 106 determines whether or not a flag for performing re-imaging is set. If the flag is set, the first process memory 109, the second process memory 110, and the work memory 111 are released. The process returns to step S1303.
【0060】また、前記ステップ1309において再撮
像を行うフラグが立っていない場合は、ステップ131
0でワークメモリ111に保持されている対応点抽出の
結果の初期核は、対応点抽出処理を行ったときに基準に
した画像、例えば右画像を基準にしたとすると、右画像
信号が保持されている第1のプロセスメモリ109に右
画像信号と共に保持する。次にステップ1311でワー
クメモリ111を開放し、次にステップ1312で第1
のプロセスメモリ109に保持されている右画像信号と
初期核をワークメモリ111に保持する。そして、ステ
ップ1313で被写体抽出手段1101によりワークメ
モリ111に保持されている右画像信号と初期核を抽出
する。そして、その結果を第1のプロセスメモリ109
に右画像信号と共に保持する。次にステップ1314で
右画像信号とその画像のアトリビュートとして被写体信
号が保存される。If the flag for re-imaging is not set in step 1309, step 131
The initial kernel of the corresponding point extraction result held in the work memory 111 at 0 is a right image signal, assuming that the image used as the reference when the corresponding point extraction processing is performed, for example, the right image is used as the reference. And the right image signal in the first process memory 109. Next, in step 1311, the work memory 111 is released.
The right image signal and the initial kernel held in the process memory 109 are held in the work memory 111. Then, in step 1313, the right image signal and the initial nucleus stored in the work memory 111 are extracted by the subject extracting means 1101. Then, the result is stored in the first process memory 109.
And the right image signal. Next, in step 1314, the right image signal and the subject signal are stored as attributes of the image.
【0061】次に対応点抽出手段112で行われる対応
点抽出処理について説明する。基本的には上述した第1
の実施の形態において示したのと同様であるが、異なる
点について説明する。Next, the corresponding point extracting process performed by the corresponding point extracting means 112 will be described. Basically, the first
This embodiment is the same as the embodiment described above, but different points will be described.
【0062】図14は右画像を基準としたときの対応点
抽出処理手順を示すフローチャートである。まず、ステ
ップS1401でシステムコントローラ106からオー
トフォーカスに用いた被写体距離等のカメラパラメータ
を得、その値を用いて被写体のおおよその視差値を求め
る。具体的には、オートフォーカスに用いた被写体距離
をz、そのときの焦点距離をf、撮像系の図示しないC
CD(撮像素子)の画素のピッチをp、基線長をbとす
ると、被写体のおおよその視差値dは、下記(2)式で
求められる。FIG. 14 is a flowchart showing the procedure of the corresponding point extraction processing based on the right image. First, in step S1401, camera parameters such as a subject distance used for autofocus are obtained from the system controller 106, and an approximate parallax value of the subject is obtained using the values. Specifically, the subject distance used for autofocusing is z, the focal length at that time is f,
Assuming that the pixel pitch of the CD (image sensor) is p and the base line length is b, the approximate parallax value d of the subject can be obtained by the following equation (2).
【0063】 d=(f・b)/(z・p) … (2) 次にステップS1402で対応点抽出手段112は右画
像中の1点を選択し、その座標値をシステムコントロー
ラ106へ通知する。次にステップS1403でシステ
ムコントローラ106は、得られた座標値を中心とする
テンプレートの領域を第1のプロセスメモリ109から
求め、それをテンプレートとしてワークメモリ111へ
転送する。次にステップS1404で前記ステップS1
402において選択された点の対応点が存在すると予測
される領域を第2のプロセスメモリ110から求め、そ
れを探索範囲としてワークメモリ111へ転送する。探
索範囲の予測は、上述した第1の実施の形態において説
明した通りである。D = (f · b) / (z · p) (2) Next, in step S1402, the corresponding point extracting unit 112 selects one point in the right image and notifies the system controller 106 of the coordinate value. I do. Next, in step S1403, the system controller 106 obtains a template area centered on the obtained coordinate value from the first process memory 109, and transfers it to the work memory 111 as a template. Next, in step S1404, step S1 is performed.
An area where it is predicted that a point corresponding to the point selected in 402 exists is obtained from the second process memory 110, and is transferred to the work memory 111 as a search range. The prediction of the search range is as described in the first embodiment.
【0064】次にステップS1405でワークメモリ1
11上のテンプレートを、ワークメモリ111上の探索
範囲で移動させ、各位置で上記(1)式を用いて評価関
数値を求め、その値が最小の点を対応点とする。それと
同時に、その対応点の信頼度を求める。次にステップS
1406で求めた対応点の視差ddと前記ステップS1
401において求めた被写体のおおよその視差dとで差
の絶対値を求め、その値がある値より小さければ被写体
の初期核として、大きければ被写体ではないとして、捨
てる。次にステップS1407で右画像上の求めるべき
全ての点で対応点を求めたか否かを判断し、求めていな
ければ前記ステップS1402へ戻る。また、前記ステ
ップS1407において求めていれば次のステップS1
408に進む。このステップS1408では前記ステッ
プS1406において求めた信頼度を基に再撮像を行う
か否かを判断する。信頼度がない対応点が半数以上のと
きは、即ち再撮像を行う場合はステップS1409でシ
ステムコントローラ106へ信号を出力し、再撮像を行
うフラグを立てた後、本処理動作を終了する。また、前
記ステップS1408において、信頼度がない対応点が
半数以下の場合には、即ち再撮像を行わない場合は、前
記ステップS1409をスキップして本処理動作を終了
する。Next, in step S1405, the work memory 1
The template on 11 is moved in the search range on the work memory 111, and an evaluation function value is obtained at each position using the above equation (1), and a point having the minimum value is set as a corresponding point. At the same time, the reliability of the corresponding point is obtained. Next, step S
The parallax dd of the corresponding point obtained in 1406 and the aforementioned step S1
The absolute value of the difference with the approximate parallax d of the subject obtained in 401 is obtained, and if the value is smaller than a certain value, it is discarded as the initial kernel of the subject, and if it is larger, it is not the subject. Next, in step S1407, it is determined whether corresponding points have been obtained at all points to be obtained on the right image. If not, the process returns to step S1402. If it is determined in step S1407, the next step S1
Proceed to 408. In step S1408, it is determined whether or not to perform re-imaging based on the reliability obtained in step S1406. If the number of corresponding points having unreliability is half or more, that is, if reimaging is to be performed, a signal is output to the system controller 106 in step S1409, a flag for performing reimaging is set, and the processing operation is terminated. In step S1408, if the number of corresponding points having no reliability is less than half, that is, if re-imaging is not performed, step S1409 is skipped, and the process ends.
【0065】次に被写体抽出手段1101の処理につい
て図15のフローチャートを用いて説明する。対応点抽
出は被写体の輪郭の周囲のテクスチャのない所では苦手
であるので、対応点抽出手段112により得られた初期
核のみから被写体抽出を行うと、被写体抽出を綺麗に行
うことができない。上記図11で示したように、初期核
は被写体よりも小さくなる傾向があるので、それを被写
体の輪郭まで領域成長させて、マスクとして抽出する必
要がある。そこで、被写体抽出手段1101では、初期
核を基にそれを領域成長させてマスクを得て、被写体を
綺麗に抽出するようにする。具体的には、初期核とその
近傍画素との画像特徴量の類似度判定を行い、その結果
を用いて初期核を領域成長させてマスクを得る。つま
り、類似度があるしきい値より高ければ同一被写体領域
とみなして領域成長させる。領域成長処理の内容説明は
省略し、ここでは、図15を参照して処理の流れを説明
する。Next, the processing of the subject extracting means 1101 will be described with reference to the flowchart of FIG. Since the extraction of corresponding points is not good at places where there is no texture around the contour of the subject, if the subject is extracted only from the initial nucleus obtained by the corresponding point extracting means 112, the subject cannot be extracted neatly. As shown in FIG. 11, since the initial nucleus tends to be smaller than the subject, it is necessary to grow the region to the contour of the subject and extract it as a mask. Therefore, the subject extracting means 1101 obtains a mask by growing the area based on the initial nucleus and obtains a mask, thereby extracting the subject neatly. Specifically, the similarity of the image feature amount between the initial nucleus and its neighboring pixels is determined, and the mask is obtained by growing the initial nucleus using the result. That is, if the similarity is higher than a certain threshold value, the region is regarded as the same subject region and the region is grown. A description of the region growing process is omitted, and the flow of the process will be described with reference to FIG.
【0066】まず、ステップS1501で右画像信号の
画像中のエッジを抽出する。エッジを抽出するにはSo
bel,Roberts等の演算子を用いる。これは領
域成長が被写体の輪郭で止まるようにするためである。
次にステップS1502で初期核から1点を抽出する。
次にステップS1503でその8近傍から1点を抽出す
る。次にステップS1504で前記ステップS1503
において抽出された点がエッジ上にあるか、もしくは初
期核、マスク上にあるかを判断し、あれば前記ステップ
S1503へ戻る。また、エッジ上の点、初期核上の
点、マスク上の点でなければステップS1505へ進
む。First, in step S1501, edges in the image of the right image signal are extracted. So to extract edges
Operators such as bel and Roberts are used. This is to make the region growth stop at the contour of the subject.
Next, in step S1502, one point is extracted from the initial nucleus.
Next, in step S1503, one point is extracted from the eight neighborhoods. Next, in step S1504, the process proceeds to step S1503.
It is determined whether the extracted point is on the edge or on the initial nucleus or mask, and if it is, the process returns to step S1503. If it is not a point on the edge, a point on the initial nucleus, or a point on the mask, the process advances to step S1505.
【0067】ステップS1505では輝度レベルのしき
い値Ithを使用して、8近傍の画素のRGB成分の値
と類似度判定を行う。次にステップS1506で色相の
しきい値Hthを使用して、同様に8近傍の色相値と類
似度判定を行う。次にステップS1507でRGBそれ
ぞれの差分絶対値がしきい値Hthより小さいときにそ
の画素を初期核に併合し、マスクとして領域成長させ
る。次にステップS1508で8近傍全ての点で行なっ
たか否かを判断し、行っていなければ前記ステップS1
503へ戻る。また、8近傍全ての点で行っていればス
テップS1509で初期核全ての点で行なったか否かを
判断し、行っていなければ前記ステップS1502へ戻
る。また、初期核全ての点で行っていればステップS1
510で領域成長する画素があるか否かを判断し、なけ
れば前記ステップS1502へ戻り、あれば本処理動作
を終了する。In step S1505, using the threshold value Ith of the luminance level, the values of the RGB components of pixels near eight and the similarity are determined. Next, in step S1506, the similarity determination is performed with the hue values near eight using the hue threshold value Hth. Next, in step S1507, when the difference absolute value of each of RGB is smaller than the threshold value Hth, the pixel is merged with the initial nucleus, and the region is grown as a mask. Next, in step S1508, it is determined whether or not the processing has been performed for all the eight neighboring points.
Return to 503. If the processing has been performed at all points in the vicinity of eight, it is determined in step S1509 whether or not the processing has been performed at all points of the initial nucleus. If not performed, the flow returns to step S1502. If the process has been performed at all points of the initial nucleus, step S1
In step 510, it is determined whether or not there is a pixel whose area is to be grown. If not, the process returns to step S1502. If there is, the process ends.
【0068】以上詳述したように、対応点抽出手段及び
被写体抽出手段を有する複眼カメラでは、カメラの焦点
距離等のパラメータを利用して探索範囲の限定が可能と
なり、視差検出精度が向上すると共に、対応点抽出処理
時間の短縮が可能となる。そして、求めた各画素の視差
とその複眼カメラのパラメータから被写体切り出しのた
めの初期核が設定でき、領域成長により精度の高い被写
体切り出しが可能になる。また、視差検出結果から取り
直しの指示が直ちに行えるという効果を奏する。As described in detail above, in the compound eye camera having the corresponding point extracting means and the subject extracting means, the search range can be limited by using parameters such as the focal length of the camera, and the parallax detection accuracy can be improved and In addition, the corresponding point extraction processing time can be reduced. Then, an initial nucleus for subject extraction can be set based on the obtained parallax of each pixel and the parameters of the compound-eye camera, and highly accurate subject extraction can be performed by region growth. In addition, there is an effect that an instruction to retake can be given immediately from the parallax detection result.
【0069】(第3実施の形態)次に本発明の撮像装置
に用いる記憶媒体について、図16〜図18を用いて説
明する。(Third Embodiment) Next, a storage medium used in the image pickup apparatus of the present invention will be described with reference to FIGS.
【0070】複数の撮像系により互いに視差を有する画
像を撮像する撮像装置を制御するプログラムを格納する
記憶媒体には、図16に示すように、少なくとも「視差
抽出モジュール」、「保存モジュール」の各モジュール
のプログラムコードを格納すればよい。As shown in FIG. 16, at least a “parallax extraction module” and a “storage module” are stored in a storage medium for storing a program for controlling an imaging apparatus that captures images having parallax from each other by a plurality of imaging systems. What is necessary is just to store the program code of a module.
【0071】ここで、「視差抽出モジュール」は各撮像
系の位置、向き、焦点距離等のパラメータの値を利用し
て各撮像系で得られた画像間の視差を求めるためのプロ
グラムモジュールである。また、「保存モジュール」は
前記「視差抽出モジュール」により求められた視差と前
記各撮像系で撮像された画像とを一括に保存するための
プログラムモジュールである。Here, the "parallax extraction module" is a program module for obtaining the parallax between images obtained by each imaging system using the values of parameters such as the position, orientation, and focal length of each imaging system. . The “storage module” is a program module for collectively storing the parallax obtained by the “parallax extraction module” and the images captured by the respective imaging systems.
【0072】また、複数の撮像系により互いに視差を有
する画像を撮像する撮像装置を制御するプログラムを格
納する別の記憶媒体には、図17に示すように、少なく
とも「視差抽出モジュール」、「判断モジュール」、
「保存モジュール」の各モジュールのプログラムコード
を格納すればよい。Further, as shown in FIG. 17, at least a “parallax extraction module”, a “judgment determination module”, and a “ module",
What is necessary is just to store the program code of each module of the "storage module".
【0073】ここで、「視差抽出モジュール」は各撮像
系の位置、向き、焦点距離等のパラメータの値を利用し
て各撮像系で得られた画像間の視差を求めるためのプロ
グラムモジュールである。また、「判断モジュール」は
前記「視差抽出モジュール」により求められた視差の信
頼度から撮り直すか否かを判断するためのプログラムモ
ジュールである。また、「保存モジュール」は前記「視
差抽出モジュール」により求められた視差と前記各撮像
系で撮像された画像とを一括に保存するためのプログラ
ムモジュールである。Here, the "parallax extraction module" is a program module for obtaining the parallax between images obtained by each imaging system using the values of parameters such as the position, orientation, and focal length of each imaging system. . The “judgment module” is a program module for judging whether or not to retake an image based on the reliability of the parallax obtained by the “parallax extraction module”. The “storage module” is a program module for collectively storing the parallax obtained by the “parallax extraction module” and the images captured by the respective imaging systems.
【0074】また、複数の撮像系により互いに視差を有
する画像を撮像する撮像装置を制御するプログラムを格
納する更に別の記憶媒体には、図18に示すように、少
なくとも「視差抽出モジュール」、「初期核作成モジュ
ール」、「被写体領域抽出モジュール」、「保存モジュ
ール」の各モジュールのプログラムコードを格納すれば
よい。As shown in FIG. 18, at least another parallax extracting module, a parallax extracting module and a parallax extracting module are stored in another storage medium for storing a program for controlling an image pickup apparatus for picking up images having parallax from each other by a plurality of image pickup systems. What is necessary is just to store the program code of each module of the "initial nucleus creation module", "subject region extraction module", and "save module".
【0075】ここで、「視差抽出モジュール」は各撮像
系で得られた画像間の視差を求めるためのプログラムモ
ジュールである。また、「初期核作成モジュール」は前
記「視差抽出モジュール」により求められた視差から被
写体抽出のための初期核を作成するためのプログラムモ
ジュールである。また、「被写体領域抽出モジュール」
は前記「初期核作成モジュール」により求められた初期
核を領域成長させて画像中の被写体領域を求めるための
プログラムモジュールである。また、「保存モジュー
ル」は前記「被写体抽出モジュール」により求められた
被写体領域と前記各撮像系で撮像された画像とを一括に
保存するためのプログラムモジュールである。Here, the “disparity extraction module” is a program module for obtaining the disparity between images obtained by each imaging system. The “initial nucleus creation module” is a program module for creating an initial nucleus for subject extraction from the parallax obtained by the “parallax extraction module”. "Subject area extraction module"
Is a program module for obtaining a subject area in an image by growing a region of the initial nucleus obtained by the "initial nucleus creation module". The “save module” is a program module for collectively saving the subject area obtained by the “subject extraction module” and the images captured by the respective imaging systems.
【0076】[0076]
【発明の効果】以上詳述したように本発明の請求項1及
び7記載の撮像方法及び装置によれば、高精度の視差を
求めることができると共に、正しい左右画像対を使用し
て視差を求めることができ、しかも求めた視差を画像と
共に記憶できるという効果を奏する。As described above in detail, according to the imaging method and apparatus according to the first and seventh aspects of the present invention, it is possible to obtain a high-precision parallax, and to correct the parallax using a correct pair of left and right images. It is possible to obtain the parallax and to store the obtained parallax together with the image.
【0077】また、本発明の請求項2及び8記載の撮像
方法及び装置によれば、高精度の視差を求めることがで
きると共に、対応点抽出の処理時間の短縮を図ることで
き且つ正しい左右画像対を使用して視差を求めることが
でき、しかも求めた視差を画像と共に記憶できるという
効果を奏する。According to the imaging method and apparatus according to the second and eighth aspects of the present invention, a highly accurate parallax can be obtained, the processing time of corresponding point extraction can be shortened, and a correct left and right image can be obtained. The parallax can be obtained using the pair, and the obtained parallax can be stored together with the image.
【0078】また、本発明の請求項3及び9記載の撮像
方法及び装置によれば、高精度の視差を求めることがで
きると共に、正しい左右画像対を使用して視差を求める
ことができ、しかも視差がうまく求められないときを判
断して、直ちに再撮像を行うことができ、更に求めた視
差を画像と共に記憶できるという効果を奏する。According to the third and ninth aspects of the present invention, a highly accurate parallax can be obtained, and a parallax can be obtained by using a correct pair of right and left images. It is possible to determine when parallax is not successfully obtained, to immediately perform re-imaging, and to store the obtained parallax together with an image.
【0079】また、本発明の請求項4及び10記載の撮
像方法及び装置によれば、高精度の視差を求めることが
できると共に、対応点抽出の処理時間の短縮を図ること
でき、且つ正しい左右画像対を使用して視差を求めるこ
とができ、しかも視差がうまく求められないときを判断
して、直ちに再撮像を行うことができ、更に求めた視差
を画像と共に記憶できという効果を奏する。Further, according to the imaging method and apparatus according to the fourth and tenth aspects of the present invention, a highly accurate parallax can be obtained, the processing time of corresponding point extraction can be shortened, and correct right and left parallax can be obtained. The parallax can be obtained by using the image pair, and when the parallax cannot be obtained well, the re-imaging can be performed immediately, and the obtained parallax can be stored together with the image.
【0080】更に、本発明の記憶媒体によれば、上述し
た撮像装置を円滑に制御することができるという効果を
奏する。Further, according to the storage medium of the present invention, there is an effect that the above-described imaging device can be smoothly controlled.
【図1】本発明の第1の実施の形態に係る撮像装置の構
成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an imaging device according to a first embodiment of the present invention.
【図2】同撮像装置の処理の流れを示すフローチャート
である。FIG. 2 is a flowchart showing a flow of processing of the imaging apparatus.
【図3】同撮像装置の対応点抽出法を示す説明図であ
る。FIG. 3 is an explanatory diagram showing a corresponding point extraction method of the imaging device.
【図4】同撮像装置の対応点抽出手段の処理の流れを示
すフローチャートである。FIG. 4 is a flowchart showing a processing flow of a corresponding point extracting means of the imaging apparatus.
【図5】同撮像装置の残差和の変化を示す図である。FIG. 5 is a diagram showing a change in a residual sum of the imaging apparatus.
【図6】同撮像装置のエピポーラライン等を示す図であ
る。FIG. 6 is a diagram showing an epipolar line and the like of the imaging apparatus.
【図7】同撮像装置の探索範囲を示す図である。FIG. 7 is a diagram showing a search range of the imaging device.
【図8】同撮像装置の画像と視差を示す図である。FIG. 8 is a diagram showing an image and parallax of the imaging device.
【図9】同撮像装置の画像と視差の保存法を示す図であ
る。FIG. 9 is a diagram showing a method for storing an image and parallax of the imaging apparatus.
【図10】同撮像装置の代表点の対応点抽出とその結果
の保存法を示す図である。FIG. 10 is a diagram showing a method for extracting corresponding points of representative points and storing the results of the imaging apparatus.
【図11】同撮像装置の被写体抽出の概要を示す図であ
る。FIG. 11 is a diagram showing an outline of subject extraction by the imaging apparatus.
【図12】本発明の第2の実施の形態に係る撮像装置の
構成を示すブロック図である。FIG. 12 is a block diagram illustrating a configuration of an imaging device according to a second embodiment of the present invention.
【図13】同撮像装置の処理の流れを示すフローチャー
トである。FIG. 13 is a flowchart showing a processing flow of the imaging apparatus.
【図14】同撮像装置の対応点抽出手段の処理の流れを
示すフローチャートである。FIG. 14 is a flowchart showing a flow of processing of a corresponding point extracting means of the imaging apparatus.
【図15】同撮像装置の被写体抽出手段の処理の流れを
示すフローチャートである。FIG. 15 is a flowchart showing a flow of processing of a subject extracting unit of the imaging device.
【図16】本発明の撮像装置に用いる記憶媒体に格納す
るプログラムコードのモジュールを示す図である。FIG. 16 is a diagram showing a module of a program code stored in a storage medium used in the imaging apparatus of the present invention.
【図17】本発明の複眼撮像装置に用いる図16とは異
なる記憶媒体に格納するプログラムコードのモジュール
を示す図である。FIG. 17 is a diagram showing a module of a program code stored in a storage medium different from that of FIG. 16 used in the compound eye imaging apparatus of the present invention.
【図18】本発明の撮像装置に用いる図16及び図17
とは異なる記憶媒体に格納するプログラムコードのモジ
ュールを示す図である。18 and 17 used in the imaging apparatus of the present invention.
FIG. 3 is a diagram showing modules of a program code stored in a storage medium different from FIG.
101 左側撮像系 102 右側撮像系 103 左側A/D変換手段 104 右側A/D変換手段 105 色信号処理手段 106 システムコントローラ 107 測光手段 108 ピント検知手段 109 第1のプロセスメモリ 110 第2のプロセスメモリ 111 ワークメモリ 112 対応点抽出手段 1101 被写体抽出手段 DESCRIPTION OF SYMBOLS 101 Left imaging system 102 Right imaging system 103 Left A / D conversion means 104 Right A / D conversion means 105 Color signal processing means 106 System controller 107 Photometry means 108 Focus detection means 109 First process memory 110 Second process memory 111 Work memory 112 Corresponding point extracting means 1101 Subject extracting means
───────────────────────────────────────────────────── フロントページの続き (72)発明者 倉橋 直 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 崎村 岳生 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Nao Kurahashi 3-30-2 Shimomaruko, Ota-ku, Tokyo Inside Canon Inc. (72) Inventor Takeo Sakimura 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inside the company
Claims (18)
像する撮像方法において、各撮像系の位置、向き、焦点
距離の値を利用して各撮像系で得られた画像間の視差を
求める視差抽出ステップと、該視差抽出ステップにより
求められた視差と前記撮像系で撮像された画像とを一括
に保存する保存ステップとを有することを特徴とする撮
像方法。1. An image pickup method for picking up an image by an image pickup apparatus having a plurality of image pickup systems, wherein a parallax for obtaining a parallax between images obtained by the respective image pickup systems by using values of a position, an orientation, and a focal length of each image pickup system. An imaging method, comprising: an extraction step; and a storage step of saving the parallax obtained by the parallax extraction step and an image captured by the imaging system all together.
系の位置、向き、焦点距離の値を対応点抽出処理の探索
範囲の限定に用いることを特徴とする請求項1記載の撮
像方法。2. The imaging method according to claim 1, wherein in the parallax extraction step, values of a position, an orientation, and a focal length of each imaging system are used to limit a search range of a corresponding point extraction process.
像する撮像方法において、各撮像系の位置、向き、焦点
距離の値を利用して各撮像系で得られた画像間の視差を
求める視差抽出ステップと、該視差抽出ステップにより
求められた視差の信頼度から撮り直すか否かを判断する
判断ステップと、前記視差抽出ステップにより求められ
た視差と撮像系で撮像された画像とを一括に保存する保
存ステップとを有することを特徴とする撮像方法。3. An image pickup method for picking up an image by an image pickup apparatus having a plurality of image pickup systems, wherein parallax for obtaining a parallax between images obtained by the respective image pickup systems by using values of a position, an orientation, and a focal length of each image pickup system. An extracting step, a judging step of judging whether or not to retake the image from the reliability of the parallax obtained by the parallax extracting step, and the parallax obtained by the parallax extracting step and the image captured by the imaging system in a lump. And a storing step of storing.
系の位置、向き、焦点距離の値を対応点抽出処理の探索
範囲の限定に用いることを特徴とする請求項3記載の撮
像方法。4. The imaging method according to claim 3, wherein, in the parallax extraction step, values of a position, an orientation, and a focal length of each imaging system are used to limit a search range of the corresponding point extraction processing.
像する撮像方法において、各撮像系で得られた画像間の
視差を求める視差抽出ステップと、該視差抽出ステップ
により求められた視差から被写体抽出のための初期核を
作成する初期核作成ステップと、該初期核作成ステップ
により作成された初期核を領域成長させて画像中の被写
体領域を求める被写体領域抽出ステップと、該被写体領
域抽出ステップにより求められた被写体領域と撮像系で
撮像された画像とを一括に保存する保存ステップとを有
することを特徴とする撮像方法。5. An image pickup method for picking up an image by an image pickup apparatus having a plurality of image pickup systems, wherein a parallax extraction step for obtaining a parallax between images obtained by the respective image pickup systems, and a subject extraction from the parallax obtained by the parallax extraction step. An initial nucleus creating step for creating an initial nucleus for the subject, a subject area extracting step of growing a region of the initial nucleus created by the initial nucleus creating step to determine a subject area in the image, and an object nucleus extracting step. An image capturing method, comprising: a storing step of collectively storing the obtained subject region and an image captured by the image capturing system.
利用して被写体までの代表視差を求める代表視差抽出ス
テップと、前記視差抽出ステップにより求められた視差
と前記代表視差抽出ステップにより求められた代表視差
とを比較する比較ステップとを有することを特徴とする
請求項5記載の撮像方法。6. A representative parallax extracting step of obtaining a representative parallax to a subject using values of a position, an orientation, and a focal length of each imaging system, and a parallax obtained by the parallax extracting step and the representative parallax extracting step. 6. The imaging method according to claim 5, further comprising a comparing step of comparing the obtained representative parallax.
て、各撮像系の位置、向き、焦点距離の値を利用して各
撮像系で得られた画像間の視差を求める視差抽出手段
と、該視差抽出手段により求められた視差と前記撮像系
で撮像された画像とを一括に保存する保存手段とを有す
ることを特徴とする撮像装置。7. An image pickup apparatus having a plurality of image pickup systems, wherein parallax extraction means for obtaining parallax between images obtained by each image pickup system using values of the position, orientation, and focal length of each image pickup system; An image pickup apparatus comprising: a storage unit that collectively stores a parallax obtained by a parallax extraction unit and an image captured by the imaging system.
位置、向き、焦点距離の値を対応点抽出処理の探索範囲
の限定に用いることを特徴とする請求項7記載の撮像装
置。8. The imaging apparatus according to claim 7, wherein the parallax extraction unit uses the values of the position, orientation, and focal length of each imaging system to limit a search range of the corresponding point extraction processing.
て、各撮像系の位置、向き、焦点距離の値を利用して各
撮像系で得られた画像間の視差を求める視差抽出手段
と、該視差抽出手段により求められた視差の信頼度から
撮り直すか否かを判断する判断手段と、前記視差抽出手
段により求められた視差と撮像系で撮像された画像とを
一括に保存する保存手段とを有することを特徴とする撮
像装置。9. An image pickup apparatus having a plurality of image pickup systems, wherein parallax extracting means for obtaining a parallax between images obtained by each image pickup system by using values of a position, an orientation, and a focal length of each image pickup system; Determining means for determining whether or not to retake from the reliability of the parallax obtained by the parallax extraction means, and storage means for collectively storing the parallax obtained by the parallax extraction means and the image captured by the imaging system. An imaging device comprising:
の位置、向き、焦点距離の値を対応点抽出処理の探索範
囲の限定に用いることを特徴とする請求項9記載の撮像
装置。10. The imaging apparatus according to claim 9, wherein the parallax extraction unit uses the values of the position, orientation, and focal length of each imaging system to limit a search range of the corresponding point extraction processing.
て、各撮像系で得られた画像間の視差を求める視差抽出
手段と、該視差抽出手段により求められた視差から被写
体抽出のための初期核を作成する初期核作成手段と、該
初期核作成手段により作成された初期核を領域成長させ
て画像中の被写体領域を求める被写体領域抽出手段と、
該被写体領域抽出手段により求められた被写体領域と撮
像系で撮像された画像とを一括に保存する保存手段とを
有することを特徴とする撮像装置。11. An image pickup apparatus having a plurality of image pickup systems, wherein a parallax extracting means for obtaining a parallax between images obtained by the respective image pickup systems, and an initial kernel for extracting a subject from the parallax obtained by the parallax extract means. Initial nucleus creating means for creating, the subject area extracting means for obtaining a subject area in the image by area growing the initial nucleus created by the initial nucleus creating means,
An image pickup apparatus comprising: a storage unit that collectively stores a subject region obtained by the subject region extraction unit and an image captured by an imaging system.
を利用して被写体までの代表視差を求める代表視差抽出
手段と、前記視差抽出手段により求められた視差と前記
代表視差抽出手段により求められた代表視差とを比較す
る比較手段とを有することを特徴とする請求項11記載
の撮像装置。12. A representative parallax extracting means for obtaining a representative parallax to a subject using values of a position, an orientation, and a focal length of each imaging system, and a parallax obtained by the parallax extracting means and the representative parallax extracting means. 12. The imaging apparatus according to claim 11, further comprising a comparison unit configured to compare the obtained representative parallax.
するプログラムを格納する記憶媒体であって、各撮像系
の位置、向き、焦点距離の値を利用して各撮像系で得ら
れた画像間の視差を求める視差抽出モジュールと、該視
差抽出モジュールにより求められた視差と前記撮像系で
撮像された画像とを一括に保存する保存モジュールとを
有するプログラムを格納したことを特徴とする記憶媒
体。13. A storage medium for storing a program for controlling an image pickup apparatus having a plurality of image pickup systems, wherein an image obtained by each image pickup system using values of a position, an orientation, and a focal length of each image pickup system. A storage medium storing a program having a parallax extraction module for obtaining a parallax between the two, and a storage module for collectively storing the parallax obtained by the parallax extraction module and an image captured by the imaging system. .
撮像系の位置、向き、焦点距離の値を対応点抽出処理の
探索範囲の限定に用いることを特徴とする請求項13記
載の記憶媒体。14. The storage medium according to claim 13, wherein in the parallax extraction module, values of a position, an orientation, and a focal length of each imaging system are used to limit a search range of a corresponding point extraction process.
するプログラムを格納する記憶媒体であって、各撮像系
の位置、向き、焦点距離の値を利用して各撮像系で得ら
れた画像間の視差を求める視差抽出モジュールと、該視
差抽出モジュールにより求められた視差の信頼度から撮
り直すか否かを判断する判断モジュールと、前記視差抽
出モジュールにより求められた視差と撮像系で撮像され
た画像とを一括に保存する保存モジユールとを有するこ
とを特徴とする記憶媒体。15. A storage medium for storing a program for controlling an image pickup apparatus having a plurality of image pickup systems, wherein an image obtained by each image pickup system using values of the position, orientation, and focal length of each image pickup system. A parallax extraction module for obtaining a parallax between, a determination module for determining whether or not to retake from the reliability of the parallax obtained by the parallax extraction module, and a parallax obtained by the parallax extraction module and an image captured by an imaging system. And a storage module for collectively storing the images.
撮像系の位置、向き、焦点距離の値を対応点抽出処理の
探索範囲の限定に用いることを特徴とする請求項15記
載の記憶媒体。16. The storage medium according to claim 15, wherein in the parallax extraction module, values of a position, an orientation, and a focal length of each imaging system are used to limit a search range of a corresponding point extraction process.
するプログラムを格納する記憶媒体であって、各撮像系
で得られた画像間の視差を求める視差抽出モジュール
と、該視差抽出モジュールにより求められた視差から被
写体抽出のための初期核を作成する初期核作成モジュー
ルと、該初期核作成モジュールにより作成された初期核
を領域成長させて画像中の被写体領域を求める被写体領
域抽出モジュールと、該被写体領域抽出モジュールによ
り求められた被写体領域と撮像系で撮像された画像とを
一括に保存する保存モジュールとを有することを特徴と
する記憶媒体。17. A storage medium for storing a program for controlling an image pickup apparatus having a plurality of image pickup systems, comprising: a parallax extraction module for obtaining parallax between images obtained by each image pickup system; An initial nucleus creation module for creating an initial nucleus for subject extraction from the obtained parallax; a subject area extraction module for growing a region of the initial nucleus created by the initial nucleus creation module to obtain a subject area in an image; A storage medium comprising: a storage module that collectively stores a subject area obtained by a subject area extraction module and an image captured by an imaging system.
を利用して被写体までの代表視差を求める代表視差抽出
モジュールと、前記視差抽出モジュールにより求められ
た視差と前記代表視差抽出モジュールにより求められた
代表視差とを比較する比較モジュールとを有することを
特徴とする請求項17記載の記憶媒体。18. A representative parallax extraction module for obtaining a representative parallax to a subject using values of the position, orientation, and focal length of each imaging system, and a parallax obtained by the parallax extraction module and the representative parallax extraction module. The storage medium according to claim 17, further comprising: a comparison module configured to compare the obtained representative parallax.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8327823A JPH10155110A (en) | 1996-11-22 | 1996-11-22 | Image pickup method, device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8327823A JPH10155110A (en) | 1996-11-22 | 1996-11-22 | Image pickup method, device and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10155110A true JPH10155110A (en) | 1998-06-09 |
Family
ID=18203388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8327823A Pending JPH10155110A (en) | 1996-11-22 | 1996-11-22 | Image pickup method, device and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10155110A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012002157A1 (en) * | 2010-06-28 | 2012-01-05 | 富士フイルム株式会社 | Image capture device for stereoscopic viewing-use and control method of same |
WO2012127714A1 (en) * | 2011-03-24 | 2012-09-27 | 大日本スクリーン製造株式会社 | Three-dimensional position/posture recognition device, three-dimensional position/posture recognition method, and three-dimensional position/posture recognition program |
WO2013062087A1 (en) * | 2011-10-28 | 2013-05-02 | 富士フイルム株式会社 | Image-capturing device for three-dimensional measurement, three-dimensional measurement device, and measurement program |
WO2013146041A1 (en) * | 2012-03-28 | 2013-10-03 | 富士フイルム株式会社 | Image processing device and method, and imaging device |
-
1996
- 1996-11-22 JP JP8327823A patent/JPH10155110A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012002157A1 (en) * | 2010-06-28 | 2012-01-05 | 富士フイルム株式会社 | Image capture device for stereoscopic viewing-use and control method of same |
CN102959942A (en) * | 2010-06-28 | 2013-03-06 | 富士胶片株式会社 | Image capture device for stereoscopic viewing-use and control method of same |
JPWO2012002157A1 (en) * | 2010-06-28 | 2013-08-22 | 富士フイルム株式会社 | Stereoscopic image photographing apparatus and control method thereof |
JP5526233B2 (en) * | 2010-06-28 | 2014-06-18 | 富士フイルム株式会社 | Stereoscopic image photographing apparatus and control method thereof |
US9774841B2 (en) | 2010-06-28 | 2017-09-26 | Fujifilm Corporation | Stereoscopic image capture device and control method of the same |
WO2012127714A1 (en) * | 2011-03-24 | 2012-09-27 | 大日本スクリーン製造株式会社 | Three-dimensional position/posture recognition device, three-dimensional position/posture recognition method, and three-dimensional position/posture recognition program |
WO2013062087A1 (en) * | 2011-10-28 | 2013-05-02 | 富士フイルム株式会社 | Image-capturing device for three-dimensional measurement, three-dimensional measurement device, and measurement program |
JP5600220B2 (en) * | 2011-10-28 | 2014-10-01 | 富士フイルム株式会社 | 3D measuring device |
WO2013146041A1 (en) * | 2012-03-28 | 2013-10-03 | 富士フイルム株式会社 | Image processing device and method, and imaging device |
JPWO2013146041A1 (en) * | 2012-03-28 | 2015-12-10 | 富士フイルム株式会社 | Image processing apparatus and method, and imaging apparatus |
US9596455B2 (en) | 2012-03-28 | 2017-03-14 | Fujifilm Corporation | Image processing device and method, and imaging device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10540806B2 (en) | Systems and methods for depth-assisted perspective distortion correction | |
CN107087107B (en) | Image processing apparatus and method based on dual camera | |
JP5154392B2 (en) | Imaging device | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
CN108600576B (en) | Image processing apparatus, method and system, and computer-readable recording medium | |
EP0774730B1 (en) | Object extraction method, and image sensing apparatus using the method | |
CN106899781B (en) | Image processing method and electronic equipment | |
CN113129241B (en) | Image processing method and device, computer readable medium and electronic equipment | |
US7868915B2 (en) | Photographing apparatus, method and computer program product | |
JP2008294741A (en) | Imaging system | |
KR101853269B1 (en) | Apparatus of stitching depth maps for stereo images | |
KR20190044439A (en) | Method of stitching depth maps for stereo images | |
DK3189493T3 (en) | PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP | |
CN111105370A (en) | Image processing method, image processing apparatus, electronic device, and readable storage medium | |
JP2006113832A (en) | Stereoscopic image processor and program | |
JP4169464B2 (en) | Image processing method, image processing apparatus, and computer-readable recording medium | |
JPH10155110A (en) | Image pickup method, device and storage medium | |
JP3282332B2 (en) | Image input system | |
US20230306564A1 (en) | System and Methods for Photo In-painting of Unwanted Objects with Auxiliary Photos on Smartphone | |
JPH1023311A (en) | Image information input method and device therefor | |
JPH09231370A (en) | Picture information input device | |
JP5149984B2 (en) | Imaging device | |
JPH09327037A (en) | Contour extracting method and method and device for extracting image | |
JPH09231369A (en) | Picture information input device | |
JP2005216191A (en) | Stereo image processing apparatus and method |